El desarrollo y uso de tecnologías de inteligencia artificial ha crecido a un ritmo vertiginoso desde finales del siglo XX. A grandes rasgos, las tecnologías de inteligencia artificial involucran el uso de algoritmos cuyo propósito inicial fue crear máquinas que imitaran la inteligencia humana. Puesto que hoy en día dichas tecnologías cuentan con un gran poder de cómputo y procesamiento de la información, se espera que ofrezcan un desempeño superior al de los seres humanos en la resolución de diversas tareas y problemas. Como resultado, actualmente existen programas de inteligencia artificial que se usan para determinar calificaciones de estudiantes, personalizar publicidad en línea, aprobar financiamiento y crédito, ofrecer diagnósticos médicos, predecir reincidencia criminal, detectar y reconocer datos biométricos, conducción autónoma de vehículos, usos militares, entre otras muchas aplicaciones.
El uso de estas tecnologías supone numerosos retos y dilemas éticos, entre los que destaca la amenaza de lacerar la dignidad humana. Por ejemplo, el uso de inteligencia artificial en el diagnóstico de enfermedades es consistentemente percibido por los pacientes como deshumanizante y como algo que quebranta su dignidad. Los vehículos de conducción autónoma son otro ejemplo, ya que en diversos escenarios (análogos al dilema del tranvía planteado por Philippa Foot) dichos vehículos autónomos tendrán que ‘tomar decisiones’ en las que la dignidad de algunas personas será ignorada. Así, en 2016 la compañía automotriz Mercedes-Benz anunció que, en caso de que sus vehículos autónomos tuvieran que decidir entre la vida de sus pasajeros y la de los peatones, la prioridad sería la vida de los primeros. El uso de inteligencia artificial en la recolección y el uso de datos personales también pone en peligro la dignidad humana. Por ejemplo, el monitoreo y vigilancia invasivos que constantemente llevan a cabo los algoritmos de recolección de datos permiten que compañías de seguros, empleadores y agencias publicitarias exploten información personal y sensible. Otro caso extremo en donde el uso de inteligencia artificial atropella la dignidad humana es el de fines militares, en donde seres humanos son representados como blancos enemigos sin que su dignidad sea considerada en dicha representación. Estas situaciones ilustran cómo el uso de tecnologías de inteligencia artificial atenta contra la dignidad humana al no reconocer el deber de respetar la integridad de todos los seres humanos por igual.
Responder a éstos y otros retos que supone el uso de tecnologías de inteligencia artificial requiere crear regulaciones y marcos legales para garantizar que el uso de dichas tecnologías no vulnere la dignidad humana. Ofrecer un fundamento normativo con ese propósito depende de contar con un concepto claro de dignidad humana; sin embargo, no hay un consenso respecto a cómo entender este concepto. En la historia contemporánea, el concepto de dignidad humana ha jugado un papel importante a partir de su introducción en la Declaración Universal de los Derechos Humanos en 1948, donde sirvió como una especie de punto de referencia moral y guía normativa para el marco legal de los derechos humanos. De acuerdo con Marcus Düwell, entonces parecía que todo el mundo compartía y tenía claro el concepto de dignidad humana, por lo que se consideraba innecesario explicarlo y justificarlo. No obstante, el papel central que ha desempeñado en importantes debates morales a lo largo del siglo XXI –por ejemplo, en torno a la eutanasia– muestra la ausencia de un consenso respecto a cómo entenderlo el concepto y pone en duda su utilidad para zanjar debates morales.
Las y los filósofos morales contemporáneos han empleado el concepto de dignidad humana para denotar un valor que se asume inherente a todos los seres humanos, para hacer referencia a una capacidad que al menos potencialmente tienen los seres humanos o para identificar una virtud moral. No es enteramente claro cuál de estas maneras de concebir la dignidad humana es la más adecuada para responder a los retos que supone el uso de tecnologías de inteligencia artificial. Tal objetivo exige que el concepto de dignidad humana impone el deber de respetar a todas las personas. Esto a su vez, sólo es posible si el concepto de dignidad humana tiene un alcance universal, tiene el respeto a los seres humanos como directriz y tiene un grado de exigencia que hace prioritaria a la dignidad. Las concepciones de la dignidad humana en términos de valor, capacidades o virtud no logran reunir estos rasgos.
En vista de los problemas que presentan la mayoría de los conceptos de dignidad humana que ofrece la filosofía moral del siglo XXI, es imperativo desarrollar un concepto de dignidad humana basado en criterios que impongan el deber de respetar a todos los seres humanos por igual, dando un alcance universal al concepto, asignando al respeto a los seres humanos un papel directriz e imponiendo un grado de exigencia que haga prioritaria a la dignidad misma. Un concepto de dignidad humana desarrollado bajo esos criterios permitirá responder a los principales retos que supone el uso de tecnologías de inteligencia artificial.