Dignidad, derechos e Inteligencia Artificial
en el sector biosanitario*

dignity, rights and artificial intelligence in the biomedical sector

José Justo Megías Quirós

Universidad de Cádiz

josejusto.megias@uca.es 0000-0002-2245-7971

Recibido: 8 de septiembre de 2025 | Aceptado: 16 de diciembre de 2025

IUS ET SCIENTIA • 2025 • ISSN 2444-8478

Vol. 11 • Nº 2 · pp. 176-195

https://dx.doi.org/10.12795/IETSCIENTIA.2025.i02.09

RESUMEN

PALABRAS CLAVE

La aplicación de sistemas de Inteligencia Artificial (IA) en todos los campos de la vida humana es cada vez más intensa, lo que ha supuesto notables beneficios en muchos de ellos, pero, al mismo tiempo, ha introducido nuevos riesgos para la dignidad y el disfrute de los derechos humanos. Ello ha llevado a la aprobación de documentos internacionales (legales y éticos) para encauzar la creación e implementación de estos sistemas con el objetivo de salvaguardar la dignidad humana y los derechos. En estas páginas se analiza el enfoque en este sentido de los textos más importantes aprobados hasta el momento, el Reglamento sobre IA de la Unión Europea y la Recomendación de la UNESCO, a los que hemos añadido un documento de la Iglesia Católica por sus coincidencias con los anteriores y sus propuestas de sentido común.

Derechos humanos

Dignidad

Inteligencia artificial

Ética

Salud

ABSTRACT

KEYWORDS

The application of Artificial Intelligence (AI) systems in all areas of human life is increasingly intense, bringing significant benefits in many areas, but at the same time introducing new risks to human dignity and the enjoyment of human rights. This has led to the adoption of international documents (legal and ethical) to guide the creation and implementation of these systems with the aim of safeguarding human dignity and rights. These pages analyze the approach in this regard of the most important texts approved to date: the European Union Regulation on AI and the UNESCO Recommendation. We have also added a document from the Catholic Church due to its similarities with the previous ones and its common-sense proposals.

Human rights

Dignity

Artificial intelligence

Ethics

Health

I. Introducción

Negar que los sistemas de IA tienen consecuencias, positivas o negativas, sobre la dignidad de la persona y sus derechos es desconocer la realidad más evidente. La práctica totalidad de los derechos humanos, para bien o para mal, resultan afectados por los sistemas y aplicaciones de IA y, por tanto, también la dignidad como fundamento de ellos. Aunque existe consenso en que los derechos a la intimidad y la privacidad son los que mayor riesgo corren, no cabe duda de que también el derecho a la vida [1] , a la integridad física y psíquica, a la salud, a la igualdad, a la autonomía, a la información, a la justicia, etc., pueden resultar lesionados [2] .

Al derecho y a la ética, como ciencias sociales complementarias, les corresponde regular y encauzar las acciones y relaciones humanas por el camino del máximo respeto hacia la dignidad de todo ser humano sin excepción [3] . Sin embargo, esta labor se torna difícil cuando se relativiza el concepto de dignidad, cuando ésta se deja al arbitrio de lo que pueda decidir cada individuo o se hace depender de una mayoría parlamentaria (ni siquiera una mayoría social) y, mucho más, cuando se deja –como está comenzando a ocurrir– en manos de herramientas tecnológicas [4] . Los sistemas de IA son incapaces en este terreno de sustituir al ser humano, que cuenta con la capacidad de la sindéresis para combinar conocimiento teórico y práctico, experiencia, intuición, emociones, valoración de consecuencias, etc., para concluir un juicio ético en cada caso concreto. Y esos juicios éticos correctos en el campo biosanitario son esenciales para la dignidad.

A esta incapacidad de las máquinas hay que añadir un riesgo muy actual. Si durante la Modernidad se pusieron las bases para relativizar la dignidad, desarrolladas en los siglos posteriores, esta relativización se consolidó con las éticas consensualistas y utilitaristas que triunfaron durante la segunda mitad del siglo XX, éticas que dominan el pensamiento contemporáneo aun sin que seamos conscientes de ello, como ocurre en gran medida a las generaciones más jóvenes, convencidas de que cada sujeto es dueño absoluto de su vida –sin más límites que su propia voluntad– y de que su opinión personal sobre cualquier asunto tiene el mismo valor que la opinión de los expertos en la materia. El consenso es indispensable y esencial para el buen funcionamiento de la sociedad, pero ni todo es consensuable (existen exigencias objetivas de justicia, como no condenar al inocente) ni todo consenso alcanzado sobre lo opinable es admisible, pues puede ser el resultado de un simple acuerdo de los más fuertes para someter a los vulnerables.

II. De la dignidad ontológica a la autodignidad

Hablar de dignidad ontológica, intrínseca, inherente, etc., apela a una cualidad del ser humano, a un modo de ser que, por ser propio de su naturaleza, está presente en todo ser humano sin excepción, desde el primer momento de su existencia hasta su muerte, y que nos hace a cada uno ser únicos, irrepetibles, imprescindibles, de valor inconmensurable, imposibles de convertir en objetos o instrumentos para lograr algún fin, por bueno que sea éste, porque cada ser humano es un fin en sí mismo . Esa dignidad ni se gana ni se pierde, acompaña al ser humano desde el inicio de su existencia y permanece siempre.

A pesar de que los estoicos se acercaron en gran medida a esta concepción, no dieron el paso definitivo para reconocer la dignidad inherente de todo ser humano. Defendieron que todo ser humano participaba de una cualidad común, la humanidad , que le hacía diferente de cualquier otro animal, apreciable en su racionalidad y libertad (Megías Quirós, 2020, pp. 59-70). Ambos atributos estaban situados en un mismo plano, por lo que la racionalidad (lo que racionalmente aparecía como exigible) no podía condicionar la libertad personal. Así lo asumieron los estoicos romanos, entre otros, Séneca y Cicerón, dos de los mayores transmisores de estas ideas en su época, que continuaron sin apreciar una dignidad ontológica que hiciera iguales a todos los seres humanos, a libres y esclavos, mujeres y hombres, romanos y bárbaros, etc. [5]

El paso hacia la igualdad de todo ser humano en razón de la dignidad ontológica se dio, a juicio de Habermas, en la Edad Media, aunque admite que fue en la Antigüedad cuando se estableció la relación jurídica entre dignidad y persona para pasar del valor relativamente superior de la humanidad (sobre los animales) al valor incomparable de cada ser humano (Habermas, 2010, p. 116).

En nuestra opinión, el primero en fundamentar esa igual dignidad natural e inherente de todos los seres humanos sin excepción fue Gregorio de Nisa [6] , que la concebía como lo más constitutivo del ser humano por ser consecuencia de haber sido creado a imagen y semejanza de Dios, acompañada de la racionalidad y la libertad precisamente para salvaguardar tal dignidad. En De hominis opificio expuso que el ser humano no era digno por estar dotado de racionalidad y libertad, sino que era racional y libre para poder vivir conforme a la dignidad inherente con la que había sido creado y nacido, pudiendo ser soberano de sí mismo a diferencia de los animales. Por ello defendía que cuando la libertad se utilizaba para atentar contra la dignidad constitutiva, propia o ajena, dañando así la imagen divina con la que el ser humano había sido creado, dejaba de ser libertad para convertirse en un abuso de ella (Gregorio de Nisa, 1857-1866, vol. 44, col. 133-136).

Aunque fue Kant quien popularizó muchos siglos después la idea de que al ser humano no se le puede poner precio, el primero en afirmarlo fue el niseno al manifestarse en contra de la esclavitud. “¿Qué encontraste entre los seres de la naturaleza que sea de igual valor que el hombre? ¿En cuánto dinero valoraste la razón? ¿Con cuántos óbolos equilibraste el peso de la imagen de Dios? ¿Por cuántas monedas de plata vendiste la naturaleza modelada por Dios?” (Gregorio de Nisa, 2012, p. 76). Y ahondó en la imposibilidad de poner precio al ser humano partiendo de la afirmación de que Dios le entregó el dominio sobre la tierra, afirmando que “¿Cómo podrá ser vendido el que gobierna toda la tierra y todas las cosas que están sobre la tierra? En efecto, es totalmente necesario que los bienes que posee el que es vendido sean entregados juntamente con él. Ahora bien, ¿en cuánto valoraremos toda la tierra? Y ¿En cuánto [valoraremos] todas las cosas que están sobre la tierra? Mas si estas cosas no son valorables –dime– ¿cuál es el precio de lo que está por encima de ellas?” (Gregorio de Nisa, 2012, p. 76) [7] . La conclusión era obvia, si no se podía poner precio a la creación, mucho menos se podría tasar a quien era señor y administrador de toda ella por concesión divina.

Las mismas ideas se repiten en san Agustín, que llegó a afirmar que “el libre albedrío de que está dotada [la persona] es un brillante atributo de su dignidad” [8] . El que la libertad fuera atributo de la dignidad –y no al contrario– le llevó a afirmar que, incluso perdiendo la libertad (por esclavitud), la dignidad permanecía intacta como cualidad porque era inherente a su modo de ser. Ni aun utilizando mal la libertad personal se perdería la dignidad ontológica, porque las acciones de un sujeto sólo podrían dañar la naturaleza recibida de Dios, pero no cambiarla [9] . La dignidad ontológica no desaparecía ni siquiera en quienes abusaban de su libertad haciéndose daño a sí mismo o a los demás.

Esta concepción será aún más desarrollada por Tomás de Aquino en la Suma Teológica (I, qq. 91-93), recogida por dos de sus más fieles comentadores, Vitoria y Soto. Pero comenzará a cambiar con el racionalismo de la Modernidad (Pufendorf, Thomasius, etc.) con la sobrevaloración de la libertad, identificada con la autonomía moral como cualidad esencial del ser humano. En esta nueva mentalidad, la persona dejaba de ser un fin en sí mismo para convertirse en un fin en sí mismo para sí : nada ni nadie podía fijar qué fines podían ser los más adecuados para encontrar la felicidad personal; sólo a cada sujeto competía, haciendo uso de su libertad (autonomía), decidir qué era lo mejor para él, que era lo que le haría feliz y perseguirlo sin obstáculos, salvo que voluntariamente se hubiera otorgado tal facultad de decidir a una autoridad (Hobbes y Locke).

Sobredimensionada así la libertad personal, nada limitaba la materia objeto de la autonomía moral. Ni el modo de ser (la naturaleza humana o la dignidad inherente) ni la realidad externa podían condicionar la autonomía. Y, consecuentemente, nadie podría convertir a otro en instrumento al servicio de algo (por ejemplo, el bien común) o de alguien, pero cada uno sí que podría consentirlo gracias a su autonomía. De este modo, la dignidad, que se pretendía reconocer universalmente a todo ser humano, quedó convertida en un patrimonio subjetivamente valioso: el ser humano era valorable, aunque correspondía a cada sujeto determinar cuál era su propio valor. Es decir, los individuos aparecían, al menos teóricamente, como propietarios de sí mismos, sin límite [10] .

Tal línea de pensamiento fue desarrollada por Kant con mayor precisión filosófica al contraponer precio y dignidad. Para Kant las cosas tenían precio, mientras que las personas tenían dignidad. Pero su discurso, aun sin tener esta intención, abrió la puerta a continuar identificando la dignidad con la autonomía moral y a la posibilidad de una autovaloración de sí mismo por parte de cada sujeto [11] . Aunque es cierto que para Kant nadie podía poner precio a los demás, sin embargo, admitía que cada uno, haciendo uso de su autonomía, podía fijar su propio valor, o podía negociar con los demás el valor o alcance de la dignidad en general, de modo que un consenso social mayoritario podría establecer los límites generales que cada sujeto debería respetar al tomar decisiones sobre sí mismo, porque todo ser humano era un fin en sí mismo para sí [12] . Se abría camino, así, la dignidad como valor o autodignidad, no como cualidad inherente fuera del alcance de la autonomía personal, lo que permitió que pensadores posteriores defendieran que el comienzo y final de la existencia como persona, lo adecuado a su modo de ser, los fines humanos, etc., podían ser determinados por cada sujeto en particular o mayoritariamente si se hubiera prestado el consentimiento para ello.

Este planteamiento se aprecia en el ambiente filosófico del siglo XVIII. Cuando Kant publicó su Fundamentación de la Metafísica de las Costumbres , estas ideas ya estaban formuladas por otros pensadores [13] , aunque no con la profundidad con la que las expuso el prusiano ni con la sutil equiparación entre libertad (Freiheit) y arbitrio (Willkür) que terminaría en la propuesta de vivir y dejar vivir (leben und leben lassen) para todos aquellos asuntos humanos que no lograran el consenso social [14] .

Sus discípulos y seguidores fueron quienes llevaron hasta las últimas consecuencias el planteamiento kantiano e impregnaron todo el pensamiento ético y jurídico posterior con la nueva concepción de la libertad y de la autodignidad. Resulta sencillo encontrar en sus obras postulados que aún nutren la base de numerosas corrientes contemporáneas, postulados como que el primer derecho del hombre es el que le otorga el poder de disponer sobre sí mismo sin limitación (Schmalz, 1795, § 48) [15] , o que toda decisión autónoma de un sujeto debe ser respetada, aunque implique daño para quien la tomó (Kohlschütter, 1798, p. 28), o que sólo el consentimiento personal puede legitimar ser puesto al servicio de fines ajenos porque el ser humano es un fin en sí mismo para sí (Jakob, 1795, §§ 90-91) [16] , o que la voluntad es el fundamento de la libertad y autonomía del hombre, por lo que quien no disponga de ella no cuenta para la sociedad (Schaumann, 1793, pp. 14 y 82). En los inicios del siglo XIX estas ideas ya estaban extendidas y constatamos en Fries, por ejemplo, que la dignidad personal consistía en poder consentir o rechazar cualquier obligación con absoluta libertad (Fries, 1803, p. 5), mientras que Brückner la identificó con la autonomía normativa de la razón, convirtiéndola en la autoridad suprema del Derecho, con absoluto desprecio hacia las exigencias objetivas que pudieran derivar de la realidad natural (Brückner, 1810, §§ 157 y 164).

Estas ideas, por el atractivo que conllevan de aparente libertad absoluta, tienden a imperar en nuestros días legitimando que cada sujeto pueda decidir sobre en qué consiste la dignidad, o decidir a quién se le atribuye el título de persona y, por tanto, de ser digno. La concepción clásica de la dignidad fundada sobre la base ontológica del ser humano ha sido sustituida así, desgraciadamente, por otra de corte fenomenológico que convierte la racionalidad y autonomía fácticas en el único fundamento de la dignidad humana [17] .

III. Consecuencias de estas ideas sobre los derechos humanos

Los derechos humanos nacieron con dos claras finalidades, complementarias e inseparables. Por un lado, proteger la propia existencia de todo ser humano y asegurar que tal existencia sea digna de ser vivida; por otro, de forma simultánea, garantizar las diversas posibilidades biográficas de cada persona, es decir, el libre desarrollo de la personalidad en armonía plena con el entorno social, ser cada uno quien desea ser dentro de sus posibilidades, respetando siempre el natural modo de ser de la persona.

Estos derechos no se conceden, se reconocen [18] , porque existe un fundamento natural e indiscutible para ello, la dignidad ontológica, y no deberían depender de pactos, acuerdos, sentimientos u opciones personales [19] . Sin embargo, la relativización de la dignidad por la mentalidad contemporánea permite acomodar y someter estos derechos a la autonomía personal, tratando de eliminar todo aquello que parece cercenar el libre y absoluto albedrío personal. Por ello no es extraño encontrar a quienes presentan la dignidad como una caja jurídica vacía donde podemos introducir nuestros deseos o aspiraciones, sin límites, para extraerlos posteriormente convertidos en derechos [20] . Así se trata de justificar hoy día, por ejemplo, que la enfermedad, el sufrimiento, la infertilidad o una discapacidad física o psíquica, etc., son situaciones indignas a las que se puede poner término de cualquier modo siempre que medie una voluntad libre de la persona afectada o de quienes puedan decidir por ella, o, incluso, contra su voluntad cuando es la mayoría social quien se ha pronunciado al respecto. Del mismo modo, el libre desarrollo de la personalidad es entendido como justificador de todo aquello que el individuo quiera libremente para sí, aunque las consecuencias de la decisión conlleve actuar contra su propia naturaleza, contra la integridad física o la dignidad [21] .

Frente a este planteamiento deberíamos reconocer que el ser humano no es digno por tener libertad, sino que es libre porque tiene dignidad, de modo que, cuando abusamos de la libertad hasta el punto de atentar contra nuestra propia naturaleza, contra nuestro propio modo de ser, socavamos nuestra dignidad ontológica, del mismo modo que, cuando se nos impide desplegar nuestra verdadera libertad –no nuestra arbitrariedad– sin una razón que lo justifique objetivamente, lesionan nuestra dignidad, se nos animaliza, instrumentaliza o cosifica. Y desde esta perspectiva es desde la que deberíamos enjuiciar las consecuencias de los sistemas de IA sobre la dignidad y sobre los derechos humanos que encuentran su fundamento en ella, especialmente en el ámbito biosanitario.

Hoy se tiende a destacar más los beneficios que aportan los sistemas de IA en este ámbito [22] que los riesgos que pueden suponer para la dignidad y los derechos humanos, especialmente por parte de la IA generativa (Nadeu Camprubí, 2024, pp. 29-36; Castillo Parrilla, 2024, pp. 757-777). Esta es la razón que nos ha llevado a analizar los tres documentos, jurídicos y/o éticos, que comentaremos a continuación, y que nos pueden ayudar a comprender las líneas y modos de protección que proponen.

IV. Dignidad y derechos en los documentos internacionales sobre IA

Los tres documentos en los que nos centraremos son el Reglamento de la UE sobre la IA [23] , la Recomendación de la UNESCO de 2021 [24] y la nota de la Iglesia Católica sobre la IA [25] . Todos ellos proponen unas orientaciones, principios o normas con el objetivo de lograr una IA centrada en la persona, al servicio del ser humano, y no una simple herramienta para obtener cualquier tipo de beneficios, pero encontramos coincidencias y sutiles diferencias entre unos y otros.

En el ámbito regional europeo se aprobó en 2024 el Convenio Marco del Consejo de Europa sobre Inteligencia Artificial y derechos humanos, democracia y Estado de derecho . Regula de modo vinculante el desarrollo, diseño y aplicación de la IA para los Estados miembros del Consejo de Europa, que deber á n adaptar sus legislaciones cuando lo ratifiquen. No lo tendremos en consideración en estos comentarios porque, a pesar de haber sido ya firmado por dieciséis Estados, aún no ha sido ratificado por ninguno de ellos, y necesita al menos cinco ratificaciones para su entrada en vigor [26] .

4.1. Reglamento UE

Es el documento más normativo, pero, al mismo tiempo, de ámbito de aplicación más limitado. Su ámbito de aplicación directo se reduce a los países que integran la UE, aunque indirectamente afecta a terceros países que tengan relaciones, fundamentalmente económicas, con los países de la UE. Sin embargo, es el más normativo porque sus exigencias son de aplicación directa y de obligado cumplimiento para todos los Estados de la UE, no meras recomendaciones (aunque las contiene también) [27] .

En el articulado no aparece el término dignidad, sí en seis ocasiones en los considerandos previos, en concreto en el 27, 28, 31, 48, 58 y 80. Es curioso que, a pesar de ofrecer en su artículo 3 sesenta y ocho definiciones, ninguna de ellas esté referida a la dignidad y que en los citados considerandos aparezca en dos ocasiones como derecho a la dignidad en lugar de considerarla presupuesto y fundamento de todos los derechos fundamentales [28] . Y no sólo eso, sino que, en tres considerandos, sitúa la autonomía al mismo nivel que la dignidad, en lugar de considerarla complemento o exigencia derivada de ésta, lo que la limitaría como causa legitimadora para lesionar la dignidad propia.

Tampoco aparece el término derechos humanos en el articulado, y una sola vez en los considerandos, aunque es una cuestión de nomenclatura, pues se refiere a ellos con la expresión derechos fundamentales en correspondencia con la Carta de Derechos Fundamentales de la UE. Este término recibe noventa y seis menciones, cincuenta y una en los considerandos, cuarenta y cuatro en el articulado y una en el Anexo VIII.

Si bien el objetivo del Reglamento es lograr una IA “centrada en el ser humano” (art. 1), muestra preferencia por emplear el término persona , que utiliza en 286 ocasiones (para referirse tanto a personas físicas como jurídicas) frente a las 16 en que utiliza el término ser humano . No debería tener gran trascendencia, salvo por la frecuencia con que en el ámbito jurídico se niega determinados derechos a los seres humanos que no han alcanzado la condición de persona conforme a las regulaciones internas (de ahí que se permita en la UE la producción y selección de embriones, su congelación, etc.).

El Reglamento entró en vigor el 1 de agosto de 2024, estableciendo una aplicación escalonada. Resulta de aplicación desde el 2 de febrero de 2025 para los sistemas de IA de riesgo inaceptable prohibidos por el Reglamento, y desde el 2 de agosto para los sistemas de IA generativa [29] . Pero no será de aplicación a determinados sistemas de alto riesgo hasta el 2 de agosto de 2026, ni a los sistemas de alto riesgo del Anexo III hasta el 2 de agosto de 2027, lo que supone que la UE ha dejado un margen muy amplio de tiempo para la adaptación de los sistemas a la regulación. Llama la atención que, siendo ya de aplicación para determinados sistemas de alto riesgo, los Estados aún no hayan creado las autoridades internas que deben supervisar el cumplimiento del Reglamento y no hayan desarrollado su legislación interna en este sentido [30] .

Lo más criticable del Reglamento, en nuestra opinión, es que, a pesar de su deseo de lograr una IA centrada en el ser humano, segura, de confianza y ética, en el fondo pretende regular la IA de tal modo que Europa no pierda el tren de la investigación y del comercio respecto al resto del mundo, de ahí que establezca salvedades a las restricciones contempladas en su articulado y lo justifique en los considerandos preliminares. Por ejemplo, justifica la no aplicación del Reglamento a los sistemas de IA desarrollados específicamente con fines de investigación y científicos que se pongan únicamente a disposición de estos fines (considerando 25), pero la dignidad y los derechos humanos merecen también el máximo respeto en estos supuestos, no solamente en los que se introduzcan en el mercado; los avances científicos no pueden estar construidos sobre la cosificación del ser humano o la lesión de sus derechos. Otro ejemplo es la prohibición de los sistemas de evaluación (puntuación) alimentados con datos desvinculados del contexto en el que éstos se produjeron porque pueden generar discriminación, prohibición que no regirá cuando se persiga con la evaluación un fin conforme al Derecho de la UE; en este caso, el fin perseguido podría justificar, en caso de lagunas del Derecho de la UE, el uso de medios que atentan contra los derechos (privacidad, igualdad, etc.) de la persona. En la misma línea, el Reglamento establece una restricción para los sistemas de IA que simulan emociones o infieren las de los usuarios para evaluar o interactuar con ellos, pero también les deja vía libre en determinados supuestos.

Junto a la crítica anterior, echamos en falta una cláusula general que prohíba cualquier sistema de IA que atente contra la dignidad del ser humano, que permitiría a los tribunales declarar ilícitos aquellos sistemas de IA que se sirvan de subterfugios para eludir las restricciones, así como futuros sistemas que no hayan sido contemplados hasta ahora y supongan un alto riesgo para la dignidad y los derechos humanos.

En lo que se refiere al campo biosanitario y el derecho a la salud, el Reglamento prohíbe o restringe expresamente: los que deciden sobre el acceso a servicios públicos y prestaciones esenciales (sanitarias, de enfermedad, de maternidad, etc.); los que evalúan riesgos personales y fijan precios de los seguros de vida y salud; los que evalúan, clasifican y priorizan las llamadas de emergencia o la intervención en la asistencia médica, realizan triaje de pacientes, etc.

4.2. Recomendación de la UNESCO

Aprobada en 2021, su ámbito de aplicación es universal, pero, como afirma ella misma, de carácter ético, no vinculante, aunque insta a todos los Estados a regular los sistemas de IA en sus legislaciones internas conforme a las recomendaciones que realiza [31] . Consciente de que los sistemas de IA plantean nuevas cuestiones éticas, propone buscar respuestas desde una ética que tome “como referencia la dignidad humana, el bienestar y la prevención de daños” (§ 1).

La autonomía personal aparece citada en cinco ocasiones como cuestión esencial a proteger frente a las posibles intromisiones, restricciones o manipulaciones por los sistemas de IA. No la reconoce como una facultad ilimitada, sino que tiene límites, y uno de ellos es la dignidad [32] . Por su parte, la dignidad no sólo es mencionada en catorce ocasiones (dos en el Preámbulo y doce en el cuerpo de la Recomendación), sino que es considerada el eje central, junto a los derechos humanos y las libertades fundamentales, manifestando que uno de los objetivos de la Recomendación es su protección, promoción y respeto (§ 8 c), única vía para lograr que los sistemas de IA estén al servicio de la humanidad y de las personas (§ 5). Insiste en ello al afirmar explícitamente que “la dignidad inviolable e intrínseca de cada ser humano constituye la base del sistema universal, indivisible, inalienable, interdependiente e interrelacionado de derechos humanos y libertades fundamentales. Por consiguiente, el respeto, la protección y la promoción de la dignidad humana y de los derechos establecidos por el derecho internacional, en particular el derecho internacional de los derechos humanos, son esenciales a lo largo del ciclo de vida de los sistemas de IA. La dignidad humana tiene que ver con el reconocimiento del valor intrínseco e igual de cada ser humano” (§ 13). Por si no hubiera quedado claro, vuelve a afirmar más adelante que “las personas nunca deberían ser cosificadas, su dignidad no debería ser menoscabada de ninguna otra manera, y sus derechos humanos y libertades fundamentales nunca deberían ser objeto de violación o abusos” (§ 15) [33] .

De todo lo anterior, del hecho de que utilice los términos ser humano y persona de modo indistinto (el primero en treinta y tres ocasiones y el segundo en cuarenta y cuatro) y de presentar la dignidad como “inviolable e intrínseca de cada ser humano”, podemos concluir su sintonía con los instrumentos internacionales y su intención de proteger a todo ser humano, antes o después de nacer, mujer u hombre, de una u otra etnia o color, con independencia de posibles discapacidades, etc. [34]

Al referirse a los derechos, siempre prefiere la expresión derechos humanos , conforme a los instrumentos de Naciones Unidas. Son mencionados en sesenta y cuatro ocasiones, además de referirse en otras veintitrés ocasiones a los derechos de grupos (niños, mujer, personas con discapacidad, etc.). Aunque hace hincapié en algunos derechos que pueden resultar más amenazados por los sistemas de IA (la intimidad, la privacidad, la autonomía, etc.), persigue la protección de todos los derechos reconocidos en la Declaración Universal de Derechos Humanos, en los Pactos Internacionales de derechos (civiles, políticos, económicos, sociales y culturales) y en cualquier Convención de derechos aprobada por Naciones Unidas.

Lo más destacable de la Recomendación, a efectos del propósito de estas páginas, es que dedica un apartado completo a los efectos de la IA en el ámbito de la salud y la bioética (Ámbito de actuación 11: Salud y bienestar social, §§ 121-129) [35] .

En primer lugar, propone a los Estados un esfuerzo en el empleo de sistemas eficaces de IA para mejorar la salud humana y proteger el derecho a la vida, así como garantizar que su uso sea conforme al derecho internacional y respete los derechos humanos, citando expresamente que deberán tener “en cuenta la importancia de las relaciones del paciente con su familia y con el personal sanitario” (§ 121). En otras palabras, la eficacia económica o en la gestión de un sistema de IA no puede conllevar la deshumanización de las relaciones sanitarias.

Todo sistema de IA relacionado con la salud en general y la salud mental en particular [36] debe estar regulado de tal modo que sea seguro, eficaz, eficiente y probado desde el punto de vista científico y médico, alentando a contar con la participación activa de los pacientes en todas las etapas de desarrollo del sistema (§ 122).

Respecto a los sistemas de IA de predicción, detección y tratamiento médico, su regulación deberá incluir (§ 123): una supervisión que minimice y atenúe los sesgos; la participación de profesionales, pacientes, cuidadores o usuarios del servicio en la elaboración del algoritmo; protección de la privacidad y de los datos personales; garantías del consentimiento informado del tratamiento de datos y el conocimiento de su fin; garantías de que el cuidado humano y la decisión final sobre diagnóstico y tratamiento corresponda al médico, no al sistema; y la evaluación del sistema de IA por un comité de investigación ética antes de su uso clínico.

Respecto al uso de robots asistenciales, la regulación deberá exigir que las interacciones estén sometidas a los valores y principios recogidos en la Recomendación (§§ 25-47 : proporcionalidad e inocuidad, seguridad y protección, equidad y no discriminación, sostenibilidad, protección de la intimidad y datos personales, supervisión y decisión final humana, transparencia y explicabilidad, responsabilidad y rendición de cuentas, sensibilización y educación, y gobernanza y colaboración adaptativas y de múltiples partes interesadas) y que se preste especial atención a sus posibles consecuencias sobre la salud física y mental [37] , en especial las consecuencias de aquellos sistemas de IA que puedan manipular sesgos cognitivos humanos, hacer mal uso de ellos o atentar contra la dignidad y autonomía de las personas asistidas (§§ 125-126). Una de las exigencias concretas, en respuesta a la creciente antropomorfización de las tecnologías de la IA y de los sistemas que reconocen e imitan las emociones humanas, es que se limite tal antropomorfización cuando sea conveniente (para evitar confusión en los usuarios), se evalúen sus implicaciones éticas y que el usuario sea siempre consciente de que está interactuando con una máquina (§§ 127-128).

4.3. Nota Antiqua et nova sobre la relación entre la IA y la inteligencia humana

El primer prejuicio que puede asaltarnos ante este documento es que debe ser descartado porque pertenece al ámbito religioso y la ciencia debe ser neutra y limitarse a lo empírico. Es un prejuicio que arrastra la humanidad desde los tiempos de la Modernidad y que falsea la capacidad del conocimiento humano porque, por un lado, no es cierto que la ciencia sea neutra ni se limite a los datos empíricos, y, por otro, porque los argumentos que ofrecen personas con creencias religiosas pueden ser tan válidos como los de quienes se autoconsideran científicos neutros por carecer de ellas o rechazarlas [38] .

El propio documento manifiesta que sus propuestas no están dirigidas exclusivamente a los católicos, sino a todos aquellos que “comparten la exigencia de un desarrollo científico y tecnológico que esté al servicio de la persona y del bien común” (§ 5), ofreciendo unas líneas de acción que persiguen el mismo objetivo expuesto por el Reglamento y la Recomendación, concretado en “asegurar que el desarrollo y el uso de la IA respeten la dignidad humana y promuevan el desarrollo integral de la persona y de la sociedad” (§ 6).

Utiliza el término ser humano en cincuenta y ocho ocasiones, y persona en ochenta y tres, pero como sinónimos, como trata de poner de manifiesto con sus referencias a la Declaración Dignitatis humanae [39] , a la Instrucción Dignitas personae [40] y a la Declaración Dignitas infinita [41] . Desde el inicio de la vida humana (concepción) hasta el final, todo ser humano está revestido de la misma dignidad y merece el mismo respeto y protección porque “las vidas humanas son preciosas en sí mismas” (§ 68), con independencia de características personales o del beneficio económico que puedan reportar a la sociedad.

La concepción de la dignidad intrínseca del ser humano de la que parte el documento es la que propusieron en su momento san Gregorio de Nisa y san Agustín, una dignidad que “permanece intacta más allá de toda circunstancia, incluso en aquellos que son incapaces de ejercer sus capacidades” (§ 34), y que confiere a todo ser humano un valor incalculable. Esta es la dignidad, junto al bien común, que deben respetar los sistemas de IA, porque es el criterio clave para evaluarlos (§§ 42-43), sin que se pueda perder de vista “en nombre de la eficacia” (§ 54). Ni siquiera la autonomía personal, el consentimiento libre de los sujetos, puede legitimar posibles lesiones de la dignidad y de los derechos; el ejercicio de la autonomía personal debe ser responsable (§ 55).

En referencia a la antropomorfización de la IA, advierte sobre sus riesgos por su capacidad de interactuar con la persona hasta el punto de generarle confusión sobre la identidad de la máquina y difuminar “así la línea que separa lo humano de lo artificial”. Los sistemas de IA son sólo una herramienta. No pueden sentir empatía con las personas, sino simular respuestas empáticas, por lo que, en sintonía con la Recomendación de la UNESCO, propone que no sean utilizados como si fueran personas, y que los usuarios puedan ser conscientes siempre de que interactúan con una máquina (§§ 61-63).

Reconoce que los sistemas de IA tienen mucho que aportar en el ámbito médico y de la salud, por ejemplo, en los diagnósticos, en la facilitación de las relaciones entre pacientes y personal sanitario, en la propuesta de nuevos tratamientos, en el acceso a una atención de mayor calidad, etc., siempre que no sustituyan a los operadores sanitarios, custodios y servidores de la vida humana (§§ 71-72). Una IA que reemplazara al personal sanitario en la relación con los pacientes perjudicaría la estructura relacional humana, impidiendo la verdadera solidaridad con los que sufren y agravando la soledad que suele acompañar a la enfermedad (§ 73) [42] . Por ello, la decisión última, ponderada y éticamente motivada, debe corresponder al médico –no al sistema de IA– con un completo respeto a la dignidad del paciente y con el consentimiento informado de éste (§ 74).

Propone también descartar “el uso de la IA para determinar quién debe recibir tratamiento basándose principalmente en criterios económicos o de eficacia” (§ 75), que penalizaría siempre a los más frágiles, así como evitar que los sistemas más avanzados y eficaces estén únicamente a disposición de los más ricos “mientras que a otros les cuesta acceder incluso a los servicios básicos” (§ 76). Los sistemas de IA deben estar al servicio del bien común, de modo que no pueden ser utilizados para agravar las desigualdades.

Finaliza el documento reconociendo de nuevo el bien que pueden reportar los sistemas de IA cuando se ponen al servicio de la persona y del bien común, pero también de los riesgos para la dignidad y los derechos cuando son otros los objetivos y fines perseguidos, y del riesgo de que desplacen las verdaderas relaciones humanas al otorgarles un lugar que no les corresponde. En el fondo, coincide con todos los planteamientos que ofrece la Recomendación de la UNESCO, presentándolos en alguna ocasión desde otra perspectiva.

V. Luces y sombras de la IA en el campo biosanitario

El reciente Informe sobre las perspectivas de la IA generativa. Explorando la intersección entre tecnología, sociedad y políticas (Abendroth  et al. , 2025) ofrece un análisis del estado de situación sobre las ventajas y riesgos del uso de la IA aplicada al campo de la salud. Su punto fuerte es que recoge de modo exhaustivo los pros y los contras, aunque la mayor parte de ellos hayan sido ya apuntados y analizados por la doctrina científica durante los últimos años.

5.1. A favor del uso de la IA

En el campo del conocimiento sanitario y su aplicación por el profesional, la IA, gracias a su capacidad de procesar y sintetizar gran cantidad de información personal y médica, puede ayudar en el diagnóstico, sugerir pruebas clínicas y proponer protocolos de tratamiento para los pacientes. Además, los agentes conversacionales (chatbots), a través de la información obtenida directamente de los pacientes, pueden apoyarles en la gestión de situaciones, generar nuevos conocimientos, realizar evaluaciones preliminares y ofrecerles educación sanitaria (Abendroth  et al. , 2025, pp. 105-106) [43] . Evidentemente, todas estas posibles aportaciones benefician al ser humano cuando se han respetado los límites que impone su dignidad inherente, es decir, que no se hayan logrado a costa de convertir a las personas como simples instrumentos para obtener el fin perseguido.

En el ámbito de las tareas burocráticas del sistema de salud, la IA puede ayudar en la gestión de documentos administrativos y clínicos, en la facturación, en la programación y comunicación con los pacientes, en la gestión del flujo de trabajo y en la respuesta a posibles amenazas para la salud pública, liberando así al personal de ocupaciones que restan tiempo a la atención directa de los pacientes (Abendroth  et al. , 2025, p. 106). Como en el caso anterior, todo ello es positivo y deseable, siempre que se respete la intimidad y la privacidad de los pacientes (y de otros sectores de la población afectados por los análisis) y, por supuesto, con una información trasparente que permita a los implicados otorgar su consentimiento con conocimiento de todas sus consecuencias.

En la práctica clínica, además de analizar imágenes para diagnosticar y apoyar posibles decisiones clínicas, la IA puede mejorar la calidad de imágenes médicas, generar imágenes médicas sintéticas a partir de datos que ayudarían en el ensayo de nuevos modelos de atención médica, complementar las pruebas clínicas reales o simular efectos de un tratamiento hipotético alternativo. Los sistemas quirúrgicos robóticos pueden ser muy valiosos en la preservación de la vida y de la salud de los pacientes, en especial en condiciones de fatiga del personal sanitario, o con retroalimentaciones que podrían sugerir en tiempo real cambios de actuaciones, etc. (Abendroth  et al. , 2025, pp. 106-107).

En la medicina personalizada, la IA puede elaborar perfiles de los pacientes para predecir las respuestas individuales a pruebas clínicas de riesgo, a los tratamientos o a situaciones adversas relacionadas con la salud. También podría generar un gemelo virtual del paciente sobre el que se podría realizar la investigación sanitaria sin riesgo para el paciente real (Abendroth  et al. , 2025, p. 107). Reiteramos en estos supuestos la necesidad de garantizar la privacidad y un consentimiento verdaderamente informado.

Por último, en el campo de la investigación sanitaria, la IA puede ayudar a descubrir y desarrollar nuevos fármacos, a reutilizar otros en enfermedades para los que no estaban previstos, a optimizar estructuras moleculares para dianas terapéuticas específicas con mejora de resultados y disminución de efectos secundarios, a predecir interacciones positivas y negativas entre fármacos, a simular ensayos clínicos antes de comenzar los ensayos en humanos, etc. (Abendroth  et al. , 2025, p. 108).

5.2. Los peligros de la IA

A pesar de todos los beneficios enunciados, y otros posibles, la utilización de los sistemas de IA también conlleva riesgos para los derechos de los pacientes y, en menor medida, de los profesionales sanitarios (Abendroth  et al. , 2025, pp. 108-110). Nos centraremos exclusivamente en los más destacados; los dos primeros afectan directamente a la dignidad, los demás suponen la lesión de determinados derechos humanos y, por tanto, indirectamente de la dignidad.

El riesgo mayor es la cosificación del paciente por deshumanización de la medicina (Castejón García, 2024, p. 44; Robles del Olmo , 2024, p. 54-56). Corremos el riesgo de sustituir al personal sanitario por una máquina a la que el paciente no le importa en absoluto, limitándose a ofrecer un resultado: un diagnóstico, un tratamiento o un servicio. Sin embargo, para un paciente es esencial el trato humano con el personal sanitario, y para éste lo principal será siempre ser consciente de que interactúan con personas que precisan sus conocimientos, sus habilidades y capacidades, su ayuda y apoyo, su comprensión, su empatía. Una simple sonrisa o un simple gesto de complicidad del personal sanitario con el paciente puede ser más efectivo que cualquier explicación o propuesta técnica ofrecida por el sistema de IA.

El segundo riesgo, a la par con el anterior, es la instrumentalización del paciente , convertirlo en un medio para avanzar en la investigación. En estos supuestos, se utilizan sus datos y situación para lograr un buen fin, el avance científico, pero no puede hacerse sin respetar su dignidad y sus derechos, en particular la privacidad y la autonomía.

En tercer lugar, debemos tener en consideración que los sistemas de IA no son infalibles. La vida, la salud o la integridad física o psíquica pueden ser puestas en peligro por los errores del sistema. El sistema es de creación humana y caben los errores en el diseño, desarrollo o entrenamiento, pero además puede haber errores achacables al propio sistema, como las alucinaciones , las cámaras de eco y las adulaciones de las que tanto se habla en los últimos años.

En cuarto lugar, se corre el riesgo de eliminar o condicionar la autonomía personal cuando es el sistema el que adopta las decisiones finales, sin dar opción a que el médico y/o el paciente puedan decidir al respecto, o cuando el sistema no informa con suficiente claridad y profundidad sobre sus propuestas, impidiendo de este modo que se pueda tomar una decisión humana responsable.

En quinto lugar, siempre está presente el riesgo de discriminación, bien por los sesgos en los datos de entrenamiento o porque el sistema haya sido entrenado para discriminar (por ejemplo, para la selección de embriones). No es extraño que los documentos comentados en estas páginas se hayan manifestado, por ejemplo, en contra de los sistemas que realizan el triaje de pacientes en urgencias.

Por último, aunque ya se ha puesto de manifiesto, los derechos humanos más expuestos son la intimidad y la privacidad a causa del tratamiento masivo de datos personales y la elaboración de perfiles sin el consentimiento de los afectados o sin haberles facilitado toda la información precisa para otorgar responsablemente tal consentimiento (Adame Martínez, 2025, pp. 339-408).

VI. Reflexiones finales

Todo ello nos lleva a concluir que es necesaria una regulación transnacional de los sistemas de IA (porque ésta no tiene fronteras) que permita asegurar mínimamente la dignidad y los derechos humanos. La UE ha dado un paso muy significativo con la aprobación de su Reglamento, pero se advierte en su articulado la tensión entre el objetivo de que los sistemas de IA sean creados e implementados para servir a la humanidad (y la importancia de la ética) con otro objetivo menos explícito de no perder la carrera mundial por el dominio de la tecnología y el logro de beneficios económicos de las empresas tecnológicas. El Consejo de Europa también ha aprobado su Convenio Marco del Consejo de Europa sobre Inteligencia Artificial y derechos humanos, democracia y Estado de derecho , que será de carácter vinculante cuando sea ratificado por los Estados miembros, aunque todavía queda un largo camino por recorrer en este sentido.

Aunque consideramos que la regulación legal es esencial, su carácter generalista y el hecho de ir siempre a remolque de las innovaciones tecnológicas, hace que sea insuficiente. Es necesario su complemento ético, elaborar o actualizar los códigos de conducta, basados en una ética de la responsabilidad centrada realmente en el ser humano y el bien común [44] . La Recomendación de la UNESCO, así como numerosos documentos de la UE anteriores a la aprobación del Reglamento, pueden ser de gran ayuda en este sentido. Pero, sobre todo, es necesario que se constituyan con prontitud los comités éticos recomendados por el Reglamento UE y por la Recomendación de la UNESCO que puedan poner un poco de cordura ética en el desarrollo y la implementación de la IA [45] .

Igual de necesario resulta también que los Estados acomoden cuanto antes sus legislaciones internas a las exigencias y recomendaciones de estos textos para garantizar la dignidad de sus ciudadanos y los derechos humanos que más riesgo corren con la implementación de sistemas de IA.

En el caso de España, con anterioridad a la aprobación del Reglamento UE ya se habían aprobado, entre otras normas, el Real Decreto 729/2023, de 22 de agosto, por el que se aprueba el Estatuto de la Agencia Española de Supervisión de Inteligencia Artificial y el Real Decreto 817/2023, de 8 de noviembre, que establece un entorno controlado de pruebas para el ensayo del cumplimiento de la propuesta de Reglamento del Parlamento Europeo y del Consejo por el que se establecen normas armonizadas en materia de inteligencia artificial. La Ley Orgánica 3/2018, de 5 de diciembre, de Protección de Datos Personales y garantía de los derechos digitales no contiene mención explícita a los sistemas de inteligencia artificial, pero es de plena aplicación a todo lo que esté relacionado con ellos.

Ahora nos encontramos en la fase de tramitación de un Anteproyecto de Ley para el buen uso y la gobernanza de la Inteligencia Artificial, aprobado por el Consejo de Ministros el 11 de marzo de 2025, que desarrollará y complementará numerosos aspectos del Reglamento UE sobre las prácticas prohibidas, los sistemas de alto riesgo, las sanciones, etc. Como dato significativo, podemos constatar que el término dignidad no aparece citado en ninguna ocasión en el Anteproyecto, y en el articulado sigue la nomenclatura del Reglamento UE para referirse a la protección de los derechos fundamentales; sólo en el preámbulo utiliza la expresión derechos humanos. Por otra parte, atribuye a la Agencia Española de Supervisión de Inteligencia Artificial (AESIA) la mayor parte de las competencias de control legal y ético de los sistemas de IA [46] .

Bibliografía

Abendroth, K.  et al. , Generative AI Outlook Report–Exploring the Intersection of Technology, Society and Policy , Navajas Cawood, E., Vespe, M., Kotsev, A. y van Bavel, R. (eds.), Oficina de Publicaciones de la Unión Europea, Luxemburgo, (junio) 2025

Adame Martínez, M.A., “La Inteligencia Artificial y la privacidad: desafíos y oportunidades en la era de la economía del dato”, en Sánchez Sáez, J.A. (Dir.), Claves del Reglamento Europeo de Inteligencia Artificial: Análisis y Comentarios . La ley, Madrid, 2025, pp. 339-408

Amo Usanos, R. (ed.), Inteligencia Artificial y bioética . Universidad Pontificia de Comillas, Madrid, 2023

Amo Usanos, R., “Dignidad humana y bioética de la Inteligencia Artificial”, LH (Labor Hospitalaria) 339, 2024, pp. 69-77

Anzalone, A., Lo humano de los derechos humanos . Dykinson, Madrid, 2021

Aquino, Tomás de, Suma Teológica , Primera Parte. Trad. de J. Martorell Capó. BAC, Madrid, 1988

Ávila Tomás, J.F., Mayer Pujadas, M.A., Quesada Varela, V.J., “La inteligencia artificial y sus aplicaciones en medicina II: importancia actual y aplicaciones prácticas”, Atención Primaria 53 (1), 2021, pp. 81-88. https://doi.org/10.1016/j.aprim.2020.04.014

Barrio Andrés, M. (Dir.), Comentarios al Reglamento Europeo de Inteligencia Artificial . La ley, Madrid, 2024. https://doi.org/10.36151/TLB_9788410713031

Brückner, J.A., Essay sur la nature et l‘origine des droits, ou Déduction des principes de la science philosophique du Droit . Leipsic, 1810

Carpintero, F., “La independencia y autonomía del individuo: los orígenes de la persona jurídica ”, Anuario de Filosofía del Derecho VII, 1987, pp. 477-522

Carpintero, F., Una introducción a la Ciencia Jurídica . 1ª ed. Civitas, Madrid, 1988

Carpintero, F., La cabeza de Jano . Universidad de Cádiz, Cádiz, 1991

Carpintero, F., Una introducción a la Ciencia Jurídica . 2ª ed., McGrawHill-Aula Magna, s.l., 2022

Castejón García, R., “La Inteligencia Artificial y su impacto en la bioética contemporánea”, LH (Labor Hospitalaria) 339, 2024, pp. 39-51

Castillo Parrilla, José Antonio, “Inteligencia artificial de uso general, modelos fundacionales (y “Chat GPT”) en el Reglamento de Inteligencia Artificial”, en Cotino Hueso, L., Simón Castellano, P. (Dres.), Tratado sobre el reglamento Europeo de Inteligencia Artificial . Aranzadi, Pamplona, 2024, pp. 757-777

Castorina, F., “Entre fe y saber: Habermas y el problema de la religión en una época postsecular”, Temas y debates 39, 2020, pp. 61-79. https://doi.org/10.35305/tyd.v0i39.457

Cotino Hueso, L., Simón Castellano, P. (Dres.). Tratado sobre el reglamento Europeo de Inteligencia Artificial . Aranzadi, Pamplona, 2024

Delgado Pinto, J., “La función de los derechos humanos en un régimen democrático”, en Muguerza, J., Peces-Barba, G. (coords.), El fundamento de los derechos humanos . Debate, Madrid, 1989, pp. 135-144

Echarte Alonso, L.E., “Inteligencia artificial emocional en el reverso del test de Turing. Al borde de la singularidad tecnológica son precisas cuatro nuevas leyes para la robótica”, Revista Iberoamericana de Bioética 25, 2024, pp. 1-22. https://doi.org/10.14422/rib.i25.y2024.003

Fries, J., Philosophische Rechtslehre und Kritik aller positiven Gesetzgebung . Jena, 1803

Gómez Lanz, J.  et al. , “Implicaciones éticas y legales de las aplicaciones digitales de salud mental”, Cuadernos de Bioética 35 (114), 2024, pp. 143-155

Habermas, J., “La idea de dignidad humana y la utopía realista de los derechos humanos”, Anales de la Cátedra Francisco Suárez 44, 2010, pp. 105-121. https://doi.org/10.30827/acfs.v44i0.501

Höpfner, L.J.F., Naturrecht des einzelnen Menschen, der Gessellschaften und Völker . Giessen, 1783

Jakob, L.H., Philosophische Rechtslehre oder Naturrecht . Halle, 1795

Kant, I., Fundamentación de la Metafísica de las Costumbres . Espasa-Calpe, Madrid, 1990

Kohlschütter, K.Chr., Vorlesungen über der Begriff der Rechtswissenschaft . Leipzig, 1798

Llano Alonso, F.H., “Ética(s) de la Inteligencia Artificial y Derecho”, Derechos y Libertades 51, 2024a, pp. 177-199. https://doi.org/10.20318/dyl.2024.8587

Llano Alonso, F.H., “La ética de los algoritmos”, Teoría & Derecho . Revista De Pensamiento Jurídico 37, 2024b, pp. 70-89. https://doi.org/10.36151/TD.2024.106

Llano Alonso, F.H., Homo ex Machina. Ética de la Inteligencia Artificial y Derecho digital ante el horizonte de la singularidad tecnológica . Tirant lo Blanch, Valencia, 2024c. https://doi.org/10.36151/TLB_9788410562905

Llano Alonso, F.H., “Alineamiento y actuación ética de la Inteligencia Artificial”, en Sánchez Sáez, J.A. (Dir.), Claves del Reglamento Europeo de Inteligencia Artificial: Análisis y Comentarios . La ley, Madrid, 2025, pp. 17-37

Mateo-Seco, L.F., “Persona, esclavitud y libertad en Gregorio de Nisa”, Revista Española de Filosofía Medieval 13, 2006, pp. 11-19. https://doi.org/10.21071/refime.v13i.6268

Megías Quirós, J.J., “Dignidad y Derecho: de la Antigüedad a la Edad Media”, Anuario de Filosofía del Derecho XXXIV, 2018, pp. 305-312. https://doi.org/10.53054/afd.vi34.2337

Megías Quirós, J.J., “Ser humano y animales: estatuto ontológico y jurídico diferentes”, Cuadernos de Bioética 31 (101), 2020, pp. 59-70

Megías Quirós, J.J., “Derechos humanos e Inteligencia Artificial”, Dikaiosyne 37, 2022, pp. 139-163

Megías Quirós, J.J., “La necesidad de una regulación transnacional de la Inteligencia Artificial”, en Ballesteros Soriano, A., Inteligencia artificial y Derecho: perspectivas iusfilosóficas . Aranzadi, Cizur Menor (Navarra), 2025, pp. 53-82

Miguel Beriain, I. de, “La aplicabilidad del Reglamento de inteligencia artificial al ámbito salud y especialidades respecto de su cumplimiento”, en Cotino Hueso, L., Simón Castellano, P. (Dres.), Tratado sobre el reglamento Europeo de Inteligencia Artificial . Aranzadi, Pamplona, 2024, pp. 337-349

Nadeu Camprubí, C., “Inteligencia Artificial Generativa: funcionamiento, posibilidades y riesgos”, LH (Labor Hospitalaria) 339, 2024, pp. 29-36

Nisa, Gregorio de, De hominis opificio , Migne, J.P., Patrologiae Cursus Completus, Series Graeca , Paris, Imprimerie Catholique, 1857-1866

Nisa, Gregorio de, Homilías sobre el Eclesiastés . Introducción, traducción y notas de Ramón Cornavaca y Octavio Peveraro. Editorial Ciudad Nueva, Madrid, 2012

Oficina de Ciencia y Tecnología del Congreso de los Diputados. Informe C: Inteligencia artificial y salud . Madrid, 2022; doi:10.57952/tcsx-b678

Robles del Olmo, B., “Retos de la introducción de la inteligencia artificial en la relación asistencial. ¿Hacia una medicina sin rostro?, LH (Labor Hospitalaria) 339, 2024, pp. 54-67

San Agustín, Del libre albedrío , en Obras de san Agustín , vol. III, Obras filosóficas . Trad. de V. Capánaga y otros. BAC, Madrid, 1963

San Agustín, Réplica a Juliano , en Obras de san Agustín , vol. XXXVI, Escritos antipelagianos (4º) . Trad. de L. Arias. BAC, Madrid, 1985

Sánchez Sáez, J.A. (Dir.), Claves del Reglamento Europeo de Inteligencia Artificial: Análisis y Comentarios . La ley, Madrid, 2025

Schaumann, J.C.G., Versuch über Aufklärung, Freyheit und Gleichheit . Halle, 1793

Schmalz, Th., Das Recht des natur: Das reine Naturrecht , Könisberg, 1795

Schmaussens, J.J., Neues Systema des Rechts der Natur . Göttingen, 1754

Ulrich, J.A.H., Initia Philosophiae iusti seu iuris naturae socialis et gentium . Ienae, 1783


[1] * Resultado del Proyecto I+D PID2019-108669RB-100/AEI/10.13039/501100011033, “ Derecho e Inteligencia Artificial: nuevos horizontes jurídicos de la personalidad y la responsabilidad robótica ” (2019-2024). Financiado por el Ministerio de Ciencia, Innovación y Universidades. Proyecto dirigido por la Prof. M. Castilla Barea. El presente manuscrito no ha sido enviado para su publicación en otra revista.

No nos referimos únicamente al riesgo para la vida que pueda derivar de un diagnóstico erróneo del sistema de IA o una propuesta desacertada de tratamiento médico o de una prueba clínica, por ejemplo, sino a la sugerencia de atentar contra la vida propia o la información sobre cómo hacerlo. A finales de agosto de 2025 se hizo pública la presentación de la primera demanda contra Open AI por estas razones. Los padres de un adolescente presentaron la demanda ante la Corte Superior de California porque su hijo se había quitado la vida con la connivencia y asesoramiento de ChatGPT. No ha sido el único caso que ha saltado a la luz pública, aunque sí el primero en llegar a los tribunales. BBC News, Los padres de un adolescente que se quitó la vida demandan a OpenAI, creadora de ChatGPT ”, 27 de agosto de 2025. https://www.bbc.com/mundo/articles/c30z5lyjzygo .

[2] Una visión general en Megías Quirós, 2022, pp. 139-163; para el campo biosanitario, Castejón García, 2024, pp. 39-51; Robles del Olmo, 2024, pp. 54-67; Miguel Beriain, 2024, pp. 337-349; Amos Usano (ed.), 2023. Muy interesante el vol. 8, nº 2, 2022, de la Revista Ius et Scientia , dedicado a Medicina, biotecnología y derecho.

[3] Sobre la necesidad de una ética de la IA, desarrollo y propuestas, Llano Alonso, 2024a, pp. 187-193, 2024b, pp. 76-80, y 2025, pp. 17-37. Más extensamente Llano Alonso, 2024c.

[4] Es la razón de la necesidad de regular los sistemas de IA a nivel internacional, y no sólo en las legislaciones internas. Megías Quirós, 2025, pp. 53-82.

[5] Sobre la evolución del concepto de dignidad, Megías Quirós, 2018, pp. 305-312.

[6] Lactancio ya había formulado unas primeras ideas acerca de la igual dignidad de todo ser humano al comentar la creación, pero su intento de presentar una doctrina admisible para cristianos y paganos hizo que no se le prestara especial atención.

[7] Para el niseno “un hombre, por el hecho de ser hombre, es decir, por el hecho de ser imagen de Dios, vale más que el universo material entero”. Mateo-Seco, 2006, p. 17

[8] San Agustín, 1985, Réplica a Juliano I, 94.

[9] Esta visión se refleja, por ejemplo, Del libre albedrío III, 5, 12; III, 5, 15; III, 15, 42; III, 20, 56, etc. San Agustín, 1963. El hombre puede elegir entre obrar rectamente, de acuerdo con el orden natural y con lo que le es propio, o como un animal guiado únicamente por instintos o caprichos, convirtiéndose en este caso en un ser indigno por su comportamiento, no en su modo de ser.

[10] Con este planteamiento, el daño voluntario sobre sí mismo quedaba justificado ( volenti non fit iniuria ), aunque se tratara, por ejemplo, de la renuncia al derecho a la vida o a la integridad física. Carpintero, 1988, pp. 123-124.

[11] “La voluntad de un ser racional debe considerarse siempre al mismo tiempo como legisladora , pues si no, no podría pensarse como fin en sí mismo . La razón refiere, pues, toda máxima de la voluntad como universalmente legisladora a cualquier otra voluntad y también a cualquier acción para consigo misma, y esto no por virtud de ningún otro motivo práctico o en vista de algún provecho futuro, sino por la idea de la dignidad de un ser racional que no obedece a ninguna otra ley que aquella que él se da a sí mismo. En el reino de los fines todo tiene o un precio o una dignidad . Aquello que tiene precio puede ser sustituido por algo equivalente , en cambio, lo que se halla por encima de todo precio y, por tanto, no admite nada equivalente, eso tiene una dignidad. (…) Aquello que constituye la condición para que algo sea fin en sí mismo, eso no tiene meramente valor relativo o precio, sino un valor interno, esto es, dignidad ”. Kant, 1990, pp. 111-112.

[12] Este planteamiento exigía una nueva terminología para referirse al ser humano, y el término elegido fue el de moralische Person o Person , que según F. Carpintero “designaba de forma precisa al individuo independiente de los demás hombres, que es dueño de sí mismo sin reconocer ninguna sujeción legítima que no provenga de su propio consentimiento”. Carpintero, 1987, p. 482.

[13] Por ejemplo, Schmaussens había defendido que la legalidad específicamente humana consistía en estar libre de cualquier ley que no fuera el arbitrio del sujeto (Schmaussens, 1754, cap. IV, § II); Ulrich reclamó para cada sujeto el derecho sobre sí mismo y sobre sus pertenencias, incluida su vida, su cuerpo, su alma (Ulrich, 1783, § 136). Para Höpfner, la persona era un átomo libre que podía excluir de su vida y propiedades a los demás por carecer de obligaciones frente a ellos (salvo respetar su autonomía) y podía disponer libremente sobre su alma, cuerpo y todas sus acciones porque tal libertad le correspondía de modo innato, aunque podía renunciar a ella mediante un pacto (Höpfner, 1783, §§ 37-38).

[14] Si bien en un principio Kant y sus discípulos distinguieron perfectamente entre libertad y arbitrio, terminaron por utilizar los dos términos indistintamente para justificar el ejercicio de la autonomía moral sin condicionamientos. Carpintero, 2022, pp. 51-52.

[15] Desde este primer derecho –explica Carpintero– extrae Schmalz el segundo, la libertad entendida como pleno control de nuestros comportamientos sin condicionantes externos a la propia voluntad, actuar según los fines que uno se proponga. Carpintero, 1991, pp. 54-55.

[16] Equipara libertad y arbitrio, y considera que los tres derechos fundamentales del hombre son el derecho a la personalidad, a la libertad y a la igualdad formal.

[17] Una acertada crítica a esta concepción en relación a la IA en Amo Usanos, 2024, pp. 69-77.

[18] “Constituyen una categoría peculiar de exigencias morales (…) de tal naturaleza que requieren ser reconocidas como parte integrante de la estructura básica del orden jurídico. De forma que, si no son reconocidas, el orden jurídico será valorado como injusto”. Delgado Pinto, 1989, p. 137.

[19] Si su fundamento fuera el pacto, bastaría otro pacto para eliminarlos. Si su fundamento fuera una opción, un sentimiento, una orientación, etc., cabrían todo tipo de arbitrariedades subjetivas. Anzalone, 2021, pp. 71-130.

[20] A esta mentalidad contribuyó el TEDH al afirmar, en referencia a la transexualidad –y apelando a la dignidad–, que “la esfera personal de cada individuo está protegida, incluido el derecho de cada uno a establecer los detalles de su identidad de ser humano”, sin restricciones naturales. SSTEDH I c. Reino Unido , § 72, y Christine Goodwin c. Reino Unido , §§ 90-91, ambas de 11 de julio de 2002.

[21] Por ejemplo, SSTEDH sobre el cambio sexo, en especial Grant contra Reino Unido , de 23 de mayo de 2006, L c. Lituania , de 11 de septiembre de 2007, Schlumpf c. Suiza , de 8 de enero de 2009, etc.

[22] Vid., por ejemplo, Oficina de Ciencia y Tecnología del Congreso de los Diputados. Informe C: Inteligencia artificial y salud . Madrid, 2022; doi:10.57952/tcsx-b678; y Ávila Tomás  et al. , 2021.

[23] Reglamento (UE) 2024/1689 del Parlamento Europeo y del Consejo de 13 de junio de 2024 por el que se establecen normas armonizadas en materia de inteligencia artificial y por el que se modifican (…) (Reglamento de Inteligencia Artificial). Se complementa con otros documentos de la UE de carácter ético.

[24] Recomendación sobre la ética de la inteligencia artificial. Adoptada en París el 23 de noviembre de 2021.

[25] Dicasterio para la Doctrina de la Fe / Dicasterio para la Cultura y la Educación. Antiqua et nova . Nota sobre la relación entre la IA y la inteligencia humana. 28 de enero de 2025.

[26] El Comité de Ministros creó en 2021 el Comité sobre Inteligencia Artificial (CAI) con el encargo de elaborar el citado Convenio. El CAI sometió en 2024 el borrador definitivo a los 46 Estados miembros del Consejo de Europa, con la participación de otros 11 Estados no miembros (Argentina, Australia, Canadá, Costa Rica, Estados Unidos, Israel, Japón, México, Perú, Uruguay y la Santa Sede) y de la UE. El resultado fue su aprobación el 17 de mayo de 2024, con el compromiso de abrirlo a la firma en septiembre de ese mismo año. Hasta ahora (septiembre de 2025) lo han firmado Andorra, Georgia, Islandia, Liechtenstein, Montenegro, Noruega, Moldavia, San Marino, Suiza, Ucrania y Reino Unido, además de Canadá, Israel, Japón, Estados Unidos y la UE. Ningún país lo ha ratificado hasta el momento. En el ámbito de la salud, el sistema contaba ya con la Recomendación 2185(2020) Artificial intelligence in health care: medical, legal and ethical challenges ahead de la Asamblea Parlamentaria y cuenta también con los informes del Comité Directivo de Derechos Humanos en los Ámbitos de la Biomedicina y la Salud (CDBIO), entre los que podemos destacar el de septiembre de 2024 titulado Application of AI in healthcare and its impact on the –patient-doctor– relationship, referente al impacto de la IA sobre desigualdad en el acceso a una asistencia sanitaria de alta calidad, transparencia para los profesionales de la salud y los pacientes, riesgo de sesgo social en los sistemas de IA, dilución del relato de bienestar del paciente, riesgo de sesgo de automatización, descualificación y responsabilidad desplazada, e impacto en el derecho a la intimidad.

[27] Contamos ya con comentarios especializados del Reglamento, entre los que destacamos Barrio Andrés, M. (dir.), 2024; Cotino Hueso, L., Simón Castellano, P. (dres.), 2024; y Sánchez Sáez, J.A. (dir.), 2025.

[28] La única referencia que podemos tener en cuenta respecto a la dignidad es la recogida en la Carta de Derechos Fundamentales de la UE, aprobada y proclamada en el año 2000. En su artículo 1 afirma que “La dignidad humana es inviolable. Será respetada y protegida”. También aparece en el art. 31 para exigir que las condiciones laborales deben respetar la dignidad del trabajador.

[29] Debemos destacar que el 10 de julio de 2025 la Comisión Europea aprobó el Código de Buenas Prácticas de IA de uso general , aunque todavía es pronto para valorar su eficacia dado su carácter no vinculante.

[30] En España corresponde la supervisión a la Agencia Española para la Supervisión de la Inteligencia Artificial (AESIA), que compartirá competencias con la Agencia Española de Protección de Datos (AEPD).

[31] Parece que Naciones Unidas, con esta Recomendación, renunció a la elaboración de una Convención universal vinculante, de ahí que tanto la Asamblea General, como el Consejo de Derechos Humanos, el Alto Comisionado para los Derechos Humanos y diversos Relatores Especiales se conformen con exigir a los Estados que regulen la IA en sus territorios. Sólo la Secretaría General se ha pronunciado en favor de un Pacto Global vinculante sobre la IA en su informe Nuestra Agenda Común . Naciones Unidas, Nueva York, 2021, § 93.

[32] Así se aprecia, por ejemplo, cuando reconoce que corresponde a las personas o grupos determinar lo que deba entenderse por “calidad de vida”, siempre que tal determinación no suponga una violación de la dignidad: “Los sistemas de IA deberían mejorar la calidad de vida de los seres humanos, dejando a las personas o los grupos la tarea de definir el concepto de “calidad de vida”, siempre que como resultado de esa definición no se produzca ninguna violación o abuso de los derechos humanos y las libertades fundamentales ni de la dignidad de las personas” (§ 14).

[33] Más adelante insistirá en la idea de que los sistemas de IA nunca podrán suponer una cosificación del ser humano: “los procesos de dicho ciclo de vida [de la IA] no deberían segregar ni cosificar a los seres humanos y las comunidades ni mermar su libertad, su autonomía de decisión y su seguridad” (§ 24).

[34] Esta es la intención, como lo es en todos los instrumentos de Naciones Unidas. Sin embargo, la realidad es muy distinta, pues los Comités de Naciones Unidas, en especial el Comité de Derechos Humanos, hace prevalecer, por ejemplo, en su Observación General nº 36 (sobre el derecho a la vida) y en sus Dictámenes, la autonomía personal de la madre sobre la dignidad y derechos humanos de los hijos aún no nacidos. En el marco de Naciones Unidas en general, la autonomía personal o privada está sobredimensionada por sus órganos secundarios, hasta el punto de reconocer que los sujetos pueden adoptar decisiones que objetivamente atentan contra su propia dignidad.

[35] No sólo dedica este apartado, sino que en su Preámbulo manifiesta haber tenido en consideración la Declaración Universal sobre Bioética y Derechos Humanos (2005) y destaca el trabajo que deberán realizar en adelante algunos de los órganos de la UNESCO como la Comisión Mundial de Ética del Conocimiento Científico y la Tecnología (COMEST), el Comité Internacional de Bioética (CIB) y el Comité Intergubernamental de Bioética (CIGB) (§ 138).

[36] La preocupación por los riesgos de los sistemas de IA sobre la salud mental lleva a recomendar que se realicen “investigaciones sobre los efectos y la regulación de los posibles daños de los sistemas de IA para la salud mental, tales como un aumento de la depresión, la ansiedad, el aislamiento social, el desarrollo de adicciones, el tráfico, la radicalización y la información errónea, entre otros” (§ 124). Resulta interesante al respecto Gómez Lanz, J.  et al. , 2024, pp. 143-155, en especial pp. 145-146.

[37] Esta investigación no es suficiente en las etapas de desarrollo e implementación del sistema de IA, sino que será precisa una investigación sobre los efectos a largo plazo (§ 129).

[38] Un ejemplo paradigmático de esta aceptación es el cambio en Habermas tras sus diálogos públicos con el cardenal Ratzinger. Pasó de rechazar cualquier argumento religioso a aceptarlos en los discursos salvo que reclamaran para sí el carácter de infalibles. Castorina, 2020, pp. 61-79.

[39] Concilio Ecuménico Vaticano II, 7 de diciembre de 1965.

[40] Congregación para la Doctrina de la Fe, 8 de septiembre de 2008.

[41] Dicasterio para la Doctrina de la Fe, 8 de abril de 2024.

[42] Es el problema que pone de relieve Echarte con los robots asistenciales para personas mayores, que puede aumentar la epidemia de soledad presente en nuestra sociedad: “la soledad desaparece en la medida que el anciano cree que hay un otro que le acompaña y cuida. (…) El anciano que hoy vive acompañado de un robot cuidador sigue estando solo pero, como ya no se siente solo, permanece indiferente a su situación real. Ya no importa”. Echarte Alonso, 2024, p. 15.

[43] En zonas rurales, donde la asistencia médica puede ser más deficiente o carecer de especialistas, puede ayudar a mejorar la accesibilidad y la propia asistencia sanitaria ofreciendo in situ al personal médico información clave y sugerencias de intervención.

[44] Llano Alonso pone de manifiesto, precisamente, la resistencia de las grandes empresas tecnológicas al desarrollo y aplicación de la ética en el mundo de la inteligencia artificial porque limitaría sus objetivos netamente económicos. Llanos Alonso, 2024a, p. 198.

[45] Nos referimos evidentemente a un comportamiento ético en el diseño, entrenamiento, desarrollo e implementación de la IA. Más difícil resulta lograr que las decisiones de los sistemas sean siempre éticamente correctas. Llano Alonso, 2024b, pp. 87-88.

[46] En este sentido, España aventaja a otros países de la UE que aún no han creado la autoridad nacional de supervisión, imprescindible para la aplicación del Reglamento. Uno de los casos más llamativos de incumplimiento es el de Alemania.