Derecho y ciencia: entre la dignidad humana y la inteligencia artificial

LAW AND SCIENCE: BETWEEN HUMAN DIGNITY AND ARTIFICIAL INTELLIGENCE

Jorge Antonio Breceda Pérez

Universidad Autónoma de Ciudad Juárez

jorge.breceda@uacj.mx 0000-0001-5280-6936

Clara Castillo Lara

Universidad Autónoma Metropolitana

ccl@azc.uam.mx 0000-0003-3031-2091

Recibido: 14 de junio de 2023 | Aceptado: 04 de diciembre de 2023

IUS ET SCIENTIA • 2023

Vol. 9 • Nº 2 • pp. 261-287

ISSN 2444-8478 • http://doi.org/10.12795/IESTSCIENTIA.2023.i02.12

RESUMEN

PALABRAS CLAVE

La inteligencia artificial (IA) impacta todos los ámbitos y resalta su enorme potencial para transformar la vida diaria en este siglo XXI. No obstante, a medida que se integra cada vez más en nuestras vidas, resulta crucial reflexionar sobre su influencia en la dignidad humana. Este ensayo aborda precisamente la IA y la dignidad humana, examinando los desafíos y riesgos que plantea, así como las múltiples posibilidades y oportunidades en la vida. Aparte de explorar la ética y su regulación en la gobernanza de la IA, los cambios sociales y económicos que puede forjar. El objetivo principal aquí es el debate crítico sobre el uso de la ciencia, en el derecho para garantizar la dignidad humana.

Inteligencia artificial

Siglo XXI

Derecho

Dignidad

Ética

ABSTRACT

KEYWORDS

Artificial intelligence (AI) impacts all areas and highlights its enormous potential to transform daily life into this 21st century. However, as it becomes increasingly integrated into our lives, it is crucial to reflect on its influence on human dignity. This test addresses precisely AI and human dignity, examining the challenges and risks it poses, as well as the many opportunities and opportunities in life. Apart from exploring ethics and regulation in AI governance, the social and economic changes it can bring about. The main objective here is the critical debate on the use of science, in law, to guarantee human dignity.

Artificial intelligence

21st century

Law

Dignity

Ethics

I. Introducción

En el panorama contemporáneo, la interacción entre la Inteligencia Artificial (IA) y la dignidad humana ha cobrado una relevancia sin precedentes. La IA, definida como la habilidad de máquinas y sistemas informáticos para ejecutar tareas tradicionalmente reservadas a la inteligencia humana, abarca competencias como el aprendizaje automático, el procesamiento del lenguaje natural y la toma de decisiones avanzadas. Con el avance acelerado de la IA y su creciente integración en múltiples facetas de la vida cotidiana, emergen interrogantes fundamentales sobre su impacto en la dignidad humana, un pilar central en los campos de la ética y los derechos humanos que subraya el valor intrínseco y la merecida consideración de todos los individuos.

Este trabajo explora el desafío clave de cómo garantizar que los sistemas de IA honren y respeten la dignidad humana. A medida que la IA se desarrolla, enfrentamos riesgos significativos como la falta de transparencia, la ausencia de responsabilidad en las decisiones automatizadas, la discriminación y el sesgo en los sistemas, así como la protección de datos personales. Sin una gestión adecuada, estos factores pueden menoscabar gravemente la dignidad humana.

Sin embargo, la IA también ofrece un vasto espectro de posibilidades para enriquecer y mejorar aspectos cruciales de la existencia humana, tales como la calidad de vida, la asistencia sanitaria, la eficiencia en el trabajo, la productividad y la accesibilidad en términos de movilidad. Para capitalizar estas oportunidades de manera efectiva, es imprescindible la adopción de principios éticos sólidos en el desarrollo y uso de la IA, así como la implementación de políticas y regulaciones gubernamentales que garanticen su aplicación responsable y provechosa para la sociedad.

Por consiguiente, la interacción entre la dignidad humana y la Inteligencia Artificial (IA) se presenta como una relación extraordinariamente compleja y de múltiples dimensiones, exigiendo un análisis detallado y considerado. Esta dinámica intrincada demanda un enfoque que no solo sea reflexivo, sino también profundamente crítico y basado en un entendimiento comprensivo de ambas entidades. En este contexto, el presente artículo tiene como objetivo primordial promover un uso de la IA que sea no solo responsable y ético, sino también conscientemente alineado con los principios fundamentales de respeto y valor hacia la dignidad humana.

Este cometido implica un balance cuidadoso entre aprovechar los beneficios potenciales de la IA, como su capacidad para mejorar la calidad de vida, optimizar procesos y facilitar soluciones innovadoras a problemas complejos, y al mismo tiempo, reconocer y mitigar los riesgos que podría acarrear. Estos riesgos incluyen, pero no se limitan a, la invasión de la privacidad, el aumento de la desigualdad, la erosión de la autonomía humana y la perpetuación de sesgos y discriminaciones preexistentes.

El objetivo es avanzar hacia un futuro donde la tecnología y la humanidad no solo coexistan, sino que también se complementen y enriquezcan mutuamente, en un marco de respeto mutuo y entendimiento. Esto implica un esfuerzo colaborativo para integrar la tecnología de IA en la sociedad de una manera que honre y refuerce la dignidad intrínseca de cada individuo, sin sacrificar los valores humanos esenciales en el altar de la innovación y el progreso tecnológico.

Es por esta razón que el presente artículo busca ser un catalizador para un diálogo más amplio y profundo sobre cómo la tecnología de IA puede ser diseñada, regulada y utilizada de manera que sustente y fomente un respeto genuino por la dignidad humana, asegurando así un futuro donde la tecnología sirva al bienestar y al enriquecimiento de toda la humanidad.

II. Contexto y justificación

La era de la Inteligencia Artificial (IA) ha marcado un punto de inflexión significativo en múltiples sectores, incluyendo la atención médica, la logística y el transporte. Esta revolucionaria tecnología no solo ha mejorado la eficiencia y precisión en numerosas tareas laborales, sino que también ha abierto un panorama de posibilidades para empresas y organizaciones en la búsqueda de soluciones innovadoras a los desafíos contemporáneos. La capacidad de la IA para procesar grandes volúmenes de datos y aprender de ellos ha permitido avances sustanciales en áreas como el diagnóstico médico precoz, la optimización de rutas de transporte y la automatización de procesos complejos.

Sin embargo, paralelamente a estos avances, el desarrollo acelerado de la IA ha desencadenado una serie de preocupaciones éticas y morales, particularmente en relación con su impacto en la dignidad humana. Un aspecto crítico de esta preocupación se centra en la programación de la IA para tomar decisiones en sectores tan sensibles como el laboral, médico o de seguridad. La posibilidad de que estas decisiones automatizadas, si no son rigurosamente supervisadas y reguladas, podrían resultar en la violación de derechos humanos, es un tema de debate creciente.

Además, la creciente capacidad de la IA para recopilar, almacenar y analizar información personal plantea serios interrogantes sobre la privacidad y seguridad de los datos. Existe el riesgo real de que estos datos se utilicen de manera indebida o para propósitos discriminatorios, lo que podría tener consecuencias adversas no solo para los individuos afectados, sino también para la sociedad en general. En este contexto, se vuelve imperativo reflexionar sobre cómo garantizar que la IA esté al servicio de la dignidad humana, evitando que su uso indebido o no regulado resulte en consecuencias negativas.

Esta discusión entre la dignidad humana y la IA es crucial para asegurar que los avances tecnológicos se utilicen de manera que beneficien y enriquezcan la sociedad. Es esencial establecer un marco ético y legal que guíe el desarrollo y la implementación de la IA, de manera que se respeten los valores humanos fundamentales y se promueva un progreso tecnológico que sea inclusivo, justo y respetuoso con los derechos de todos los individuos. La tarea de integrar la IA en nuestra sociedad de una manera que fomente la dignidad humana y el bienestar colectivo representa uno de los desafíos más significativos y urgentes de nuestra época.

2.1. Marco jurídico internacional, regional y nacional sobre la inteligencia artificial

Actualmente, nos encontramos en un escenario donde aún no se ha establecido un marco jurídico internacional específico y exhaustivo para la regulación de la Inteligencia Artificial (IA). A pesar de esta ausencia de un estándar global unificado, diversos países y regiones han empezado a desarrollar y aplicar sus propios marcos legales y éticos para abordar los desafíos y oportunidades que presenta esta tecnología emergente. Estas iniciativas varían en alcance y naturaleza, reflejando las diferentes prioridades y contextos de cada región. Incluyen desde regulaciones sobre privacidad y uso de datos hasta directrices éticas que buscan orientar el desarrollo responsable de la IA. Estos esfuerzos representan pasos importantes hacia la creación de un entorno normativo que pueda guiar de manera efectiva la evolución y aplicación de la IA, asegurando que su impacto en la sociedad sea positivo y alineado con los principios de justicia, equidad y respeto por los derechos humanos.

La Primera Revolución Industrial (entre 1760 y 1830) marcó la transición de la producción manual a la mecanizada, la Segunda– cerca de 1850– introdujo la electricidad y la manufactura en masa, la Tercera, a mediados del siglo XX, conocida como Revolución Digital, por el uso de tecnologías de información que automatizó más la producción, y la Cuarta Revolución Industrial, definida por la integración de tecnologías de procesamiento de datos. Recurriendo a Internet, a los sistemas ciber físicos y a las redes virtuales, enlazando lo físico a lo digital, utilizando el Internet of things (IOT) como medio de comunicación ( Big Data) (González-Páramo, 2018, 96).

Al respecto, el Comité Económico y Social Europeo, argumentó que el mercado digital, producción, consumo, empleo y la sociedad, entre otros ámbitos más referentes a la tecnología digital, física y biológica, se utilizará el Internet de las Cosas como el terreno de aplicación de IA, cuya base es el principio del control de los seres humanos sobre dichos objetos (Porcelli, 2020, 60).

En el ámbito internacional la Declaración Universal de los Derechos Humanos de la ONU (1948) reconoce los derechos inalienables a las personas. El Convenio Europeo de Derechos Humanos (1950), establece la protección de los datos personales. El Pacto Internacional de Derechos Civiles y Políticos (1966) y el Pacto Internacional de Derechos Económicos, Sociales y Culturales (1966), reconocen el derecho a la vida, trabajo y educación (Valdez, 2018, 37).

La Directiva de la Unión Europea UE sobre Protección de Datos Personales (GDPR, por sus siglas en inglés) en vigor desde 2018, establece protección de los datos personales en la Unión Europea (De Juan, 2018, 40). La Organización para la Cooperación y el Desarrollo Económicos (OCDE) se compone de 38 estados con la coordinación de sus políticas económicas y sociales, creado en París en 1961. AI Principles (Principios de la OCDE sobre IA) establece un marco ético para el uso de la IA, al igual que algunos países han adoptado legislaciones específicas al respecto, como la Ley de Inteligencia Artificial de la República Popular China, en vigor desde 2021 (Gerencia de Promoción y Difusión (INDECOPI), 2018).

En Latinoamérica, el marco jurídico de la IA varía de país en país y aún está en proceso de desarrollo en la mayoría de ellos. Algunos países han comenzado a regular su uso mientras que otros están en las primeras etapas de discusión sobre el tema (Vélez et al., 2022, 15). Países como México, Brasil, Colombia, Chile, y Argentina ya comenzaron a desarrollar políticas públicas y marcos regulatorios relativas a IA. Por ejemplo, en México, se ha creado el Instituto Nacional de Inteligencia artificial (INIA) para fomentar el desarrollo y su uso responsable. La iniciativa también busca establecer la Red Nacional de Estadística de Uso y Monitoreo de la Inteligencia Artificial y la Robótica. También se plantea regular la inteligencia artificial con una ley de ética. Mientras que en Brasil se crea una ley de IA para garantizar la ética y transparencia en el uso de la tecnología (Crovi, 2017, 30).

La UNESCO aborda la ética en la IA (UNESCO, 2019). El informe reconoce el desarrollo social con los riesgos y desafíos éticos de su uso. Propone un marco ético para su diseño, desarrollo y uso basado en cuatro principios éticos: la autonomía, justicia, beneficencia y no maleficencia. Así como también, la necesidad de desarrollar capacidades éticas y de alfabetización digital en todas las etapas de la educación, esto es, desde la educación básica hasta la superior. Contribuyen al debate sobre la ética en la IA que proporciona un marco ético sólido y una guía práctica para el diseño, desarrollo y uso responsable de esta tecnología en beneficio de la sociedad.

Colombia, creo la Comisión de Inteligencia Artificial, Ética y Transformación Digital, encargada de promover el uso responsable de la IA en el país, (Ministerio de tecnología de la información y las comunicaciones) mientras que en Chile se ha creado una iniciativa público-privada llamada “AIChile” para desarrollar y aplicarla de manera ética y responsable. En Argentina, se ha creado la Agencia Nacional de Inteligencia Artificial (ANIA) para impulsar la investigación en ese campo (EMOL, 2022). En general, aunque todavía falta mucho por hacer en términos de marco jurídico en Latinoamérica, los países están empezando a reconocer la importancia de regular la IA para garantizar su uso responsable y ético.

En México, actualmente no existe una regulación en la materia. Sin embargo, existen algunas leyes y normas que abordan la protección de datos personales, tecnologías de la información, y responsabilidad civil y penal por daños causados por su uso (Senado de la República, 2023). También se cuenta con la Ley Federal de Protección de Datos Personales en Posesión de los Particulares (LFPDPPP) que establece las obligaciones de los responsables del tratamiento de datos personales y los derechos de los titulares. El Código Penal Federal, tipifica delitos relacionados con el acceso, uso y divulgación no autorizados de datos informáticos, así como la producción y distribución de programas maliciosos o virus informáticos.

Asimismo, el Instituto Nacional de Transparencia, Acceso a la Información y Protección de Datos Personales (INAI) publicó lineamientos, sobre el uso de tecnologías y su protección. Actualmente se encuentra en proceso la discusión de una iniciativa de ley en IA en México, la cual, ha de establecer un marco legal para regular su uso y desarrollo (El Economista, 2023).

Luciano Floridi (Floridi, 2019, 100) presenta una teoría de la filosofía como diseño conceptual. Argumenta que la información es clave en la comprensión de la realidad. Pues, la información es una propiedad fundamental del universo, y también es un medio para construir modelos para comprender el mundo. Establece las bases teóricas sobre la información y la filosofía, luego aplica esta teoría a la ética, la política, la epistemología y la ontología. Posteriormente, discute algunas de las implicaciones de su teoría, como la relación entre la información y la realidad, y la naturaleza de la inteligencia artificial y la tecnología. Propone una nueva forma de pensar sobre la filosofía y la ciencia, centrada en la información y el diseño conceptual. Ofrece una visión de la información, desde la filosofía, la ciencia y la tecnología.

Entre las teorías que respaldan el uso de la IA en el mundo se encuentra el Utilitarismo que sostiene que el uso de la inteligencia artificial debe basarse en su capacidad para maximizar la felicidad y minimizar el sufrimiento humano. En este sentido, se argumenta que puede ser utilizada para resolver problemas en la sociedad. Lo mismo que la Ética de las virtudes, centrada en la formación del carácter, y sostiene que su uso ha de ser en base a valores éticos y morales que fomenten el desarrollo humano y la virtud.

La Deontología se enfoca en el deber y la responsabilidad, sostiene que la IA ha de basarse en principios éticos universales y los derechos humanos. La Ética del cuidado se centra esencialmente en las relaciones interpersonales y el cuidado de los demás, sustenta que su uso debe fundamentarse en la empatía y la consideración a los demás. Estas teorías tienen diferentes interpretaciones y enfoques, según el contexto y los valores y principios éticos de cada sociedad (Rouyet, 2021).

El uso de la IA puede llegar a violentar la privacidad, al utilizar datos personales. Lo mismo que el derecho a la no discriminación, puesto que estos sistemas pueden tener sesgos discriminatorios incorporados (Naciones Unidas, 2021). La seguridad, puede ser vulnerable a ciberataques. Estos sistemas deben ser transparentes en su funcionamiento y en las decisiones que toman (México Transparente, 2023, 12). En el caso del derecho a la autonomía, puede tomar decisiones y actuar en nombre de las personas. Por ello, se debe garantizar que éstas tengan el control sobre las decisiones. Y con respecto al derecho a la igualdad, puede afectarles a las personas en sociedad, así como también en el mercado laboral (Granados, 2022, 15). Por lo cual, se deben proteger los derechos y garantizar que no se amplíen las desigualdades (Martínez, 2017, 60) existentes, ni se tomen decisiones que comprometan la seguridad ni la autonomía de las personas.

Estos son solo algunos de los derechos que deben ser protegidos en los posibles casos de violaciones por la IA, pero la lista puede variar dependiendo del contexto y la situación específica (Morán, 2022, 300). Aunque debemos subrayar que en sí misma no puede cometer delitos, somos las personas las que pueden utilizarla para llevar a cabo actividades ilegales o dañinas.

Entre los delitos que se pueden cometer con la ayuda de la IA se encuentra el Fraude: puesto que se puede utilizar para cometer fraudes en línea, como el phishing o la suplantación de identidad. Puede ser utilizada para engañar a las personas y obtener beneficios económicos o de otra índole. Por ejemplo, se puede utilizar para crear bots que se hacen pasar por humanos en redes sociales para promover productos o servicios falsos o engañosos (Parada, 2021, 130). También está el Robo de información, donde los ciberdelincuentes pueden utilizarla para robar información de sistemas informáticos. Lo mismo ocurre con el Ciber espionaje, donde los gobiernos o empresas pueden utilizar la IA para espionaje cibernético, o los ataques cibernéticos, como el ransomware o el malware (Sánchez, 2012, 80).

Otra cuestión es cuando la IA es programada con sesgos discriminatorios, o sea, sus algoritmos pueden discriminar a ciertos grupos de personas al tomar decisiones (Asquerino, 2022). Por ejemplo, un sistema utilizado en la selección de currículums puede programarse para rechazar automáticamente los currículums de ciertas etnias o géneros. También se puede usar la manipulación de la opinión pública, para difundir desinformación y manipularla en las redes sociales. El Robo de identidad, sucede cuando es utilizada para recopilar información personal, y utilizarlo para el robo de identidad (Ruiz, 2018). Por ejemplo, se pueden crear bots que se hacen pasar por personas reales en línea, con el objetivo de obtener información personal de otras personas.

Brent Mittelstadt, Patrick Allo, Mariarosaria Taddeo, Sandra Wachter y Luciano Floridi, (Mittelstadt et al., 2019, 10) realizan un análisis crítico de las implicaciones éticas de algoritmos, examinando diferentes perspectivas y enfoques en el debate sobre algoritmos en política, justicia, atención médica, marketing, y educación, entre otros. Proponen un marco ético para la evaluación de los algoritmos, que incluye la transparencia, equidad, responsabilidad y la justicia. También discuten la necesidad de un enfoque interdisciplinario para abordar la ética con la participación de los expertos en tecnología, derecho y otras disciplinas. Su contenido proporciona una base para la reflexión crítica de su uso en diversos ámbitos.

La IA puede ser utilizada para acosar y amenazar a personas en línea, como en el caso de los bots creados para el ciberacoso en redes sociales. También puede ser utilizada para la vigilancia y el espionaje de personas sin su conocimiento o con consentimiento, y utilizar su información para controlar y manipularlas (UNICEF, 2022). Estos son solo algunos ejemplos de los delitos que pueden ser cometidos con el uso de la IA en nuestras vidas, se plantean importantes desafíos éticos y legales que deben ser abordados, para garantizar la protección de la dignidad.

En algunos Tribunales se han presentado casos (Cahun, 2017) que involucran la violación de la dignidad humana por parte de la IA. Por ejemplo, en 2018, en EUA, un conductor de un automóvil Tesla falleció en un accidente mientras usaba la función de piloto automático del automóvil. La familia del conductor presentó una demanda contra Tesla, argumentando que la compañía había creado un sistema de piloto automático defectuoso que no detectaba peligros en la carretera. El caso planteó cuestiones sobre la responsabilidad de los fabricantes de tecnología de IA seguros y confiables.

Existen preocupaciones éticas y legales en el uso de sistemas de IA para tomar decisiones en el empleo, salud, (Live, J.G, 2020, 24) seguridad y la administración de justicia. En algunos casos, estos sistemas han demostrado ser propensos a errores y sesgos, que han llevado a cuestionarse la responsabilidad de las empresas y gobiernos.

En 2018, se presentó en California el caso de un hombre que afirmara que la empresa IBM lo había discriminado por edad al despedirlo y reemplazarlo por un empleado más joven que usaba la IA de la empresa para realizar tareas similares (Becares, 2023) (Pastor, 2023). El demandante argumentó que el sistema había sido programado para buscar a candidatos más jóvenes, lo que constituía una forma de discriminación por edad. Si bien el caso fue desestimado por un juez, planteó preguntas interesantes sobre la responsabilidad de las empresas en la programación y uso de sistemas de IA.

En 2019, se informó que la Policía de Detroit, estaba utilizando un sistema de reconocimiento facial de IA para identificar sospechosos. Sin embargo, el sistema identificó erróneamente a varias personas inocentes, eso generó expectativas sobre la fiabilidad de estos sistemas y su impacto en los derechos humanos (Red en Defensa de los Derechos Digitales, 2020).

En 2020, Amnistía Internacional, (publicó un informe que denunciaba la manera en que las empresas de tecnología estaban violentando los derechos humanos, al proporcionar herramientas de vigilancia a gobiernos autoritarios. El informe trataba sobre la venta de sistemas de IA que permitían la vigilancia masiva de la población, y la identificación de personas señaladas como disidentes políticos, lo que podía poner en peligro su seguridad y privacidad. Incluso, su vida (Amnistía Internacional, 2020).

Los ejemplos referidos muestran cómo la aplicación de la IA puede plantear muchas preguntas importantes sobre la dignidad en los diferentes contextos. Los casos que han sido presentados ante los diferentes tribunales de varias partes del mundo involucran violaciones de derechos humanos sobre cuestiones de discriminación algorítmica, monitoreo masivo y uso de datos personales sin consentimiento.

Aunque los casos tienen que ver con cada situación particular. Algunos han sido resueltos mediante acuerdos extrajudiciales, mientras que otros se han llevado a juicio y han resultado en sentencias condenatorias o acuerdos de conciliación. En general, si aumenta el uso de la IA también las violaciones a los derechos humanos, lo que genera más presión para garantizarlos.

En México, aún no se han presentado ningún caso en los tribunales en los que se haya acusado directamente a la IA como responsable de un delito. Sin embargo, se tiene conocimiento que en algunos asuntos en los que se si han utilizado sistemas de IA, se ha cuestionado la responsabilidad, tanto de los creadores como de los usuarios de estos sistemas, especialmente en casos de discriminación o violaciones a la privacidad de datos. Es un tema que está en la mesa de debates en donde se definirán responsabilidades claras y precisas para el uso de estas tecnologías.

Pensemos por un momento, el supuesto caso donde intervenga una persona, dotada de un sistema gano-nano-robo-tecno, llevando a cabo una acción (subir a la plataforma una fotografía que muestre a la persona en un estado que no quisiera que nadie lo viera), aquí la interrogante seria, si sigue siendo una persona o se califica como una máquina. Lo cual, nos lleva a reflexionar, puesto que implica cuestiones éticas y filosóficas sobre lo que define a una persona como tal. En general, se considera que una persona es un ser humano dotado de conciencia, inteligencia y capacidad de tomar decisiones autónomas (Arbeláez-Campillo et al., 2021, 510). Sin embargo, si esa persona estuviera bajo el sistema o condición ya descrita líneas arriba, (Ovalle, 2007, 260) significaría la integración de tecnología avanzada en su cuerpo y mente, y podríamos preguntarnos si sigue siendo completamente humana o si se ha convertido en algo diferente. En este sentido, algunos filósofos y científicos opinan que la identidad humana no está limitada a características biológicas específicas, sino que puede ampliarse para incluir la tecnología que se integra en el cuerpo y la mente.

Es evidente que el post-humanismo se presenta como un indeterminismo jurídico que no sustenta suficiente exhaustividad normativa en la mencionada declaración de derechos humanos urgiéndose un sistema colegislador que delimite los fronterismos tuitivos regulatorios con un imperativismo categórico que impida el uso irracional de sus contenidos.

Por un segundo orden expone Ovalle se comprenden: “personas con identidad genética-cognitiva informacional alterada por la modificación geno-nano-robo-tecno”, se alude que se está en presencia de seres mutantes cuya naturaleza significa la incorporación de elementos tecnológicos integrando organización con funcionamiento humano lo cual cambia la concepción de la vida justificando redefiniciones en la concepción del derecho (Márquez, 2022, 2).

Por ejemplo, Andy Clark (Clark, 1997, 180) argumenta que la mente humana es una entidad extendida que incluye tanto el cerebro como las herramientas tecnológicas que utilizamos para procesar información y tomar decisiones. Así, una persona dotada de un sistema gano-nano-robo-tecno seguiría siendo una persona, aunque con una identidad expandida que incluiría tecnología avanzada. En cualquier caso, es importante tener en cuenta que la integración de tecnología en el cuerpo y la mente plantea una serie de cuestiones éticas y sociales que deben ser abordadas cuidadosamente, para garantizar la dignidad.

2.2. La dignidad y su relación con la inteligencia artificial

La dignidad humana debe ser considerada en todas las áreas de la vida, además del desarrollo y uso de la IA. Entendiendo a la dignidad humana como principio ético y a su aplicación en el contexto de la IA (Martínez, 2020, 30). Estudiaremos la relación entre la IA y la autonomía humana, y cómo aquella puede afectar la capacidad para tomar decisiones informadas y libres. Igualmente, analizaremos su impacto en la identidad humana y la no discriminación en su uso. Considerando los desafíos y riesgos de un enfoque ético, centrado en la dignidad humana en su diseño, desarrollo y uso.

La dignidad humana es un concepto filosófico, y se refiere al valor inherente de cada ser humano, que debe ser respetado y protegido en todas las circunstancias (Habermas, 2010, 15). Considerando que no depende de factores externos como la riqueza, el poder o el estatus social, sino que es intrínseca a la condición humana. Como tal, se le considera un principio fundamental que debe guiar todas las acciones y políticas relacionadas con los derechos y el bienestar humanos en general.

La IA ha traído grandes avances y beneficios a la humanidad, pero también ha planteado preocupaciones éticas y sociales. Uno de los mayores desafíos es el impacto que puede tener en la dignidad humana (Aparisi, 2013, 210) por eso, se analizará la discriminación algorítmica, puesto que dichos algoritmos pueden perpetuar y amplificar prejuicios y discriminación si se basan en datos históricos y patrones que reflejan la discriminación pasada. Por ejemplo, los sistemas de IA utilizados en la selección de personal, pueden perpetuar la discriminación de género o raza si se basan en datos históricos que reflejan la discriminación en el mercado laboral.

Otra de las implicaciones de la IA es la dignidad en el trabajo, con la automatización y robotización de ciertas tareas, se pueden desplazar a los trabajadores humanos con un gran impacto negativo para su dignidad y bienestar. Además, de que la monitorización constante del rendimiento con la IA puede llevar a una presión excesiva y a la invasión de la privacidad (Cañigueral, 2022, 280). La IA puede llevar a la pérdida de autonomía y control en la vida de las personas al tomar decisiones y acciones sin la intervención humana. Un ejemplo preocupante es su uso en la medicina, donde pueden decidir sobre el tratamiento que se aplicara sin la supervisión de un médico. (De Lecuona, 2020, 150).

En este sentido, Bostrom, N. (Bostrom, 2014, 250) argumenta la creación de una IA superinteligente que supere ampliamente la inteligencia humana, podría ser una amenaza para la humanidad. Explica cómo la inteligencia artificial se ha desarrollado y cómo se espera que progrese en el futuro. Luego, examina los diferentes escenarios que podrían ocurrir si se desarrolla una inteligencia artificial superinteligente. Los escenarios prevén que la inteligencia artificial se vuelva hostil hacia los humanos, y que pierdan el control sobre la IA y de que ésta ignore a los humanos. Y supone que la mejor manera de evitar estos peligros potenciales es desarrollar una estrategia coordinada y cuidadosa para el progreso de la inteligencia artificial.

Los desarrolladores de IA deben considerar estos riesgos y trabajar en minimizar su impacto en la dignidad humana (Habermas, 2010, 18) con políticas y regulaciones adecuadas para el abordaje de estas cuestiones y garantizar que se utilice de manera ética y responsable. En el entendido que la dignidad es fundamental por considerar el desarrollo y uso de la inteligencia artificial, puesto que plantea numerosos desafíos éticos, sociales y legales que se han de abordar para garantizar su desarrollo responsable y sostenible. Es así como la dignidad humana (Corvalán, 2018, 300) debe ser un principio rector en el desarrollo de la IA. Significa que en su diseño y uso se debe respetar y promover (Aparisi, 2013) en todas sus dimensiones, incluyendo la autonomía, privacidad, integridad física y mental y la no discriminación.

La dimensión comunicacional plantea la privacidad y confidencialidad de las comunicaciones electrónicas (Zinguer, 2014, 26). La dimensión decisional es la capacidad para tomar decisiones libres e independientes, sin interferencias. La dimensión informativa se centra en el control sobre los datos personales y su utilización. La dimensión asociativa aborda el derecho de asociarse sin temor a ser vigilados o perseguidos. La dimensión contextual se refiere al impacto del entorno sociocultural en la privacidad y sostiene que no es un valor absoluto, sino que debe equilibrarse con otros derechos y valores. Esta tipología puede ser útil en las políticas públicas y las decisiones éticas respecto de la tecnología digital. Para ello, es necesario que los responsables del desarrollo de la IA adopten un enfoque ético y multidisciplinario que considere los aspectos técnicos, económicos, éticos, sociales y legales. Esto implica la participación de los expertos en ética y derechos humanos (Valdés, 2022, 116), reguladores y responsables políticos. Igualmente, la transparencia y la rendición de cuentas. Igual que la publicación de información clara y accesible sobre los algoritmos utilizados, así como la responsabilidad de los desarrolladores y usuarios, en caso de violentar algún derecho.

Por eso, la dignidad humana (Habermas, 2010, 10) debe ser un principio rector en el desarrollo y uso de la IA. Lo que implica que los derechos humanos, podrá garantizar que contribuya al bienestar humano y respete la dignidad en el diseño, la transparencia y la participación del proceso de construcción de la IA.

2.3. Los desafíos y riesgos de la inteligencia artificial para la dignidad humana

A medida que la IA avanza, surgen desafíos y riesgos importantes para la dignidad humana (Habermas, 2010, 20). Algunos de los principales desafíos y riesgos están presentes en la discriminación algorítmica, al ser utilizados en la IA pueden ser sesgados y discriminativos, lo que lleva a tomar decisiones que violenten la dignidad humana (Aparisi, 2013, 208). Lo mismo ocurre con la Privacidad, al recopilar grandes cantidades de datos personales que pueden violentar la dignidad humana. Igual sucede con el desplazamiento laboral, donde los trabajadores humanos sufren consecuencias negativas como el desempleo y la pérdida de la identidad laboral.

Es así como, Koops (Koops, 2016, 550) propone una tipología de la privacidad que pueda ser aplicable en el contexto digital, pues la privacidad ha evolucionado para incluir nuevas dimensiones, por eso, es necesario contar con una tipología actualizada. Es una tipología de siete dimensiones de la privacidad: territorial, personal, comunicacional, decisional, información, asociativa y contextual. La dimensión territorial, es el derecho a estar protegidos en su propio hogar o lugar de trabajo, mientras que la personal abarca aspectos como la integridad corporal y la identidad.

La IA puede afectar la autonomía, cuando toma decisiones importantes en lugar de los seres humanos, lo que puede reducir la capacidad para ejercer su libre albedrío. También se plantean desafíos importantes en cuanto a la Responsabilidad por las decisiones tomadas por las máquinas, lo que puede derivar en un serio problema para la dignidad humana, (Aparisi, 2013, 215) si no se aborda adecuadamente. La IA puede ser utilizada para fines maliciosos, como la guerra cibernética y el espionaje, peligrando así la seguridad (Habermas, 2010, 23). Estos desafíos y riesgos deben ser abordados responsablemente para garantizar que se proteja y respete la dignidad humana en todo momento.

La transparencia es un problema que atañe a la dignidad humana. Pues es de esperarse que la IA se utiliza en situaciones en donde se toman decisiones importantes para la selección de candidatos para empleo o en cuestiones médicas. Sin embargo, las decisiones que toma no siempre son transparentes. Además, no siempre se puede responsabilizar a alguien por los resultados negativos de una decisión equivocada tomada por la IA.

Lo anterior, plantea serios problemas de dignidad humana, pues las personas deben de entender y cuestionar las decisiones. Además, de poder buscar responsabilidad y reparación cuando las decisiones tomadas por la IA tienen consecuencias negativas para ellas. La falta de transparencia y responsabilidad socava la dignidad humana al privar a las personas de estas capacidades esenciales. Por lo tanto, es esencial que la IA sea diseñada y utilizada de manera transparente y responsable, lo que significa que las decisiones tomadas deben ser explicadas de manera clara y accesible para las personas afectadas, quienes deberán poder impugnar estas decisiones y buscar responsabilidad y reparación cuando sea necesario. Solo así la IA puede ser compatible con la dignidad humana.

La discriminación y el sesgo en los sistemas de IA son otro de los desafíos y riesgos para los derechos humanos (Habermas, 2010, 15) considerando que aquella recupera y analiza datos, y si estos están sesgados o son discriminatorios, los sistemas también lo serán. Por ejemplo, si la IA contiene datos que muestran una discriminación histórica contra ciertos grupos de personas, es probable que el sistema perpetúe esa discriminación en el futuro, lo que puede llevar a decisiones injustas en áreas como la contratación, servicios financieros, de salud, (Live, J.G., 2020, 30) y de administración de justicia, entre otros. Este problema se debe abordar mediante la recopilación de datos más equilibrados y diversos, así como el diseño de algoritmos y sistemas de IA sensibles de la discriminación y el sesgo potenciales. Y que las empresas y organizaciones responsables de desarrollar y utilizarla sean transparentes en sus procesos y decisiones, para que se pueda detectar y corregir cualquier discriminación o sesgo.

Uno de los principales desafíos para la dignidad humana son los datos personales, en la IA. La recolección y el almacenamiento de datos de los usuarios son fundamentales para su funcionamiento, puesto que necesitan información para aprender y mejorar su desempeño. Sin embargo, esto puede representar una amenaza para los datos respecto a la privacidad y seguridad que puede violentar la dignidad. Considerando a la privacidad (Turégano, 2020, 270) un derecho fundamental, incluyendo el control de datos personales. Con la IA la privacidad se ve amenazada por su recopilación y uso sin el consentimiento del usuario, o la falta de seguridad para la protección de datos recopilados. Esto puede resultar en la exposición de información personal, utilizada para el acoso, la discriminación o la vigilancia.

Desde ese enfoque, Jobin, Ienca y Vayena (Jobin et al., 2020, 360) examinan 84 guías éticas desarrolladas en el mundo en respuesta al rápido despliegue de la inteligencia artificial (IA). Provienen de diferentes países y organizaciones internacionales para crear una tipología de las áreas de preocupación ética en la IA, e identifican cuatro categorías principales: (1) seguridad, privacidad y responsabilidad, (2) transparencia e interpretación, (3) equidad e inclusión, y (4) valores y gobernanza. Luego, examinan las diferencias y similitudes entre las distintas guías éticas y concluyen que, aunque hay una gran variabilidad en las recomendaciones específicas, si hay un amplio consenso sobre los temas generales de preocupación ética. También destacan la importancia de la gobernanza global y la colaboración internacional para abordar las preocupaciones éticas en la IA de manera efectiva.

Los sistemas de IA almacenan datos, y si estos son robados o perdidos, pueden ser utilizados para actividades ilegales. Además, la seguridad de los datos puede ser comprometida por errores en los algoritmos que pueden llevar a decisiones incorrectas y perjudiciales. La IA debe respetar la dignidad en el tratamiento de los datos personales. Esto implica la necesidad de implementar medidas de privacidad y seguridad adecuadas para garantizar la transparencia al usar los datos. Su regulación y supervisión adecuadas son esenciales para abordar estos desafíos y garantizar que se utilice con ética (González, 2017, 30).

2.4. Las posibilidades y oportunidades de la IA para mejorar la calidad de vida

La IA también presenta oportunidades y posibilidades en la mejora la calidad de vida (Live. J.G., 2020, 40) al proporcionar diagnósticos más precisos y rápidos, detectar enfermedades en una etapa temprana y personalizar los tratamientos médicos. Lo mismo que en la seguridad y prevención del crimen, igual que las amenazas a la seguridad, la identificación de los patrones de comportamiento sospechosos y el monitoreo de las áreas de alta actividad criminal (Llinares, 2018, 100). En la misma tesitura, la IA puede mejorar la educación y el aprendizaje al personalizar la enseñanza, con retroalimentación y evaluar el progreso del estudiante, monitorear la calidad del aire y agua, prevenir incendios forestales y mejorar su gestión. La aplicación de la IA en estas áreas debe ser cuidadosamente considerada para garantizar que se aborden los problemas de manera ética y equitativa, y que se eviten posibles impactos negativos, por lo que también debe ser acompañada de políticas y regulaciones claras y efectivas para proteger la dignidad humana.

Es dable menciona que la Bioética, es la atención médica y el bienestar donde la IA puede ser positivo en el análisis de datos y localización de patrones en la detección de enfermedades, como el PNUMA (“organismo de las Naciones Unidas cuya misión es catalizar, defender, educar y facilitar la promoción del uso sensato y del desarrollo sostenible del medio ambiente global”) (RAE, 2023) O en la Biotecnología, que es la “aplicación tecnológica que utiliza sistemas biológicos y organismos vivos o sus derivados para la creación o modificación de productos o procesos …”. Los algoritmos de aprendizaje ayudan a identificar signos tempranos de cáncer, aumentando la eficacia del tratamiento lo que mejoraría la tasa de supervivencia. También puede ser útil en la atención de pacientes crónicos o ancianos. Los robots, (Zabala, 2021, 488) o sea, la IA, la cual es una “disciplina científica que se ocupa de crear programas informáticos que ejecutan operaciones comparables a las que realiza la mente humana, como el aprendizaje o el razonamiento lógico” (RAE, 2023) de asistencia pueden ayudar a las personas mayores a realizar tareas cotidianas y monitorear su salud, (Live.J.G., 2020, 66) lo que les permitiría más independencia, con la reducción de la carga de cuidados médicos y asistenciales en sus familiares. En general, la IA puede mejorar la vida en muchos aspectos. Sin embargo, se deben abordar los desafíos y riesgos que plantea su implementación para garantizar su utilización responsable.

En este sentido, Patrick Lin, Keith Abney y George BEKEY, (Lin et al., 2011, 16) abordan las implicaciones de la robótica y su impacto en la sociedad. Trata de cuestiones éticas y sociales relacionadas con los robots, como la privacidad, seguridad, responsabilidad legal y la justicia, así como los intereses de la sociedad. Presentan diferentes perspectivas sobre cada tema y exploran los argumentos a favor y en contra de diversas posiciones. También ofrecen recomendaciones prácticas para los diseñadores, ingenieros y responsables políticos que trabajan en el campo de la robótica. Resulta esencial su consulta (Ordoñez, 2021, 20) pues proporciona una sólida base para el diseño y la implementación responsable de robots en nuestra sociedad.

El avance de la IA también puede aumentar la eficiencia en el trabajo, porque puede ayudar en la automatización de tareas repetitivas, para que los empleados dediquen su tiempo a tareas más complejas y creativas, lo que podría mejorar la satisfacción laboral y aumentar la calidad y productividad del trabajo realizado. Además, de ayudar a mejorar la seguridad laboral, al detectar posibles riesgos y alertar a los trabajadores y empleadores, reduciendo los accidente y mejorando la seguridad (Benhamou, 2022).

Los sistemas de IA pueden predecir las necesidades de los consumidores, personalizar los productos y servicios según sus preferencias y mejorar la satisfacción del cliente. El tema sobre el impacto relativo a la movilidad y la accesibilidad en los Vehículos autónomos impactan a las personas con discapacidad y/o movilidad reducida, así como los desafíos en cuanto a la seguridad y responsabilidad en caso de accidentes. Lo mismo puede ocurrir con los llamados Sistemas inteligentes de transporte público: donde existe la posibilidad de que la IA mejore su eficiencia y accesibilidad, así como garantizar la privacidad de datos. Respecto a las Tecnologías de asistencia para la accesibilidad la IA es útil para mejorar la movilidad y accesibilidad de las personas con discapacidad (Martínez et al., 2020). En tal contexto, el monitoreo y control de tráfico puede mejorar la seguridad en las carreteras, y la privacidad de los datos. En cuanto a las personas con discapacidad, la accesibilidad digital sería de gran ayuda para igualar sus oportunidades.

2.5. El papel de la ética y su regulación en la gobernanza de la inteligencia artificial

La IA requiere se regulada para que se utilice dentro de marcos éticos adecuados para garantizar su uso seguro y responsable (González, 2017, 156). Con lo cual, se han de establecer leyes y normas que definan los límites y responsabilidades de sus desarrolladores, fabricantes y usuarios. La transparencia y la responsabilidad son fundamentales para garantizar la confianza en la IA, por lo mismo, habrá que establecer mecanismos para que los desarrolladores y los proveedores de servicios sean responsables de las decisiones tomadas por sus sistemas.

La necesidad de una evaluación ética es importante para garantizar que la IA se utilice sin discriminación. En esa tesitura, habrá que establecer comités de ética y mecanismos de revisión que garanticen los derechos humanos y valores éticos (P. Quirós, 2022, 155). El diálogo social amplio y transparente sobre la sociedad y el impacto de la IA en los derechos humanos es necesario, igual que el involucramiento de la sociedad civil, expertos en tecnología, empresas y los gobiernos, para establecer un marco ético y de regulación adecuado.

Es así como la ética y la regulación son fundamentales para utilizar la IA de manera responsable y efectiva, conforme a derechos humanos. Los principios éticos garantizan que se utilice en beneficio a la sociedad. Algunos de los principios éticos que se han propuesto incluyen la transparencia, la responsabilidad, privacidad, no discriminación y seguridad. Por lo cual, habrá que integrarlos en el diseño de la IA (P. Quirós, 2022, 160).

Además de los principios éticos, la regulación gubernamental también es crucial para garantizarla el uso de la IA de manera responsable y beneficiosa. Las políticas gubernamentales pueden establecer límites en su uso en la seguridad pública, y requerir la transparencia en la toma de decisiones al respecto, así como establecer estándares de seguridad y privacidad de datos personales. De esta manera queda claro que la ética y la regulación son decisivas en la gobernanza, (Pita, 2021, 289) los principios éticos deben integrarse a su diseño y uso, mientras que las regulaciones gubernamentales pueden establecer límites y estándares para garantizar que se utilice en beneficiosa de la sociedad.

Las políticas y regulaciones gubernamentales son esenciales para garantizar que el desarrollo y uso se realicen de manera responsable y ética (Ausín, 2021, 16). Los gobiernos de todo el mundo comienzan a reconocer la importancia de regular la IA y están estableciendo normas y leyes para abordar los desafíos y riesgos asociados. Entre las políticas y regulaciones gubernamentales, destacan los comités y grupos de trabajo encargados de investigar y evaluar su impacto. Estos comités y grupos de trabajo también proponen recomendaciones y directrices para su desarrollo y uso.

También la creación de estándares técnicos y éticos para la IA es decisiva, pues establecen las mejores prácticas para la recopilación y el uso de datos, la transparencia, la privacidad de los datos, y la responsabilidad en su diseño y desarrollo. Algunos gobiernos están implementando políticas de educación y capacitación para garantizar que todos comprendan su impacto en la sociedad y tengan la capacidad de desarrollar y utilizar sistemas responsablemente. Los gobiernos deben crear políticas y regulaciones que fomenten su desarrollo ético (Ausín, 2021, 5).

En este sentido, Aimee van Wynsberghe, Marcello Ienca y Effy Vayena, (Jobin et al., 2019, 390) examinan 80 guías éticas para la IA diferentes, publicadas por organizaciones gubernamentales, empresas y sociedad civil, analizan sus similitudes y diferencias para evaluar su efectividad y garantizar un desarrollo ético. Examinan las áreas de la privacidad, responsabilidad, transparencia y la justicia, y analizan sus similitudes y diferencias que abordan las guías. También analizan la efectividad de las guías éticas de IA para garantizar un desarrollo ético de la tecnología. Identifican varias limitaciones como la falta de aplicación efectiva, de supervisión y de mecanismos de responsabilidad. El señalamiento se centra sobre la búsqueda de una mayor colaboración entre las organizaciones que publican guías éticas de IA y una mayor aplicación y supervisión para garantizar un desarrollo ético tecnológico.

La responsabilidad social y corporativa es una cuestión clave en el desarrollo de la IA. Las empresas y organizaciones que la desarrollan y utilizan deben tener en cuenta el impacto social y humano de sus aplicaciones. Por eso, las empresas deben seguir principios éticos y adoptar medidas como la transparencia, promoción e inclusión en sus equipos de trabajo. Los gobiernos y los organismos reguladores han de establecer políticas y regulaciones claras para garantizar que se desarrolle responsable y ética mente (Becerra et al., 2021, 10). Al establecer estándares de seguridad y privacidad para los datos personales, así como requisitos para la transparencia. La ética y la regulación garantizan la calidad de vida sin socavar la dignidad humana.

La IA impacta los aspectos éticos, técnicos, y económicos de toda sociedad, y la manera en que las personas trabajamos y nos relacionamos. Algunos cambios se reflejan en la automatización de trabajos y la robótica, lo que deja fuera ciertos puestos de trabajo. Esto puede afectar especialmente a trabajos que implican tareas repetitivas o de baja cualificación (Lahera, 2019, 258). Aunque también pueden crearse nuevos trabajos en el diseño, programación, mantenimiento y reparación. La automatización y la capacidad de procesamiento de la IA pueden lograr mayor eficiencia y productividad que optimizan la cadena de suministro además de prever la demanda de productos en las empresas.

La introducción de la IA requerirá una formación y capacitación diferente a la que se requiere actualmente. Esto puede implicar cambios significativos en la educación y la formación, incluyendo la necesidad de una mayor formación en tecnología y habilidades digitales. También puede mejorar la calidad sanitaria, en el sector de la medicina, al analizar datos y diagnosticar con más precisión e identificar tratamientos más efectivos (Lahera, 2019, 269).

Igualmente, puede proporcionar nuevas formas de interacción social, como asistentes virtuales y robots (Zabala, 2021, 489) de compañía. Estas tecnologías pueden ser especialmente útiles para personas mayores o personas con discapacidades. Estos cambios requerirán de tiempo para ser implementados de manera adecuada y efectiva. Además, pueden no afectar a todas las sociedades de la misma manera, y es necesario considerar la diversidad cultural y económica en su regulación y uso.

Es así como, Calvo, R. A., & Peters, D. (Calvo y Peters, 2013, 177) realizaron un estudio de interacción humano-robot en donde los participantes interactuaron con un robot durante varias semanas en su hogar. Los resultados mostraron que los participantes, inicialmente tenían altas expectativas sobre el robot, pero que éstas disminuían con el tiempo a medida que se acostumbraban a su presencia. Sin embargo, los participantes aún encontraban útil al robot en su hogar y estaban dispuestos a seguir interactuando con él. Los autores concluyen que la habituación es un factor esencial para el diseño y la creación de robots domésticos, y se requieren más estudios para comprender la forma en que los humanos se adaptan a la presencia de robots a largo plazo.

Por un lado, la automatización de ciertas tareas y procesos puede llevar a la pérdida de empleos en ciertos sectores. Sin embargo, también puede llevar a la creación de nuevos empleos en otros sectores relacionados con la IA. Además, puede tener un impacto significativo en la economía a mejorar la eficiencia y la productividad, puede ayudar a reducir costos y aumentar la producción. Lo mismo que a identificar oportunidades y a mejorar las decisiones empresariales. Pero la implementación de la IA también puede generar desigualdades económicas, porque las empresas con más recursos pueden tener una ventaja en su desarrollo y uso. Por lo tanto, resulta esencial abordar estas posibles consecuencias sociales y económicas al regularla.

La IA avanza y produce cambios significativos en los sectores industriales, desde la fabricación hasta la logística, pasando por el comercio y los servicios financieros. La automatización de procesos y el procesamiento de datos pueden mejorar la eficiencia y reducir costos en estas industrias. Estos cambios también pueden tener un impacto en el empleo y requerir nuevas habilidades y competencias para los trabajadores. Habrá cambios sociales en la educación, salud transporte y la movilidad en las ciudades. Hay que tener presente los posibles efectos negativos en la privacidad, la seguridad y la desigualdad social que surgirán de estos cambios.

La IA transforma la operación de las empresas e industrias y como resultado, se producen cambios en la economía y en el terreno laboral. La automatización y la robótica aumentarán la eficiencia y reducirán los costos, pero también pueden afectar a la cantidad y calidad de los trabajos disponibles (Wilson, 2018, 60). La IA también causa impacto en la educación y la formación de habilidades que prepara a las personas para trabajar con la tecnología. Por lo tanto, se ha de analizar y comprender los cambios sociales y económicos que puede generar y desarrollar estrategias para adaptarse a ellos de manera efectiva (González, 2018, 100).

La dignidad humana y la IA puede tener un impacto significativo en los derechos humanos. En este ensayo, se explora la dignidad humana, su evolución histórica y la relación entre ambas. También se analizan los desafíos y riesgos en la toma de decisiones con transparencia, discriminación, sesgo y privacidad de datos personales. Destaca las posibilidades y oportunidades de la IA en la calidad de vida, atención médica, productividad en el trabajo, movilidad y accesibilidad. La ética y la regulación son fundamentales en la gobernanza de la IA, estableciendo principios éticos claros y políticas y regulaciones gubernamentales adecuadas para fomentar la responsabilidad social y corporativa en su desarrollo.

La IA puede generar cambios en la sociedad, economía, mercado laboral y la transformación de las industrias. Por eso, debemos prepararnos para estos cambios y adaptarnos a ellos, especialmente en términos de educación y formación de habilidades. Puesto que puede impactar la dignidad humana y habrá que abordar los desafíos y riesgos mientras se aprovechan sus oportunidades y se promueva una gobernanza ética y responsable. Si bien puede mejorar la calidad de vida, también puede poner en peligro algunos derechos. Por eso, debe haber un equilibrio entre el avance tecnológico, la protección de la dignidad y el beneficio social.

El Grupo Europeo de Ética en la Ciencia y las Nuevas Tecnologías (EGE) (European Group on Ethics in Science and New Technologies, 2018, 150) en este informe aborda la ética en la IA autónoma. Los desafíos éticos de su desarrollo y propone la transparencia, responsabilidad, justicia, privacidad y la seguridad, entre otros más, como principios éticos y valores fundamentales que deberían guiar el diseño. Refieren su impacto en todas las áreas del conocimiento humano como el empleo, educación, democracia y la autonomía individual, y sugiere formas de abordar estos desafíos desde la ética. Contribuye al debate sobre la ética en la IA autónoma, proporcionando una base para el uso responsable de la tecnología.

2.6. Desarrollos de inteligencia artificial en el proceso judicial

PROMETEA (Procesos, Medidas y Tecnología Asistida por IA) es un proyecto de inteligencia artificial implementado en Argentina en el ámbito judicial (Grosso, 2020, 15). Fue desarrollado por el Ministerio de Justicia y Derechos Humanos de Argentina, con el objetivo de mejorar la eficiencia y la transparencia en el sistema judicial con el uso de IA, además de agilizar los procesos judiciales, reducir la carga de trabajo de los operadores judiciales y mejorar el acceso a la administración de justicia. Se enfoca en áreas de análisis automatizado de documentos legales, generación de informes y apoyo en la toma de decisiones. Utiliza lenguaje natural y aprendizaje automático para clasificar documentos legales, identificar información relevante y generar resúmenes y análisis de estos (Robledo, 2022, 54).

Por otra parte, VICTOR (Sistema Inteligente de Videoconferencia y Operación Remota) es una iniciativa de IA implementada en Brasil. Fue desarrollado por el Tribunal de Justicia de Río Grande do Sul. El objetivo de VICTOR es facilitar la realización de audiencias judiciales a través de videoconferencias y permitir la operación remota de los procedimientos judiciales. Además de agilizar los procedimientos judiciales, reducir los costos asociados a los desplazamientos y mejorar la accesibilidad de la administración de justicia. También utiliza el reconocimiento facial y vocal para verificar la identidad de las personas que participan en las audiencias y garantizar la seguridad del proceso, así como, utiliza procesamiento de lenguaje natural que transcribe y genera automáticamente documentos a partir de las audiencias (Robledo, 2022, 50).

Es dable menciona que China se encuentra avanzando en el desarrollo de IA en el ámbito judicial. Han surgido plataformas de inteligencia artificial que ayudan en la resolución de casos, proporcionando asesoramiento legal automatizado, predicción de fallos judiciales y análisis de riesgos. Además, se han establecido tribunales inteligentes en ciudades como Beijing, Shanghai y Guangzhou, donde se utilizan tecnologías de IA, como reconocimiento facial y análisis de big data para agilizar los procedimientos y mejorar la eficiencia de los procesos judiciales. También han desarrollado sistemas de inteligencia artificial que pueden analizar grandes cantidades de datos legales y ayudar a los jueces en la toma de decisiones, al proporcionar recomendaciones sobre fallos judiciales basados en casos y precedentes anteriores (Robledo, 2022, 56).

En el Reino Unido, también se están llevando a cabo diversos proyectos de inteligencia artificial en el ámbito judicial. Por ejemplo, se están desarrollando sistemas de IA para analizar contratos y documentos legales, facilitando así el trabajo de los abogados. Asimismo, se están utilizando algoritmos de IA que calcula la reincidencia delincuencial y apoya la toma de decisiones en la libertad condicional y sentencias. Estos sistemas utilizan algoritmos de lenguaje natural que identificar cláusulas, analiza riesgos legales y ayuda a los abogados en la revisión de documentos (Robledo, 2022, 64). También se están utilizando algoritmos de IA para predecir la reincidencia delincuencial. Esto ayuda a los jueces en la toma de decisiones relacionadas con la libertad condicional y las sentencias, permitiendo una evaluación más objetiva y basada en datos (Granero, 2020, 128).

El gobierno de Singapur anuncio un proyecto para explorar cómo la IA puede mejorar los servicios legales y la administración de justicia. Esto incluye el uso de chatbots y asistentes virtuales para proporcionar información y orientación jurídica a los ciudadanos. También se están utilizando sistemas de IA para analizar y clasificar casos legales, así como para ayudar a los jueces en la toma de decisiones al hacer recomendaciones basadas en precedentes legales con datos para identificar patrones y tendencias (Robledo, 2022, 60).

Así como, Argentina, Brasil, Estados Unidos; China; Reino Unido y Singapur son solo algunos ejemplos de países que están implementando desarrollos de IA en los procesos judiciales, aumentar la eficiencia y facilitar el acceso (Solar, 2021, 25). Estas iniciativas aprovechan el potencial de la IA para apoyar a los operadores del sistema judicial y mejorar la calidad y la rapidez de los procesos legales. La IA en el ámbito legal es ya una realidad que va evolucionando con tecnologías que propician la eficiencia en la administración de justicia (González, 2020, 32). Aunque la IA en el proceso judicial plantea desafíos éticos, como la transparencia de los algoritmos, la equidad y el sesgo algorítmico, se debe garantizar su uso responsable y asegurar los derechos humanos.

Actualmente, en la abogacía, ya es común que tanto en los asuntos relativos a la investigación revisión, redacción y análisis de dictámenes, contratos y demás documentos legales, asesoramiento, material documental para el litigio, y las decisiones en una demanda o estrategia procesal, sean elaboradas por sistemas de IA o por especialistas que se apoyan en estos sistemas. La automatización de las tareas legales tiene un gran impacto en el trabajo de los profesionales de servicios jurídicos, resultando nuevos modelos de negocio y ejercicio de la abogacía (Solar, 2021, 28).

2.7. Planteamiento de un caso hipotético: Kimi

Kimi es una película estadounidense dirigida por Steven Soderbergh, estrenada el 10 de febrero de 2022. La protagonista es Zoë Kravitz. El argumento trata sobre Bradley Hasling, chief executive officer (CEO) de Amygdala, es una corporación tecnológica. Bradley concede una entrevista para hablar sobre Kimi, producto nuevo que están promocionando, es un altavoz inteligente que, utiliza la supervisión humana para mejorar el algoritmo de búsqueda del dispositivo. Amygdala lanzara una oferta pública y Hasling ganara mucho dinero.

Angela Childs, empleada de Amygdala en Seattle se decida a monitorear los flujos de datos entrantes de los dispositivos Kimi, y corrige el software. Angela padece ansiedad y agorafobia, porque fue víctima de una agresión en el pasado, sus padecimientos se han exacerbado por la pandemia de COVID-19 debido a la cuarentena que guardamos en el hogar.

Su único contacto es con su pareja romántica Terry, su vecino del otro lado de la calle. En cierta ocasión Angela escucha una grabación con tintes de agresión sexual. Un compañero de trabajo llamado Darius, la ayuda y accede a la información de Samantha titular de la cuenta. Se percata que existen otras grabaciones y que “Brad” fue quien asesinó a Samantha. Es muy revelador porque al parecer ‘Brad’ es Bradley Hasling, quien ordenó a Rivas la muerte de Samantha. Por seguridad, Angela transfiere las grabaciones a una unidad flash e informa el incidente a su superior, quien la remite con una ejecutiva de Amygdala llamada Natalie Chowdhury, Angela llama a la Dra. Chowdhury pero no logra comunicarse y se dirige a su oficina, la idea es que informe el caso al FBI.

Angela se percata que la Dra. Chowdhury no quiere hablar con las autoridades y trae a colación la anterior licencia de Angela por salud mental. Mientras está esperando a que la Dra. Llame al FBI, recibe noticias de Darius, quien le informa que alguien ha eliminado las grabaciones de voz de Samantha que estaban guardados en los servidores de Amygdala, y se da cuenta que dos desconocidos entran a la oficina. Ella huye y Rivas la rastrea a través de su teléfono.

Los maleantes encuentran a Angela e intentan secuestrarla, pero una manifestación de un grupo de personas lo evita. Sin embargo, Yuri, un hacker que trabaja para Rivas, registra su historial de búsqueda y con eso deduce hacia dónde se dirige. Por fin, encuentran a Angela la drogan y la llevan a su apartamento para asesinarla.

Cuando se dirigen al departamento de Angela, Kevin, un vecino que también pasa todo el tiempo encerrado le sale al paso para saber de Ángela porque la vio salir de la casa. Al pobre Kevin lo apuñalan los hombres de Rivas. Rivas ya se encontraba en el departamento de Angela para confiscar la unidad flash y borrar las grabaciones, pero ella usó su dispositivo Kimi y los distrajo, luego escapó a un piso más alto e improvisó una pistola de clavos que dejaron unos trabajadores de construcción, Ángela logra matar a los intrusos. Terry, llega justo cuando ella está marcando al 911. Bradley Hasling es detenido por el asesinar a Samantha, y Angela desayuna con Terry.

Aunque sería difícil (pero no imposible) que los jueces, autoridades administrativas, policía investigadora ministerial, operadores penales y demás autoridades tuvieran el panorama completo sobre el asesinato de una mujer, o cualquier otra persona bajo las circunstancias descritas, sin el apoyo de la ciencia por la complejidad para reunir las pruebas del ilícito y esclarecer los hechos en un proceso judicial. Porque se requiere de un conocimiento especializado sobre los indicios, pruebas y demás cuestiones relacionadas con el análisis científico del ilícito perpetrado.

En el caso particular, las grabaciones, el conocimiento y la ciencia ayudaron a que Angela descubriera el delito, porque tuvo la capacidad de intuir que algo estaba mal, e investigó con apoyo de la inteligencia artificial. En este supuesto, la IA es útil para el análisis de documentos, costumbres personales, detección de voz, identificación de huellas dactilares o cualquier otra prueba relacionada con el hecho delictivo.

III. Conclusiones

A partir de los hallazgos de esta investigación, llegamos a la conclusión de que es crucial implementar medidas que aseguren un desarrollo y uso ético y responsable de la Inteligencia Artificial (IA), con el fin de salvaguardar la dignidad humana. Este objetivo se logra fomentando la transparencia y garantizando una comprensión y documentación adecuadas de los algoritmos empleados en la toma de decisiones.

Asimismo, es esencial que los gobiernos aborden la discriminación y el sesgo en los sistemas de IA, estableciendo estrategias que prevengan estas problemáticas en la recopilación y uso de datos. Paralelamente, deben implementarse medidas de seguridad y privacidad robustas. Estas acciones son fundamentales en sectores clave como la atención médica, el bienestar social, la eficiencia laboral, la movilidad y la accesibilidad.

Se hace imperativo diseñar y desarrollar principios éticos en el uso de la IA que respeten los derechos humanos. Para esto, se deben implementar políticas y regulaciones gubernamentales que supervisen adecuadamente el desarrollo y uso de la IA, asegurando el cumplimiento de estos principios éticos y la protección de la dignidad humana.

Es vital promover la responsabilidad social y corporativa, instando a empresas y desarrolladores a comprometerse con un uso ético y responsable de la tecnología. Dada la naturaleza evolutiva de la tecnología, las regulaciones y políticas deben ser dinámicas y adaptativas, capaces de abordar los desafíos y riesgos emergentes.

La estrategia global para el manejo de la Inteligencia Artificial (IA) debe abarcar no solo la investigación en torno a la seguridad de estos sistemas, sino también fomentar la cooperación internacional y la integración de valores humanos fundamentales en su diseño y operación. Este enfoque holístico implica un desafío significativo para nuestra comprensión actual de la IA y su relación intrínseca con la humanidad. Nos obliga a reflexionar críticamente sobre el papel que deseamos que la IA juegue en nuestro futuro, no solo como una herramienta o un medio para alcanzar fines específicos, sino también como un actor que podría, en cierta medida, influir o incluso determinar aspectos cruciales de nuestra vida cotidiana y decisiones morales.

Debemos considerar que la mente humana no es un ente aislado o limitado a procesos internos a nivel cerebral. Más bien, debe ser entendida como una entidad ampliada que incluye el cerebro, el cuerpo y el entorno externo. En esta era digital, las herramientas tecnológicas, como los smartphones y las computadoras, se han convertido en extensiones de nuestra cognición.

Estos dispositivos y sistemas no solo mejoran nuestras capacidades para realizar tareas complejas, sino que también transforman la manera en que procesamos la información, tomamos decisiones y interactuamos con nuestro entorno. Esta interacción simbiótica entre el humano y la tecnología redefine los límites de nuestras capacidades cognitivas y plantea preguntas fundamentales sobre la autonomía, la dependencia tecnológica y la evolución de nuestra propia identidad.

En el marco de los recientes avances en inteligencia artificial, la teoría de la mente extendida propuesta por Clark adquiere una relevancia crucial. Según esta teoría, robots y otros sistemas inteligentes deben ser considerados no como entidades aisladas, sino como extensiones funcionales de nuestras propias capacidades cognitivas. Estos sistemas, equipados con herramientas y sensores externos avanzados, no se limitan a amplificar nuestras habilidades humanas; también tienen el potencial de modificar significativamente nuestra percepción y comprensión del mundo que nos rodea.

Esta interacción entre humanos y máquinas plantea preguntas fundamentales sobre la naturaleza de la cognición y la identidad. Al integrar la IA en nuestras actividades diarias, desde la toma de decisiones hasta el análisis de datos complejos, estamos externalizando procesos que tradicionalmente se consideraban exclusivamente humanos. Este fenómeno sugiere una simbiosis emergente entre el ser humano y la tecnología, lo que lleva a una reevaluación de lo que significa ser cognitivamente humano.

Más allá de ser simples herramientas, estos sistemas inteligentes actúan como colaboradores en nuestra interpretación y respuesta al entorno. Esto desafía la idea tradicional de la mente como una entidad cerrada y autosuficiente, proponiendo en su lugar un modelo más dinámico y fluido, donde las fronteras entre la mente humana y la tecnología se vuelven cada vez más borrosas. En este modelo, la cognición se extiende más allá de los límites físicos del cerebro para abarcar los dispositivos y sistemas que utilizamos, indicando una evolución en nuestra forma de procesar información y tomar decisiones.

Este cambio paradigmático conlleva implicaciones profundas, no solo en términos de cómo entendemos la mente y la cognición, sino también en cómo abordamos la relación entre humanos y máquinas. Al reconocer la interdependencia entre la cognición humana y la inteligencia artificial, nos vemos obligados a reconsiderar los límites éticos, legales y sociales de esta interacción, así como a reflexionar sobre el futuro de nuestra coexistencia con estas tecnologías cada vez más integradas en nuestra vida cotidiana.

En este sentido, la incursión de la Inteligencia Artificial (IA) en roles tradicionalmente humanos, especialmente en el análisis legal sobre la inocencia o culpabilidad de individuos, abre un campo de interrogantes éticos y prácticos. Si consideramos un escenario donde una IA, equipada con avanzadas capacidades de análisis y razonamiento legal, es capaz de influir o determinar la responsabilidad penal, nos enfrentamos a un cambio paradigmático en el sistema jurídico. Este desarrollo plantea la cuestión de si un sistema artificial, por más sofisticado que sea, puede entender la complejidad y las sutilezas del derecho, que a menudo implican interpretaciones contextuales y consideraciones morales. Además, ¿cómo podríamos asegurarnos de que estas máquinas estén libres de los sesgos inherentes en los datos con los que han sido entrenadas?

Por otro lado, existe la preocupación de que la participación de la IA en la toma de decisiones legales podría llevar a un distanciamiento de la empatía y la comprensión humana, elementos cruciales en muchos aspectos de la jurisprudencia. Mientras que los algoritmos pueden procesar información con una eficiencia y precisión que supera la capacidad humana, carecen de la capacidad de comprender las emociones humanas y los matices éticos que a menudo son fundamentales en la toma de decisiones judiciales. Este desequilibrio entre la lógica algorítmica y el razonamiento emocional humano plantea la pregunta de cómo se podrían integrar estas dos formas de juicio para alcanzar veredictos justos y equitativos.

La participación de la IA en los procesos judiciales nos lleva a reflexionar sobre el alcance y los límites de su integración en el sistema legal. ¿Cómo podemos garantizar que su uso esté alineado con los principios éticos y los derechos fundamentales? ¿Qué mecanismos de supervisión y revisión podrían implementarse para asegurar que las decisiones tomadas por sistemas de IA sean justas, imparciales y transparentes? Estas preguntas son cruciales en un momento en que la tecnología avanza a un ritmo sin precedentes y su integración en la sociedad se vuelve cada vez más profunda y compleja.

Esta confluencia de la IA con el derecho y la jurisprudencia exige un debate continuo y multidisciplinario. Juristas, científicos de datos, filósofos, éticos y la sociedad en general deben colaborar para explorar estas cuestiones complejas y desarrollar un marco que equilibre la innovación tecnológica con la integridad moral y legal. Es imperativo que este diálogo sea inclusivo y diverso, considerando una amplia gama de perspectivas y experiencias para comprender plenamente las implicaciones de integrar la IA en nuestro sistema legal. Solo mediante un esfuerzo colectivo y considerado podremos navegar por estas aguas inexploradas y garantizar que la evolución de la IA sirva al bienestar y la justicia para toda la humanidad.

Bibliografía

Amnistía Internacional. (2020, 21 de septiembre). Empresas de la UE venden herramientas de vigilancia a responsables de abusos contra los derechos humanos en China. Amnistía Internacional. https://www.amnesty.org/es/latest/press-release/2020/09/eu-surveillance-sales-china-human-rights-abusers/

APARISI MIRALLES, Á., (2013). El principio de la dignidad humana como fundamento de un bioderecho global. Cuadernos de Bioética, XXIV(2), pp. 201-221. https://www.redalyc.org/articulo.oa?id=87528682006

ARBELÁEZ-CAMPILLO, D.F., VILLASMIL ESPINOZA, J.J. y ROJAS-BAHAMÓN, M. J. (2021). Inteligencia artificial y condición humana: ¿Entidades contrapuestas o fuerzas complementarias? Revista de Ciencias Sociales (Ve), XXVII (2), pp. 502-513, https://www.redalyc.org/journal/280/28066593034/html/

ARDILA, R. (2011). Inteligencia. ¿qué sabemos y qué nos falta por investigar? Revista de la Academia Colombiana de Ciencias Exactas, Físicas y Naturales, 35 (134). http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0370-39082011000100009

ASQUERINO LAMPARERO, M. J. (2022, 30 de abril). Algoritmos y Discriminación. Trabajo, persona, derecho y mercado. Nuevos retos del mercado laboral: Pobreza en el trabajo, economía colaborativa y envejecimiento. Https://grupo.us.es/iwpr/2022/04/30/algoritmos-y-discriminacion/

AUSÍN, T. (2021). ¿Por qué ética para la Inteligencia Artificial? Lo viejo, lo nuevo y lo espurio. Sociología y tecnociencia, 11(Extra_2), pp. 1-16.

BACHELET, M. (2021, 15 de septiembre). Los riesgos de la inteligencia artificial para la privacidad exigen medidas urgentes. Naciones Unidas. https://www.ohchr.org/es/press-releases/2021/09/artificial-intelligence-risks-privacy-demand-urgent-action-bachelet

BÉCARES, B. (2023, 2 de mayo). IBM puede llegar a sustituir a casi 8.000 personas por inteligencia artificial. Comienza paralizando las contrataciones. GENBETA. https://www.genbeta.com/actualidad/ceo-ibm-dice-que-inteligencia-artificial-podria-reemplazar-a-7-800-sus-trabajadores-empiezan-pausando-contrataciones

BECERRA, M. D. C., ABALLAY, A., ROMAGNANO, M. R., y TORAL SARMIENTO, A. (2021). Análisis de nuevos problemas éticos y legales al aplicar business intelligence en los sistemas de información organizacionales. FCEF http://sedici.unlp.edu.ar/bitstream/handle/10915/141295/Documento_completo.pdf-PDFA.pdf?sequence=1

BENHAMOU, S. (2022). La transformación del trabajo y el empleo en la era de la inteligencia artificial: análisis, ejemplos e interrogantes. CEPAL. https://repositorio.cepal.org/bitstream/handle/11362/47985/S2200188_es.pdf?sequence=1

BOSTROM, N. (2014). Superintelligence: Paths, dangers, strategies. Oxford University Press

CAHUN, A. (2017, 20 Junio). El conductor del Tesla fallecido en accidente con piloto automático ignoró las advertencias del sistema, según el gobierno USA. Xataka https://www.xataka.com/automovil/el-fatal-accidente-del-tesla-model-s-con-piloto-automatico-pudo-haberse-evitado-segun-el-gobierno-de-ee-uu

CALLEJA LOPEZ, A., CANCELA, E., y CAMBRONERO GARBAJOSA, M. (2022). Desplazar los ejes: alternativas tecnologicas, derechos humanos y sociedad civil a principios del siglo XXI. Universitat Oberta de Catalunya. http://hdl.handle.net/10609/147765

CALVO, R. A., & PETERS, D. (2013). Living with robots: Investigating the habituation effect in participants’ preferences during a longitudinal human–robot interaction study. International Journal of Social Robotics, 5(2), pp. 173-181.

CAÑIGUERAL, A. (2020). El trabajo ya no es lo que era: Nuevas formas de trabajar, otras maneras de vivir. Conecta.

CASADEVALL, J. (2018). La Directiva de la Unión Europea contra la elusión fiscal. Aranzadi.

CLARK, A. (1997). Being There: Putting Brain, Body, and World Together Again. Bradford Books.

CORVALÁN, J. G. (2018). Inteligencia artificial: retos, desafíos y oportunidades-Prometea: la primera inteligencia artificial de Latinoamérica al servicio de la Justicia. Revista de Investigações Constitucionais, 5, pp. 295-316.

CROVI DRUETTA. D. (2017). “Prácticas de apropiación e interacción en la cultura digital”. En Teoría, debates y nuevas perspectivas sobre la apropiación de tecnologías digitales (coord. Martínez, S. L., Méndez, A., y Gendler, M) (pp. 25-32). Ediciones del Gato Gris.

DE LECUONA, I. (2021). Aspectos éticos, legales y sociales del uso de la inteligencia artificial y el Big Data en salud en un contexto de pandemia. Revista internacional de pensamiento político, 15, pp. 139-166.

EMOL. (2022, 11 de octubre). Estudio de NTT DATA refleja que Inteligencia Artificial incrementa la productividad en empresas: Conoce sus ventajas y desafíos. EMOL. https://www.emol.com/noticias/Tendencias/2022/10/11/1075238/estudio-de-ntt-data.html

– (2018). European Group on Ethics in Science and New Technologies. Ethics of autonomous artificial intelligence.

FLORIDI, L. (2019). The Logic of Information: A Theory of Philosophy as Conceptual Design. Oxford University Press.

GOV.CO. (2022, 9 de marzo). Ministerio de tecnologías de la información y las comunicaciones. Colombia adopta de forma temprana recomendaciones de ética en Inteligencia Artificial de la Unesco para la región. GOV.CO. https://www.mintic.gov.co/portal/inicio/Sala-de-prensa/Noticias/208109:Colombia-adopta-de-forma-temprana-recomendaciones-de-etica-en-Inteligencia-Artificial-de-la-Unesco-para-la-region

GONZÁLEZ-PÁRAMO, J. M. (2018). Cuarta revolución industrial, empleo y estado de bienestar. Ministerio de Justicia. https://www.boe.es/biblioteca_juridica/anuarios_derecho/abrir_pdf.php?id=ANU-M-2018-10008900113

GONZÁLEZ, A. F. (2021, abril). El procesamiento de textos jurídicos: natural language processing & legal tech. Universidad Pontificia https://repositorio.comillas.edu/xmlui/bitstream/handle/11531/46784/TFG%20-%20201607852.pdf?sequence=-1&isAllowed=y

GONZÁLEZ, M. J. S. (2017). Regulación legal de la robótica y la inteligencia artificial: retos de futuro. Revista Jurídica de la Universidad de León, 4(4), pp. 25-50. https://pdfs.semanticscholar.org/ea29/4cbf53fd151134f1d949382dc89d8af120ab.pdf

GRANADOS FERREIRA, J. (2022). Análisis de la inteligencia artificial en las relaciones laborales. Revista CES Derecho, 13 (1), pp. 111-132. https://doi.org/10.21615/cesder.6395

GRANERO, H. R. (2020). “Inteligencia Artificial y Justicia Predictiva (¿puede la inteligencia artificial determinar si tengo razón o no en un juicio?)”. En Inteligencia artificial y derecho, un reto social (coord. Veltani, D. y Lozano, R.). Albremática. http://159.65.240.138/bitstream/handle/uvscl/1261/EBOOK%20Inteligencia%20Artificial%20y%20Derecho%2C%20un%20reto%20social.pdf?sequence=1&isAllowed=y

GROSSO, C. P. (2020) “Apuntes acerca del jurista y las nuevas tecnologías”. En Inteligencia artificial y derecho, un reto social (coord. Veltani, D. y Lozano, R.). Albremática. http://159.65.240.138/bitstream/handle/uvscl/1261/EBOOK%20Inteligencia%20Artificial%20y%20Derecho%2C%20un%20reto%20social.pdf?sequence=1&isAllowed=y

HABERMAS, J. (2010). El concepto de dignidad humana y la utopía realista de los derechos humanos. Diánoia, 55(64), pp. 3-25. http://www.scielo.org.mx/scielo.php?script=sci_arttext&pid=S0185-24502010000100001&lng=es&tlng=es

JOBIN, A., IENCA, M., y VAYENA, E. (2019). The global landscape of AI ethics guidelines. Nature Machine Intelligence, 1(9), pp. 389-399.

JOBIN, A., IENCA, M., y VAYENA, E. (2020). Artificial intelligence: The global landscape of ethics guidelines. En Advanced Multimedia and Ubiquitous Engineering (eds. Lee, J. H. S., Kim, Y. S., Kim, H. K., Kang, K. C. y Lee J. W.)(pp. 357-365). Springer.

KARDOUDI, O. (2023). Empieza la carnicería: IBM elimina 8.000 trabajos humanos por la inteligencia artificial. El confidencial. https://www.elconfidencial.com/tecnologia/novaceno/2023-05-02/ibm-inteligencia-artificial-perdida-trabajos-humanos_3621469/

KOOPS, B. J. (2016). A typology of privacy. University of Pennsylvania Journal of International Law, 38(2), pp. 483-575.

LABORDE, A. (2020, 26 de junio). Detenido injustamente un afroamericano en EE UU por un error en el sistema de reconocimiento facial. El País. https://elpais.com/tecnologia/2020-06-26/un-afroamericano-es-detenido-injustamente-por-un-error-en-el-sistema-de-reconocimiento-facial.html

LAHERA SÁNCHEZ A. (2019). Digitalización, robotización, trabajo y vida: cartografías, debates y prácticas. Cuadernos de Relaciones Laborales, 37(2), pp. 249-273. https://doi.org/10.5209/crla.66037

LIN, P., ABNEY, K., & BEKEY, G. A. (2011). Robot ethics: The ethical and social implications of robotics. MIT Press.

LIVE, J. G. (2020) Inteligencia Artificial en Salud. Revista Innova, salud digital.

LLINARES, F. M. (2018). Inteligencia artificial y justicia penal: más allá de los resultados lesivos causados por robots. Revista de Derecho Penal y Criminología, (20), pp. 87-130.

MÁRQUEZ, B. (2022). Los neodeterminismos jurídicos evolutivos en la tutelación universal de los seres trans-humanos. UBAIUS, 11(1), pp. 9-15 https://revistasuba.com/index.php/UBAIUS/article/view/321/217

MARTÍNEZ CRUZ, J. (2020, 13 de julio) Inteligencia artificial debe respetar la dignidad humana. INFOEM. https://www.infoem.org.mx/es/contenido/noticias/inteligencia-artificial-debe-respetar-la-dignidad-humana

MARTÍNEZ, R., PALMA, A., y VELÁSQUEZ, A. M. (2020). Revolución tecnológica e inclusión social: reflexiones sobre desafíos y oportunidades para la política social en América Latina. CEPAL. https://repositorio.cepal.org/bitstream/handle/11362/45901/S2000401_es.pdf

MARTÍNEZ, S. L., MÉNDEZ, A., y GENDLER, M. (2017). “Teoría, debates y nuevas perspectivas sobre la apropiación de tecnologías digitales”. En Contribuciones al estudio de procesos de apropiación de tecnologías. Ediciones del Gato Gris.

México transparente (mayo de 2023). Revista digital del sistema nacional de transparencia, (3) https://www.itei.org.mx/v3/documentos/estudios/mexico_transparente_3_mayo2022_ok.pdf

Mittelstadt, B. D., Allo, P., Taddeo, M., Wachter, S., & Floridi, L. (2019). The ethics of algorithms: Mapping the debate. Big Data & Society, 6(2).

MORÁN ESPINOSA, A. (2021). Responsabilidad penal de la Inteligencia Artificial (IA). ¿La próxima frontera? Revista IUS, 15(48), pp. 289-323. https://doi.org/10.35487/rius.v15i48.2021.706

ORDOÑEZ LEÓN, P. (2021) Derecho a la consulta previa, libre e informada y acceso a la información de los pueblos y comunidades indígenas. México Transparente Revista digital del sistema nacional de transparencia, 2, 22. https://snt.org.mx/wp-content/uploads/formado-Mexico-transparente-no.2-diciembre-2021-final.pdf

OVALLE GÓMEZ, C., (2007). La bioética en la concepción, reivindicación y reconocimientos emergentes en los derechos humanos. Revista Colombiana de Bioética, 2(2), pp. 247-266. https://www.redalyc.org/articulo.oa?id=189217250011

P. QUIRÓS, J. J. M. (2022). Derechos humanos e inteligencia artificial. Dikaiosyne: revista semestral de filosofía práctica, (37), pp. 140-163. http://www.ulpiano.org.ve/revistas/bases/artic/texto/DIKAIOSYNE/37/dikaiosyne_2022_37_139-163.pdf

PARADA SÁNCHEZ, D. A. y DÍAZ LEÓN, I. H. (2021). “La identidad digital como garantía constitucional y un medio para la prevención del delito”. En Tópicos de Política Criminal 2. Ciencia y Tecnología (coord. Álvarez León J.A.). Universidad Nacional Autónoma de México. http://derecho.posgrado.unam.mx/site_cpd/public/publis_cpd/topicos2_digital.pdf

PASTOR, J. (2023, 3 de mayo). IBM ya ha paralizado sus contrataciones por la IA. El despido de 7.800 trabajadores es el siguiente paso. Xataka. https://www.xataka.com/robotica-e-ia/ibm-ha-paralizado-sus-contrataciones-ia-despido-7-800-trabajadores-siguiente-paso

PITA, E. V. (2021). La UNESCO y la gobernanza de la inteligencia artificial en un mundo globalizado. La necesidad de una nueva arquitectura legal. Anuario de la Facultad de Derecho. Universidad de Extremadura, (37), pp. 273-302.

PORCELLI, A. M. (2020). La inteligencia artificial y la robótica: sus dilemas sociales, éticos y jurídicos. Derecho global. Estudios sobre derecho y justicia, 6(16), pp. 49-105. https://www.scielo.org.mx/scielo.php?pid=S2448-51362020000300049&script=sci_arttext

RAE. (2023). Inteligencia. Real Academia Española. https://dle.rae.es/inteligencia#2DxmhCT

RAMOS, R. (2023, 23 de mayo). Urgen a legislar en materia de Inteligencia Artificial en México. El Economista. https://www.eleconomista.com.mx/arteseideas/Urgen-a-legislar-en-materia-de-Inteligencia-Artificial-en-Mexico-20230507-0035.html

Red en defensa de los derechos digitales. (2020, 7 de julio). La policía de Detroit admite que su tecnología de reconocimiento facial se equivoca 96% de las veces . Red en defensa de los derechos digitales. https://r3d.mx/2020/07/07/la-policia-de-detroit-admite-que-su-tecnologia-de-reconocimiento-facial-se-equivoca-96-de-las-veces/

ROBLEDO, D. (2022). Proceso judicial y inteligencia artificial. Revista Electrónica de Derecho Procesal, 23(3). https://www.e-publicacoes.uerj.br/index.php/redp/article/viewFile/70391/43567

ROUYET, J.I. (2021, 26 de mayo). Ser éticos con la inteligencia artificial. ESGLOBAL. HTTPS://WWW.ESGLOBAL.ORG/SER-ETICOS-CON-LA-INTELIGENCIA-ARTIFICIAL/

RUIZ MARULL, D. (2018) La manipulación en las redes sociales no para de crecer a escala mundial. La Vanguardia. https://www.lavanguardia.com/vida/20180720/45977023154/manipulacion-redes-sociales-mundo-politicos.html

RYAN-MOSLEY, T. (2012, 20 de abril). La demanda que podría lograr el fin del reconocimiento facial policial. MIT technology review. https://www.technologyreview.es/s/13238/la-demanda-que-podria-lograr-el-fin-del-reconocimiento-facial-policial

SÁNCHEZ MEDERO, G. (2012). Ciberespacio y el crimen organizado. los nuevos desafíos del siglo xxi. Revista Enfoques: Ciencia Política y Administración Pública, X(16), pp. 71-87. https://www.redalyc.org/comocitar.oa?id=96024266004

Senado de la República (2023, 23 de enero). Piden acciones para tratamiento de datos personales derivado del uso de inteligencia artificial . Senado de la República. https://comunicacionsocial.senado.gob.mx/informacion/comunicados/4827-piden-acciones-para-tratamiento-de-datos-personales-derivado-del-uso-de-inteligencia-artificial

SOLAR CAYÓN, J. I. (2021). Reflexiones sobre la aplicación de la inteligencia artificial en la administración de justicia. Universidad de Cantabria. https://repositorio.unican.es/xmlui/bitstream/handle/10902/24149/ReflexionesSobreLaAplicaci%C3%B3n.pdf?sequence=1

TURÉGANO, I. (2020). Los valores detrás de la privacidad. Doxa. Cuadernos de Filosofía del Derecho, 43 https://rua.ua.es/dspace/bitstream/10045/106968/1/Doxa_2020_43_10.pdf

UNESCO. (2019). Recommendation on the ethics of artificial intelligence.

UNICEF. (2022, enero) Ciberacoso: Qué es y cómo detenerlo. Lo que los adolescentes quieren saber acerca del ciberacoso. UNICEF. https://www.unicef.org/es/end-violence/ciberacoso-que-es-y-como-detenerlo

VALDÉS, L. F. A., Gómez, G. M., y Limón, J. E. (2022). La tutela judicial efectiva en México. Prospectiva Jurídica, 12(23), pp. 105-127.

VALDÉS, M. (2018). La dignidad humana como parámetro de interpretación en fuentes de Derecho Internacional de los Derechos Humanos y Bioética ¿La definición inexistente? Inmanencia. Revista Del Hospital Interzonal General De Agudos (HIGA), 6 (1).

VÉLEZ, M. I., Gómez Santamaría, C., y Osorio Sanabria, M. A. (2022). Conceptos fundamentales y uso responsable de la inteligencia artificial en el sector público. Informe 2.

WILSON, A. (2018). El ascenso de la automatización: la tecnología y los robots reemplazarán a los humanos. Babelcube Inc.

ZABALA LEAL, T. D., & ZULUAGA ORTIZ, P. A. (2021). Los retos jurídicos de la inteligencia artificial en el derecho en Colombia. Jurídicas cuc, 17(1), pp. 475–498. https://doi.org/10.17981/juridcuc.17.1.2021.17

ZINGUER, M. A. (2014). Libertad de expresión y derecho a la información en las redes sociales en Internet. Revista de Derecho, Comunicaciones y Nuevas Tecnologías, (12), 5.