La cumbre de los neuroderechos no humanos: una reflexión bioética sobre la dicotomía existencial robot humanizado y humano robotizad[*]

tHE CUSP OF NON-HUMAN NEURORIGHTS: A BIOETHICAL REFLECTION ABOUT THE EXISTENTIAL DICHOTOMY BETWEEN HUMANOID ROBOT AND ROBOTIC HUMAN

David Ernesto Díaz-Navarro

Universidad la Gran Colombia, sede Bogotá D.C.

ddiazn1@ulagrancolombia.edu.co 0000-0003-2187-536X

Recibido: 08 de noviembre de 2024 | Aceptado: 09 de diciembre de 2024

IUS ET SCIENTIA • 2024 • ISSN 2444-8478

Vol. 10 • Nº 2 • pp. 171-182

https://dx.doi.org/10.12795/IESTSCIENTIA.2024.i02.08

RESUMEN

PALABRAS CLAVE

El objetivo de esta investigación es analizar, desde tres dimensiones, los derechos del ser humano, en contraste con los derechos de las máquinas: (1) la inteligencia natural frente a la inteligencia artificial, (2) el aspecto intelectivo (sense) y el aspecto emotivo (sensibility) de la razón y (3) el aspecto de la corporalidad cibernética de los androides, respecto de la corporalidad orgánica de los seres humanos (incluidos, claro está, los cíborgs). La delimitación implica cuestionar hasta qué punto es plausible predicar derechos (o, si se prefiere, ciberderechos) a la máquina, sobre el fundamento de que ésta posee una razón equivalente o superior a la del ser humano.

Neuroderechos

Ciberderechos

Cíborg

Autopoiesis

Inteligencia artificial

Fantasma en la máquina

Transhumanismo

ABSTRACT

KEYWORDS

The purpose of this paper is to analyze from three dimensions the rights for human beings, in contrast to the rights for machines: 1) natural intelligence versus artificial intelligence; 2) the intellective aspect (sense) of the knowledge and the emotional aspect (sensibility) of the knowledge; and 3) the cybernetic corporality of androids, with respect to the organic corporality of human beings (including, of course, cyborgs). The delimitation implies questioning to what extent it’s plausible to predicate rights or, in another sense, cyber rights to the machine, on the basis that it has a reason equivalent to or superior to that of the human being.

Neurorights

Cyber rights

Cyborg

Autopoiesis

Artificial intelligence

Ghost in the machine

Transhumanism

I. Introducción

A diferencia de un autómata (supercomputadora y androide) de Turing, un cíborg constituye una hibridación, pues se trata de un ser humano al cual se le han incorporado órganos artificiales o extensiones robóticas. El presupuesto central de cualquier autómata robótico de Turing de segundo orden es ejercitar una serie de atributos de los autómatas humanos de tercer orden (Maturana y Varela, 1994; Foerster, 1998, 2003). Es decir, la capacidad de ejercer actos de autoconsciencia e intencionalidad (teoría de la mente) desde un punto de vista autopoiético; lo cual supone ser capaz de autodeterminarse, ser consciente de sí mismo, de la otredad y de un contexto sociocultural con el cual y dentro del cual interactuar.

Los androides en tanto que robots humanoides están configurados de tal manera que su presupuesto de existencia no esté sometido a replicar o reflejar la personalidad de un ser humano; en cuyo caso, hablaríamos del mismo presupuesto de las supercomputadoras. La diferencia esencial es que el androide, si bien es un autómata de segundo orden, posee corporalidad artificial. En este sentido, tanto la supercomputadora (máquina computarizada) como el androide (robot humanoide) se configuran sobre el fundamento de la autonomía cibernética. De un lado, se hallaría Deep Blue (conocida por su funcionalidad para jugar ajedrez e incluso para vencer a un gran maestro del juego de tablero) y, de otro, a Bina48 (se trata de la primera androide diseñada para almacenar los recuerdos y personalidad de un ser humano).

Es imprescindible examinar si los atributos de autonomía, autorreferencia y autoconsciencia (relativos a la autopoiesis, que significa la capacidad para adaptarse y aprender dentro de un sistema social) son predicables de los autómatas de Turing. Este supuesto implica hacer una observancia sobre si la autonomía en cabeza de una I.A., le permitiría responsabilizarse social y jurídicamente y si, en última instancia, sería posible: (a) hacerle un juicio ético y normativo de reproche y, del mismo modo, si sería posible (b) que el robot objete conscientemente la moralidad o la legalidad de determinadas actuaciones sociales.

En orden con este reconocimiento, es preciso poner de manifiesto el asunto que atañe al presente, cual es la cuestión de si los estatus jurídicos de existencia e identidad (personalidad electrónica) son extensibles a los autómatas de Turing (Salardi, 2020). Es decir, a supercomputadoras y a androides humanoides con inteligencia artificial (A.I). El estado de la cuestión anterior permite invocar una tesis que evaluaremos a lo largo de esta investigación: que las prerrogativas – que son atinentes a derechos y obligaciones – pueden extenderse a los autómatas, en la misma medida, que a los seres humanos; siempre que con ello se predique que, tanto máquinas como humanos poseen autonomía y/o autodeterminación en un sentido autopoiético.

II. La autopoiesis: fundamento de los derechos fundamentales

Examinemos sucintamente el caso de Bina48, esto es, una robot humanoide o androide (un autómata de segundo), cuya creación y programación obedece a un experimento mental de la filosofía de la tecnología: la transferencia de la mente de un ser humano a una máquina. Para entender esta implicación del trasplante (volcado cibernético) de la mente es necesario identificar la denotación del concepto mente, a fin de elucidar si la simulación del cerebro, también implica la simulación de la mente (Chalmers, 2014).

Así que interroguemos: (1) ¿el cerebro y la mente son equivalentes conforme lo sugieren los enfoques fisicalistas de la filosofía de la mente? (2) ¿El cerebro y el organismo producen la mente, sin perjuicio de que sean una unidad de tipo monista, con base en los enfoques del materialismo emergentista y el naturalismo biológico? (3) ¿El cerebro y la mente son desde el principio sustancias distintas y no intercambiables, en conformidad con los postulados del dualismo naturalista?

En virtud de estas cuestiones, nos encontramos ante el problema difícil de la consciencia: determinar si el cerebro y la mente son una unidad o dimensiones distintas, pero inescindibles (Chalmers, 1999). El gedanken-experiment (experimento mental) de transferir la mente (mind uploading) supone simular la identidad que el ser humano arraiga en su cerebro, esto es, emular el sí mismo (la capacidad de autorreferenciarse) en un cuerpo no orgánico, sino cibernético. La importancia del experimento estriba, no en el procedimiento de trasplante, sino en el resultado de que dos seres – uno orgánico y uno cibernético – posean el mismo self (identidad): ¿acaso podría pensarme a mí mismo desde la dualidad? Pero su implicación estriba en resolver la cuestión de si la identidad solo subyace en el cerebro o, asimismo, en el cuerpo (integridad psicosomática).

Sobre su importancia, Andy Clark (2003) asevera que con el trasplante de la mente se configuraría, más que una despersonalización o desrealización del sí mismo (identidad), en su lugar, un desdoblamiento, desconcentración o descentralización de esa identidad. En esta misma línea, pensemos en el cerebro en una cubeta (BIV) que, conforme su nombre lo indica, es un experimento mental que consiste en conservar in vivo al cerebro (sin cuerpo) e inducirle experiencias conscientes (lo que sería equivalente a simular la realidad computacionalmente), más allá de la corporeidad.

Tanto el trasplante como el cerebro en la cubeta exigen preguntar: ¿soy mi cuerpo, puede acaso mi cerebro en una cubeta pensarme, pensar mi cuerpo separado o, en última instancia, soy mi cerebro? Muy similar al experimento del BIV, el caso de Bina48 invita a reconsiderar dos escenarios muchísimo más realistas: (a) los autómatas de segundo orden (la supercomputadora y el androide con I.A) serán cada vez más idénticos al animal social de tercer orden (el ser humano con inteligencia natural); y (b) el ser humano será cada vez más parecido a un robot cuando intente emularse (o acaso inmortalizarse) cibernéticamente. El androide y el cíborg, pues, se pensarían, luego serían (conscientes del sí mismos y de la otredad).

En estos eventos, tendríamos no solo a un androide con autopoiesis, sino también a un androide consciente. En virtud de los dos escenarios, es preciso analizar la dicotomía humano-máquina y máquina-humano, en la medida, que en cualquiera de los eventos: (1) estamos robotizando al ser humano o, (2) por el contrario, estamos humanizando al robot, respectivamente. Actualmente, puede hallarse un punto de inflexión plausible: los robots humanoides (androides como Bina48) y los seres humanos con órganos ciborgianos (cíborgs biológicos) están llamados a la coexistencia.

En esa consonancia, estamos predicando una intercambiabilidad existencial, ¿pero en qué sentido? Podrían invocarse reparos, en torno a si es necesario pensar en el androide en tanto que máquina o a la manera de un ser transhumano con determinadas prerrogativas como los ciberderechos. Mientras se predique autonomía, consciencia y responsabilidad en cabeza de los robots, la máquina tendría a su cargo una serie de deberes, cuyos antecedentes se hallan, entre otras, en las tres leyes de la robótica. No obstante, que ello está supeditado a si el enfoque de la I.A. es fuerte o débil. En última instancia, los ciberderechos de la máquina responderían a la fórmula del imperativo categórico, relativa a que la persona humana representa un fin en sí mismo y nunca una cosa, medio o instrumento.

Pero escudriñemos el alcance del ciberderecho en cabeza de la máquina: ¿esta realimentación mutua entre androide y cíborg contribuye a predicar que, tanto uno como el otro (gracias a su autopoiesis: autoaprendizaje, autoconsciencia y autorreferencia) poseen identidad (self) y, por consiguiente, un esquema cognitivo del yo (ego), de la otredad (alter) y la posibilidad de interactuar dentro de la estructura social (mundo de vida) de manera conjunta e igualitaria? Respecto del animal social de tercer orden (ser humano y cíborg) esta atribución ya se ha corroborado (Damasio, 2006, 2010). Mientras que, en cuanto al autómata de primer orden (supercomputadora y androide) esta discusión está en su apogeo.

De ello derivará si, eventualmente, los androides podrán ejercer derechos y contraer obligaciones, es decir, si serán reconocidos como seres que poseen personalidad (existencia) jurídica, en la medida que serán capaces de pensar en el yo (ego), en la otredad (alter) y, con mayor exactitud, en su alter ego orgánico en el marco de la sociabilidad, esto es, en el nosotros (Díaz-Navarro, 2023). Sin embargo, como se advertirá, la cuestión más importante no radica en si la inteligencia artificial puede simular la conciencia (noción del yo) y la autonomía o no trivialidad del pensamiento (aptitudes electivas), sino en si el autómata posee un cuerpo (y qué tipo de cuerpo) con el cual interactuar dentro del sistema social, que sería el presupuesto central de una verdadera inteligencia artificial (Wilson y Golonka, 2013).

III. Ciberderechos del fantasma en la máquina

Para entrar en materia de esta sección es vital considerar tres enfoques en torno a los procesos cognitivos aplicados al campo del cognitivismo y de la robótica. En primer lugar, la tesis de la cognición situada hace énfasis en la manera en que el agente interactúa con el entorno o, si se prefiere, con el mundo de la vida (compuesto por símbolos y patrones culturales reproducidos al interior de todas las dimensiones de la estructura social) (Habermas, 1987). En segundo lugar, la tesis de la cognición corporeizada parte de la unidad mente-cuerpo y, a su vez, de la unidad emoción-sentimiento-razón (Varela, Thompson y Rosch, 1997). Para este enfoque, los procesos cognitivos dependen no solo de procesos neuronales, sino de que las sensaciones motoras e inclusive hormonales juegan un papel indispensable en la cognición humana.

En tercer lugar, la tesis de la cognición extendida excede a la tesis corporeizada, en la medida que explica cómo los procesos cognitivos se configuran, no solo desde el punto de vista de la corporeización de la cognición, sino que ésta se extiende a objetos, herramientas o técnicas instrumentales, en función de las cuales se ejecutan los procesos cognitivos; con lo cual, de otra parte, se rechazarían algunas de las tesis de la cognición situada, en particular, el postulado relativo a que la conciencia se extiende hacia el entorno (Clark y Chalmers, 1998). Consideremos, para el efecto de esta discusión, que las tesis extendidas y las tesis corporeizadas se concilian en el postulado del enactivismo, en virtud del cual la experiencia y capacidad sensoriomotoras participan de manera integral en el mundo desde una dimensión biológica, psicológica y cultural (Varela, Thompson y Rosch, 1997).

Ahora bien, si respecto de la protección de la dignidad humana (integridad psicosomática) predicamos la existencia de los neuroderechos, ¿no podríamos atribuir prerrogativas legales a los androides, esto es, pensar que la máquina posee ciberderechos? Actualmente, el concepto de cíborg tiene un alcance más sofisticado que la hibridación orgánica y cibernética que se sugiriera, por primera vez, entre las décadas de 1960 a 1980. Dicho de otra manera, no resulta extravagante pensar que los seres humanos son cuasi-cíborgs tecnológicos, merced a su dependencia cada vez más irreversible, en cuanto a la tecnología. El ejemplo más evidente reside en el uso de celulares inteligentes (Smartphones).

Teniendo como base esta idea y a partir de las tesis de la cognición extendida es plausible inferir que los recuerdos, los pensamientos e inclusive los sentimientos pueden transferirse a máquinas inteligentes; este vínculo con la máquina se ha convertido en algo más que un método o técnica para almacenar información, tal que si se tratara de un palacio del recuerdo o métodos de nemotecnia. Esta interacción humanizada con la máquina se ha convertido en una relación imprescindible, a través de la cual hilvanamos socialmente y devanamos personalmente al sí mismo (identidad); si la máquina también contribuye a formar nuestra sociabilidad, esto es, el self dentro de una estructura social, en consecuencia conocernos a nosotros mismos (según la máxima socrática), a través de la máquina, cobra una relevancia incuestionable.

En ese caso, ¿no diríamos, asimismo, que el cíborg pese a ser humano, también se inviste de un estatus ontológico transhumano? Más allá de esta construcción social de la persona social, en virtud de la máquina, la cuestión es si ésta se realimentaría, en función de la interacción con los cíborgs. Es decir, si el androide construiría su propio self durante la interacción con el cíborg. Aquí se configura un punto de quiebre entre el self (identidad o noción de sí mismo), el ego (el yo), el alter (el otro) y la personalidad (moral y jurídica), en lo que atañe a la máquina: ¿la máquina puede conocerse a sí misma?

Cuando se piensa en la inteligencia artificial a la manera de un conducto para la cognición o como herramienta para la optimización de determinadas actividades sociales, la personalidad de los androides se torna dispersa, porque a diferencia de la discusión actual sobre los derechos de los ecosistemas e inclusive de los animales (en razón del cambio climático y otras actividades humanas, en el marco de la sociedad de riesgo y/o industrializada), el derecho ha empleado la figura constitucional denominada sujeto de derechos, cuya connotación no es equivalente a los derechos que posee stricto sensu un ser humano entendido como persona jurídica (Donaldson y Kymlicka, 2011; Molina Roa, 2014, 2018). El sujeto de derechos de orden ecosistémico o animal (no humano) ostenta una prerrogativa de especial protección, en vista de los daños ecosistémicos (antropogénicos) o desastres naturales (fisicalistas) que se producen en determinados entornos.

Interroguemos lo siguiente: ¿podemos pensar a la I.A a la manera de un sujeto de derechos? Dentro de los paradigmas de la ciencia moderna, el ser humano en cuanto animal (del reino animalia, de la superfamilia hominidae, del orden de los primates, del género homo y de la especie homo sapiens sapiens) se ha elevado como la especie social por excelencia, merced a su razón; más recientemente, sin embargo, el papel de las emociones e inclusive de los sentimientos han mostrado que el dilema entre sense (dimensión intelectiva) and sensibility (dimensión emotiva o, si se prefiere, moral), en realidad es, o bien difusa o, de hecho, inexistente (Damasio, 1996). Esta sucinta consideración invita a evaluar las visiones fuerte y suave de la tecno ciencia moderna.

El enfoque fuerte de la I.A estaría llamado a demostrar que una super-inteligencia artificial representaría el epítome de la razón humana, esto es, la automatización del alma, del espíritu, de la esencia o, lo que es igual, de la razón de los miembros de la especie humana. Pero, asimismo, daría lugar a replantear que la razón automatizada de la máquina es superior a la razón natural del humano. No es de extrañar que el famosísimo enfrentamiento de ajedrez entre el entonces campeón y maestro de ajedrez Garry Kaspárov (cuyo IQ es de 190) contra la supercomputadora Deep Blue resultara en una victoria para la máquina. El resultado, empero, no es lo más importante de este encuentro (y otros que ha disputado el ser humano contra la I.A.), sino el proceso de realimentación de la supercomputadora.

Dicho en otras palabras, la máquina aprende. Pero aprender no significa imitar trivialmente, ya que, implica un proceso racional o de tendencias electivas que consisten en desplegar herramientas recursivas de juicio y determinación: la máquina debe decidir. El proceso de recursividad que corresponde al concepto formal de la descripción previa consiste en reflexionar y elegir; este aparato introspectivo, teoría de la mente o, conforme lo denomina Daniel Dennet (1998), la intencionalidad implica, conforme se ha seguido hasta ahora por la cibernética de segundo orden, la autorreferencia y optimización de la máquina en un sentido autopoiético (Foerster, 1998). Es decir, se trata de una máquina no trivial en el sentido que sus patrones obedecen a estímulos del entorno que optimizarían el aprendizaje y la recursividad (en suma, la adaptación autopoiética), así como la discriminación o transformación de la información del medio colindante por parte del androide (Milkowski, 2013).

Es indudable que estamos contemplando desde dos razones posibles a la inteligencia, ya desde la razón natural, ya desde la razón automatizada; en fundamento de esta correspondencia y jerarquía racional se predicaría que la máquina, así como el ser humano, se elevan como dos existencias, cuya funcionalidad las ubica en lo más alto de las estructuras sociales. Es decir, si una I.A. es más «inteligente» que un animal no humano e inclusive que un animal humano y es capaz de ejercitar su consciencia y desplegar aptitudes de juicio, ¿no estaríamos necesariamente frente a un sujeto de derechos o aún ante un ente con personalidad jurídica electrónica?

De manera que elucidemos este interrogante es imperioso cuestionarse, en concordancia, si acaso los androides, a pesar de cumplir con los presupuestos de la cognición situada corporeizada poseen una existencia que se adecúe a la dicotomía sense and sensibility, esto es, si se invisten de una condición neuroafectiva en su corporeidad. Tales presupuestos no residirían únicamente en si el androide participa de manera directa con el entorno, se ve estimulado por el mismo y entonces ejecuta respuestas adaptativas; sino en si posee procesos neuroquímicos que le permitan participar de la estructura social como un agente moral y no solo racional: desde su integridad psicosomática.

El mito de la razón (hoy día superado) o, si se prefiere, los excesos de la racionalidad que por ejemplo defiende Steven Pinker (2018), en verdad, hallan su complemento y contraste en la moralidad. Conforme a los análisis de la neurofilosofía, las sustancias neuroquímicas (dimensión emotiva) y los circuitos neuronales (dimensión intelectiva) de los sistemas biológicos constituyen el fundamento de la sociabilidad y de la moralidad de las especies (Churchland, 2012; Richards, 2009). En efecto, la integridad psicosomática exige discutir sobre agentes, tanto racionales como morales en la misma conformidad. La cuestión formulada anteriormente, empero, no resulta ser tan evidente como se pretendiera.

La dimensión de la corporeización del androide cobra relevancia en el marco de la construcción de juicios de naturaleza legal y de naturaleza moral, en el sentido que la presunción del primer tipo de juicio – más allá de la lógica formal – implica la legitimidad en pos del interés general (o bien, una carga ética) de la conducta personal que está determinada por la empatía (Torres Vásquez y Díaz-Navarro, 2024). Mientras que, en el segundo tipo de juicio entran en convergencia cuestiones intelectivas y emotivas, conforme a las cuales el ego (yo) y el alter (otro) se configuran, gracias a los procesos de sociabilidad que son mediados por la empatía (más que por el raciocinio): «En una conducta que llamamos moral entran en juego factores cognitivos y emocionales, y existen procesos neurofisiológicos subyacentes» (Ardila, 2014, p 207).

En conformidad, la consideración suave de la neurociencia y de la inteligencia artificial estriba en que una computadora (tesis computacional) no es equivalente a un robot e inclusive a un androide (tesis corporeizada) y éstos, a su vez, no son equivalentes a los seres humanos. Nótese que la inteligencia artificial corporeizada o encarnada consiste en dilucidar el funcionamiento de los sistemas biológicos y construir robots en fundamento de este entendimiento. Es decir, en diseñar una relación – modelada a partir del ser humano – entre androide corporeizado y el medio en el que despliega su actividad, de tal suerte, que la condición sensoriomotora potencie su capacidad de aprendizaje.

Este proceso halla su razón de ser en el hecho de que la corteza cerebral juega un papel indispensable dentro de la discusión en torno a la unidad cerebro-mente, pues aduce que, por un lado, si fuese posible escanear los patrones del neocórtex o, por otro, si pudiésemos reproducir el algoritmo biológico de esta área del cerebro, en consecuencia, podríamos reproducir los modelos cerebrales en máquinas que contribuirían a optimizar nuestra razón natural (potenciar la inteligencia humana) o que, a su vez, aumentarían y superarían a esta última, en función de una razón artificial (creación de computadoras superinteligentes) (Kurzweil, 2013; Hawkins y Blakeslee, 2005).

Bajo estas consideraciones, las mejoras que la tecnociencia se ha planteado con bastante convencimiento invitan a poner en el centro de la discusión a la unidad intelecto-emoción, una unidad de la cual carece el androide, más allá de su corporeización humanoide y de su superinteligencia programada. Recuérdese, para este efecto, que el progreso tecnológico debe estar al servicio de la humanidad sin poner en riesgo la autonomía (e integridad psicosomática) de la especie (transhumanismo).

A pesar de esto, conforme se advirtió en la sección inicial de este capítulo, el ser humano está automatizando con mayor frecuencia sus actividades, por lo que estos enfoques, también se verían obligados a ceder frente una reconsideración del transhumanismo, en donde un primer ciberderecho de la máquina radicaría en su existencia jurídica. En fundamento de esta existencia se desplegaría un segundo ciberderecho, el cual sería la personalidad electrónica del androide.

En consecuencia, la personalidad jurídica daría lugar a configurar una serie de prerrogativas que van más allá de la protección de la máquina (sujeto de derechos), pues trascienden hasta la coexistencia efectiva entre el robot humanizado y el humano robotizado. Es decir, se trataría de una situación en la que el androide tendría derechos de existencia junto al ser humano, precisamente, porque los dos poseen superinteligencias (potencialmente).

Sin embargo, retornando a la unidad intelecto-emoción, aunque se presuma que la razón – ya sea natural o artificial – representa la cumbre de la humanidad y del transhumanismo, es indudable la incidencia que un cuerpo biológico tiene sobre la integridad (o dignidad) del ser humano. Estas cuestiones, en especial, el hecho de que existan cíborgs (humanos con cuerpos orgánicos y extensiones cibernéticas), en verdad invita a vislumbrar la implicación de que, en sentido inverso, los robots puedan tener partes humanas e inclusive su identidad (conforme al caso Bina48).

En ese orden, tanto el enactivismo de Francisco Varela como el enfoque neuroafectivo de Antonio Damasio constituyen una vía para pensar, precisamente, que la razón no representa la cúspide del ser humano y que, de hecho, la corporeización que establece la unidad intelecto y emotividad está llamada a hallar una distinción primaria y secundaria, respectivamente: (1) entre ser humano y autómata de Turing y, en el mismo sentido, (2) entre cíborg (humano robotizado) y androide (robot humanoide).

Con todo, un ciberderecho a la existencia jurídica, esto es, la corporeización biológica (más que una netamente artificial) de la máquina y aún su hibridación resultarían problemáticos en lo que concierne a la deshumanización de la población; ello despertaría un intenso debate en torno a una nueva forma de instrumentalización y cosificación de la dignidad del humano, frente a los derechos de la máquina[1]. Con lo cual, surgiría la necesidad de invocar la diferencia entre persona jurídica humana, animales y ecosistemas como sujeto de derechos y, por supuesto, entre los posibles derechos de la máquina o, en su lugar, la obligación jurídica del ser humano, en cuanto al uso de los robots y de los dispositivos inteligentes.

Debido a que esa consideración excede el espacio del presente, será suficiente advertir que el humano no representa una amenaza para el robot como sí para el animal y los ecosistemas y como resulta evidente, a propósito de las sociedades y teorías del riesgo, para sí mismo. A pesar de la amenaza, tanto el derecho internacional como el constitucionalismo de las Naciones han evidenciado reticencia, en cuanto al reconocimiento de la personalidad jurídica (y de los derechos fundamentales consiguientes) de la Natura y de otras especies distintas al ser humano (con algunas excepciones en el constitucionalismo boliviano y colombiano). Así que, es imprescindible cuestionar: ¿cómo se le concedería el estatus de sujeto de derechos a un autómata? ¿Es necesario?

La respuesta estribaría en los límites que establece el derecho, en lo que concierne al ejercicio de los derechos por parte de los seres humanos y ese ha sido, precisamente, el énfasis jurídico con que se ha abordado esta situación. El problema se pone de manifiesto en lo que respecta al peligro que representa el mismo ser humano, cuyo control sobre la inteligencia artificial lo pone en una situación de verticalidad, en relación con sus congéneres, los que, a su vez se hallarían en una situación de vulnerabilidad respecto de aquél[2]. Dicho de otra manera, ante la deshumanización, solamente los emergentes neuroderechos (como la identidad y la privacidad mental, e inclusive el libre albedrío) blindarían la dignidad del ser humano, en lo que concierne a la intervención sobre su integridad psicosomática (Ienca y Andorno, 2017; Ienca, 2021).

Por consiguiente, sin perjuicio de las mejoras robóticas de la tecnociencia, esta integridad estaría llamada a evitar: (1) la robotización de la genealogía evolutiva, a través de la cual nos vinculamos filogenética y ontogénicamente con nuestros congéneres, y epigenéticamente con el medio ambiente y la sociedad; (2) el deslindamiento, la despersonalización o la desrealización psicosomática de la noción de autorreferencia (del sí mismo); o (3) la humanización orgánica de los autómatas, lo que podría conllevar a hibridar su propia existencia cibernética, mediante trasplantes orgánicos.

De otro modo, estaríamos frente a la importantísima crítica que Gilbert Ryle (2009) esgrimió en contra del cartesianismo (y que, de hecho, el androide humanizado y el humano robotizado estarían materializando), relativa a un verdadero fantasma en la máquina. Con ello y en su defecto se estaría dejando abierta la consideración de un androide investido de humanidad en sentido orgánico y no artificial (o cibernético: antropomórfico), o acaso ficcional cual sería el trasplante de la mente, lo que resultaría en una situación si no siniestra, entonces abominable (conforme lo sugiere la hipótesis del valle inquietante). En especial, porque más allá de la capacidad sensoriomotora del androide, su aprendizaje jurídico y moral tendría restricciones, en cuanto a la unidad relativa al sentido (dimensión intelectiva) y a la sensibilidad (dimensión moral).

IV. Vicisitudes de la inteligencia artificial: ¿instrumento o propósito de la humanidad?

Una síntesis crítica acerca de la sección anterior esclarece que un escáner del alma humana significa su transgresión y más aún la hibridación biológica de una máquina, aunque resulta prudente cuestionar en qué medida es correcto este razonamiento. Partamos del hecho de que existe la idea, relativa a que la tecnología ha contribuido a que el ser humano reinvente el concepto de lo natural (Alegría, 2017). Leer la mente, mediante neurotecnologías tiene dos implicaciones importantes, a saber:

  1. Que el ser humano ha resuelto el misterio sobre cómo escanear el alma y/o la razón humana, lo cual va más allá del corgito ergo sum cartesiano y aterriza en el monismo espinosista[3]; toda vez, que la humanidad habría aprendido no solo a extraer el pensamiento, a partir de la mente, sino que, a su vez habría logrado digitalizarlo o materializarlo (convertir en datos los registros neuronales del ser).
  2. Que el concepto de dignidad humana se reinventaría, dando lugar a la dignidad de la máquina, en perjuicio de los atributos que se derivan de la primera, tales como la autonomía psicosomática (sustancia espinosista mente-cuerpo y que confiere su estatuto ontológico al ser humano), el libre albedrío (aptitud electiva para decidir y responsabilizarse, en la misma medida, por los efectos a que conlleven las elecciones desplegadas) y la personalidad humana (que daría lugar al reconocimiento sustantivo de la persona en todos los niveles, dimensiones y esferas de la vida social).

Dicho ello, el papel del derecho en este ámbito no es otro que sopesar los retos tecnocientíficos, que son atinentes a desvelar los misterios de la mente, respecto de la necesidad de preservar el bienestar psicológico y somático de la persona humana. Entran en juego aquí cuestiones que exigen preservar la privacidad, la intimidad y la identidad psicosomáticas de la persona, entendidas como neuroderechos fundamentales. A saber, cuando un especialista de la medicina interviene sobre el cuerpo o la mente de un paciente se ha configurado la confidencialidad, la cual tiene implicaciones jurídicas y bioéticas. Vulnerar esta confidencialidad constituye una forma de poner en riesgo el bienestar existencial y mental de la persona humana.

Ciertamente, conforme lo preveía la bioética, a través de los principios de autonomía, justicia, no maleficencia y beneficencia, los neuroderechos emergen, con el único propósito de salvaguardar la integridad psicosomática (dignidad) de orden humano. En consonancia, la ciencia jurídica, las ciencias sociales y la bioética deben regular, con exactitud, los límites que tendría la I.A al momento de intervenir sobre el cuerpo y la mente de la persona humana, con miras a blindar (preservar) su dignidad y el modo en que la misma especie desarrolla y utiliza la I.A. De todo ello, cabe evaluar si las máquinas con inteligencia artificial son medios instrumentales para preservar la vida y dignidad humanas o si constituyen fines en sí mismos (según el imperativo categórico Kantiano), tal que si se trataran de seres, cuyo bienestar es tan importante como el de la humanidad.

Así pues, es menester invocar dos interrogantes antitéticos sobre la personalidad o la a-personalidad del robot, respectivamente: (1) ¿puede un autómata de Turing responder por responsabilidad jurídica contractual y extracontractual?, o (2) ¿deben responsabilizarse jurídicamente los creadores del autómata por posibles daños ocasionados, según la teoría del riesgo? Estos interrogantes están en boga con las preocupaciones que la ciencia jurídica ha esgrimido en materia de autonomía jurídica y responsabilidad jurídica (Juan, 2020). Tales advertencias se resumen a que, cuanta más personalidad posea la I.A, tanto más cosificada e instrumentalizada será la persona humana[4]; y, a su vez que, cuanta menos personalidad posea la I.A, tanto menos se verán afectadas la dignidad y la autonomía, pero menos precavida será la humanidad, respecto de su uso[5].

V. Conclusiones

En conclusión, ya se trate de una persona humana o de una persona artificial, la ciencia jurídica debe delimitar (1) cómo se interviene a un ser humano, a través de la I.A, por ejemplo, en el marco de la ciberterapia, la neurotecnología o el derecho biomédico; y, del mismo modo, (2) cómo emplea el ser humano a la I.A, si como instrumento o como fin, en el marco del ciberderecho y el bioderecho. Entre todo, los neuroderechos cobran relevancia, a fin de impedir que el reconocimiento jurídico de la máquina represente un desequilibrio para la humanidad del ser humano. Siguiendo la línea de los derechos de la máquina, el robot y el humano tendrían derechos y obligaciones distintos (con base en el acto y la potencia de su naturaleza ontológica).

En última instancia, cada uno de los dos aspectos elucidados permitiría concebir, tanto en el ser humano como en el ser transhumano a dos personas diferenciables (y relacionables), cuya dimensión sociojurídica y bioética se reviste de una naturaleza y albores divergentes, pero de una funcionalidad y sociabilidad convergentes. Divergencias y convergencias jurídicas (entre robots humanizados y humanos robotizados) que el derecho debe encargarse de conciliar, con motivo de delimitar los neuroderechos de la persona humana y los ciberderechos de la persona transhumana; lo cual impondría límites al modo en que estas especies de persona interactúan una con la otra. Es decir, nos permitiría pensar en la dignidad (acto y potencia material y acaso espiritual), tanto del hombre como de la máquina: lo cual recordaría que un fantasma yace en la máquina.

Bibliografía

Alegría, P. J. (2017). Transhumanismo. Un debate filosófico. Revista de filosofía, (75), 47-61. http://dx.doi.org/10.15359/praxis.75.3

Ardila, R. (2014). Filogénesis y ontogénesis de la moral. Revista de la Academia Colombiana de Ciencias Exactas, Físicas y Naturales, 38: 205-215. https://doi.org/10.18257/raccefyn.164

Chalmers, D. (1999). La mente consciente. En busca de una teoría fundamental. Gedisa.

Chalmers, D. (2014). Uploading: A Philosophical Analysis. En R. Blackford y D. Broderick (Eds.), Intelligence Unbound. The Future of Uploaded and Machine Minds (pp. 102-130). Malden: Wiley Blackwell.

Churchland, P. (2012). El cerebro moral. Lo que la neurociencia nos cuenta sobre la moralidad. Paidós.

Clark, A. y Chalmers, D. (1998). The extended mind. Analysis, 58(1):7-19.

Clark, A. (2003). Natural Born Cyborg, Oxford University Press.

Damasio, A. (1996). El error de Descartes. La razón de las emociones. Editorial Andrés Bello.

Damasio, A. (2006). En busca de Spinoza. Neurobiología de la emoción y los sentimientos. Crítica.

Damasio, A. (2010). Y el cerebro creó al hombre. ¿Cómo pudo el cerebro generar emociones, sentimientos, ideas y el yo? Ediciones Destino.

Dennet, D. (1998). La actitud intencional. Gedisa.

Donaldson, S. y Kymlicka, W. (2011). Zoopolis, una revolución animalista. Errata Naturae.

Díaz-Navarro, D. E. (2023). Axiología sistémica: cibernética, semiótica y neuroética del valor. Revista Colombiana de Filosofía de la Ciencia, 23(46), 123–164. https://doi.org/10.18270/rcfc.v23i46.3982

Foerster, H. (1998). Por una nueva epistemología. Metapolítica, 2(8), 629-641.

Foerster, H. (2003). Understanding Understanding. Essays on cybernetics and cognition. New York: Springer.

Hawkins, J. y Blakeslee, S. (2005). Sobre la inteligencia. Espasa-Calpe.

Ienca, M. y Andorno, R. (2017). A new category of human rights: neurorights. Research in Progress. https://blogs.biomedcentral.com/bmcblog/2017/04/26/new-category-human-rights-neurorights/

Ienca, M. (2021). On neurorights. Frontiers in Human Neuroscience. 15: 701258. https://doi.org/10.3389/fnhum.2021.701258

Juan, G. (2020). Inteligencia Artificial y Filosofía del Bioderecho: una tesis crítica y una propuesta ética. Ius et Scientia, 6(2), 96-110. https://hdl.handle.net/11441/111538

Kurzweil, R. (2013). Cómo crear una mente. Lola Books.

Maturana, H. y Varela, F. (1994). De máquinas y seres vivos: autopoiesis, la organización de lo vivo. Editorial Universitaria.

Milkowski, M. (2013). Explaining the Computational Mind. MIT Press.

Molina Roa, J. A. (2014). Derechos de la naturaleza: historia y tendencias actuales. Universidad Externado.

Molina Roa, J. A. (2018). Los derechos de los animales: de la cosificación a la zoopolítica. Universidad Externado.

Pinker, S. (2018). En defensa de la ilustración. Por la razón, la ciencia, el humanismo y el progreso. Paidós.

Richards, R. (2009). «Darwin on mind, morals and emotions». En J. Hodge y G. Radick (Eds.), The Cambridge Companion to Darwin. (pp. 96-119). Cambridge University Press.

Ryle, G. (2009). The concept of mind. London: Routledge. https://doi.org/10.4324/9780203875858

Salardi, S. (2020). Robótica e inteligencia artificial: retos para el derecho. Derechos y Libertades, 42. https://doi.org/10.14679/1158

Torres Vásquez, H. y Díaz-Navarro, D. E. (2024). Deontología y axiología de la cognición moral: los fundamentos éticos de la norma jurídica. Derecho Global. Estudios sobre Derecho y Justicia, 9(26): 319-347. https://doi.org/10.32870/dgedj.v9i26.723

Varela, F., Thompson, E. y Rosch, E. (1997). De cuerpo presente. Las ciencias cognitivas y la experiencia humana. Gedisa.

Wilson, A. y Golonka, S. (2013). Embodied cognition is not what you think it is. Frontiers.


[*] Este artículo ha sido financiado por la Universidad la Gran Colombia, sede Bogotá D.C., y constituye un producto del Grupo de Investigación Teoría del Derecho, de la Justicia y de la Política de la Universidad La Gran Colombia, reconocido y categorizado en A por el Ministerio de Ciencia, Tecnología e Innovación (Minciencias) de Colombia. https://scienti.minciencias.gov.co/gruplac/jsp/visualiza/visualizagr.jsp?nro=00000000004768

[1] A propósito del uso de células madre que se obtienen de las placentas de los embriones, la fecundación in vitro, la congelación de óvulos y los vientres de alquiler, entre otros.

[2] Antes que pensar, naturalmente, en la ficción de la revolución de las máquinas.

[3] Unidad y correspondencia monista entre cerebro-cuerpo.

[4] Enfoque fuerte de la I.A.

[5] Enfoque débil de la I.A.