Miguel de Asis Pulido
Contratado FPI posdoctoral del Departamento de Filosofía Jurídica de la UNED
mdeasis@der.uned.es
0000-0002-6160-7848
IUS ET SCIENTIA • 2025 • ISSN 2444-8478
Número extraordinario 2025. Monográfico: «Tecnologías, derechos y atención a los cuidados de larga duración»
pp. 52-84 · https://dx.doi.org/https://dx.doi.org/10.12795/IESTSCIENTIA.2025.mon.03
|
RESUMEN |
PALABRAS CLAVE |
|
|
Este artículo analiza la reconfiguración de las relaciones sociales y de cuidado en la era digital y algorítmica. La hipótesis de la que se parte es que las nuevas tecnologías construyen una capa digital que, extendiéndose sobre la capa física de la red de relaciones sociales, reduce los intercambios comunicativos a su componente binario, mediados cada vez más por la aplicación de un conocimiento aprendido o codificado en un sistema (inteligencia artificial). Esto plantea profundas consecuencias sobre el cuidado, estructura fundamental del existir humano, entendido en su sentido intersubjetivo como ocupación solidaria del otro. El estudio expone cuatro nuevas relaciones sociales: la Ventana Digital o tipo 1, el Correo Virtual o tipo 2, el Libro Inteligente o tipo 3, y el Cuerpo Artificial o tipo 4. Se concluye que estas tipologías de relaciones quedan poco a poco integradas en la vida cotidiana, obligando a las ciencias sociales, especialmente al Derecho, a elaborar un marco teórico y normativo sólido para gestionar los riesgos y las oportunidades relacionales, jurídicas y vinculadas al cuidado que de ellas se derivan. |
Relación social Cuidados Inteligencia artificial Ciberespacio Metaverso Autómatas Comunicación digital Agente virtual Modelos de lenguaje Agentes físicos Robótica Vulnerabilidad Regulación tecnológica Regulación sobre IA |
|
|
ABSTRACT |
KEYWORDS |
|
|
This article analyses the reconfiguration of social and care relationships in the digital and algorithmic age. The starting hypothesis is that new technologies construct a digital layer which, extending over the physical layer of the social network, reduces communicative exchanges to their binary component, increasingly mediated by the application of knowledge learned or encoded in a system (artificial intelligence). This phenomenon has profound consequences for care, the fundamental structure of human existence, understood in its intersubjective sense as caring (fürsorgen) for others. The study presents four new social relationships: the Digital Window or type 1, the Virtual Mail or type 2, the Intelligent Book or type 3, and the Artificial Body or type 4. It concludes that these types of relationships are gradually becoming integrated into everyday life, forcing the social sciences, especially law, to develop a solid theoretical and regulatory framework to manage the relational, legal and care-related risks and opportunities that arise from them. |
Social relationship Care Artificial intelligence Cyberspace Metaverse Automaton Digital communication Virtual agent Language models Physical agents Robotics Vulnerability Technology regulation AI regulation |
Desde sus orígenes, la técnica es el modo en el que el ser humano habita. Toda tecnología es por ello sociedad, y ninguna sociedad puede ser entendida al margen de las herramientas tecnológicas que le dan forma. Resuena el eco de esta idea en el prólogo de The Rise of the Network Society, donde Manuel Castells sostiene que, si bien la tecnología no determina la evolución histórica y el cambio social, sí encierra un potencial transformador de la misma y, en cierta medida, orienta la dirección hacia la que pone sus esfuerzos (Castells, 2010: 5, 7). La tecnología y su evolución configuran y reconfiguran permanentemente la red de relaciones en que consisten las sociedades. Pensemos en cómo influyó en las redes sociales del pasado el inicio de la manipulación del fuego, el desarrollo de instrumentos para cazar y trabajar la tierra, la invención de la rueda —o del remo y la vela del barco—, el progreso de la escritura y la aparición del papel, el reloj de bolsillo y su extensión de la mesura discreta del tiempo, la imprenta y su producción masificada, el ferrocarril… Todos estos instrumentos, que podemos agrupar en el concepto amplio de tecnología, revolucionaron la forma de relacionarse del ser humano, y, con ello, la estructura de las propias sociedades de las que emergieron.
Toda sociedad constituye una trama de relaciones y significados en la que los nodos —individuos—, interconectados entre sí a través de diversos lazos referenciales, provocan con su comportamiento relacional unos efectos que, al distribuirse por el entramado de lo social, se reintegran en el todo de la red. A la vez que reproducen ciertas dinámicas (que, ensambladas, la red describe como estructuras), las relaciones entre los nodos —o entre nodos y clústeres (grupos)— también producen nuevas dinámicas. El individuo, así, existe siempre en un contexto de lazos referenciales y estructurales, en un entramado que, al mismo tiempo, es sensible al producto de estos lazos: la red social es el conjunto de relaciones entre los nodos (Herrera Gómez, 2024: 67).
La relación, así, es el elemento básico del mundo social —y, en realidad, de cualquier mundo—: es, por así decirlo, el a priori de todo fenómeno social. Pero, como a priori, no es un átomo rígido y compacto, sino que es siempre una realidad que pertenece a la vida, y a partir de la cual, entre otras cosas, descubrimos la alteridad del otro y la subjetividad que soy. Haciendo abstracción de su fundamento, toda relación ha de entenderse como un proceso de intercambio existencial entre dos polos que, en la medida en que es comunicativo —significado—, está inscrito en una red de relaciones que funcionan como fondo pre-comprensivo, y que, por supuesto, están entreveradas sobre estructuras de poder. La técnica es parte de aquel trasfondo mediador, influyendo no solo en los significados compartidos (como útil con sentido en el mundo), sino también en la misma forma en la que la relación se produce (como dispositivo —disponere— mediador).
Hace tiempo que una ya no tan nueva tecnología redefine los marcos interactivos del modo de vivir en sociedad de la época contemporánea. La principal determinación de lo digital y sus derivaciones (inteligencia artificial, robótica, neurotecnología, etc.) es la de levantar, más allá de los espacios en los que se desenvuelven los entramados de la red física de interacciones, una especie de capa digital de interconexiones. En esta capa, desenvuelta en un espacio anexo al físico (ciberespacio), los nodos protagonizan intercambios de información describibles en términos simbólicos discretos (digitales). Cabe aclarar que dicho ciberespacio no es etéreo, pues precisa de recursos físicos como la electricidad, el hardware, las antenas y los satélites. Sin embargo, construida su infraestructura, el mundo humano se esparce hacia nuevos espacios en forma de almacenamiento, procesamiento y comunicación de información binaria.
La tecnología digital, así, incide en los flujos y estructuras de la red social, mediando las relaciones, derramándolas hacia una nueva capa y dando lugar a dinámicas sociales hasta breve tiempo inauditas. Tanto es así que se ha llegado a tildar nuestra época de escenario de una nueva Era que nace. Se ha hablado entonces, precisamente, de una nueva Era Digital (Schmidt y Cohen, 2013) o de una nueva Era Algorítmica (Abiteboul y Dowek, 2020); pero también, y con razón, de la Era de la información y del conocimiento (Castells, 2010), la Era del Acceso (Rifkin, 2001) o, desde un punto de vista más general, la Era Tecnológica (Brey, Briggle y Spence, 2012).
Todas estas expresiones se refieren a un fenómeno común: el hecho de que esta nueva capa digital crea nuevos canales y formas de relacionarnos y comunicarnos, reconfigurando la vida y, a la vez, siendo reconfigurada por esta (Castells, 2010: 3). Como veremos, ciertas extensiones de lo digital, como es a todas luces la inteligencia artificial (IA), que opera aplicando a la información digital —o digitalizada— una serie de operaciones en función de un conocimiento (información estructurada), van más allá de una “mera” afectación al canal comunicativo. De hecho, se hace patente en los últimos años la aspiración a crear un nuevo agente comunicativo artificial: son paradigmáticos en este punto los actos inaugurales, auténticos mítines del presente, que sirven a los CEOs de las grandes compañías tecnológicas para anunciar el lanzamiento de un nuevo producto al mercado. Si bien, para ser realistas, debemos reducir a la mitad o al tercio el entusiasmo que caldea las grandes salas donde se festejan, estos eventos permiten intuir —o, directamente, evidenciar— el cronograma de la innovación que viene.
Fue explícito en este sentido la charla de Jensen Huang, CEO de Nvidia, en la conferencia anual GTC AI 2025. En ella, además de presentar algunas de las nuevas soluciones de la compañía, el empresario de origen taiwanés habló de una tendencia que, desde la IA perceptiva, arribaría a la agencia física (IA física), pasando entre medias por la IA generativa y los agentes virtuales[1]. Y esa parece ser la hoja de ruta de la mayoría de las empresas tecnológicas, que, con el desarrollo de sus propios modelos de lenguaje y agentes, tratan de posicionarse en esta particular etapa de su carrera innovativa.
No hay nada nuevo en estas líneas: este es el mundo en el que vivimos, y se hace evidente ante nuestros ojos. Sin necesidad de salir de su ordenador o móvil, el lector habrá podido acceder a este artículo, y explorará quizá en su buscador alguna referencia aquí mentada. Tal vez también haya pedido a Chat GPT que le presente un resumen del texto, o incluso que en base al contenido de este trabajo acceda su agente virtual a otros relacionados, los descargue y se los envíe al correo. El autor tampoco ha dejado de utilizar ni un segundo este ordenador en el que escribe, si acaso solo para anotar ciertas ocurrencias en su móvil, en el proceso de creación de estas páginas. A veces se nos olvida que hace sesenta años este proceso de escritura-lectura se ejercía inevitablemente en una sucesión de espacios físicos, que involucraban distintas salas de las bibliotecas, los lugares preferidos de redacción o estudio, así como el camino que se abría entre ellos. Y si hubiésemos querido evitar el esfuerzo de resumir o de ir a buscar textos relacionados, la única solución posible sería buscarnos a un tercero que lo hiciera por nosotros.
Me he referido aquí a una relación débil como la que comparten un lector y un autor de una obra leída. Pero a estas alturas a nadie se le escapará que la capa digital, los modelos conversacionales y los agentes virtuales son cada vez más parte de nuestro día a día, del día a día de nuestras relaciones en sociedad.
Aclarado en la medida de lo posible el contexto, pueden despejarse ahora ciertas cuestiones controvertidas que traen consigo el fenómeno digital y sus derivados en el ámbito relacional. En último término, los polos de una relación se encuentran en un juego de envío y recepción de señales en diversos grados de constancia, que, en la medida que existe en aquellos algo interno —existencia—, se pueden considerar como expresiones de sentido. Al intercambio comprensivo de estas expresiones se le llama comunicación, y su medio privilegiado es el lenguaje. Ahora bien, lo digital y sus variaciones convergentes reducen lo operado a código binario. Y entonces surge la pregunta: ¿se puede describir la señal que comunicamos con lo discreto de caracteres lingüísticos y píxeles —datos— reflejados en archivos digitales (imagen, audio o vídeo)? Y todavía más: ¿se puede, a través de la combinación discreta de estos datos, generar expresiones artificiales que puedan reproducir —o enmarcarse en— un proceso comunicativo o relacional real? ¿Estaríamos con ello ante una falta de comunicación? ¿O quizá se abre una tercera alternativa: la de una pseudocomunicación en la que solo uno de los polos gozaría de subjetividad y existencia ontológica?
Por supuesto, responder a estas cuestiones excede por mucho el objeto de este trabajo –y por muchísimo la competencia de su autor—. Por ello, si bien se mantendrán constantemente suspendidas en el aire digital que se abre entre estas líneas, quien sobre ellas navegue llegará al final del artículo sin haberlas arrebatado nada parecido a una respuesta definitiva. Queda a otros esta empresa.
Permanecen, así, las preguntas sin respuesta, y, entre tanto, aparecen otras nuevas. Pues, acercándonos un poco más a nuestro particular objeto, que es la relación social de cuidado, cabe plantearse si una máquina artificial, con independencia de si es capaz de reproducir —o si quiera captar— el mensaje humano en su complejidad comunicativa, puede o no satisfacer las necesidades no cubiertas de la persona cuidada. Dependerá, claro, de lo que se entienda por cuidar, o, mejor, del elemento o momento de la relación de cuidado que se considere privilegiado. En todo caso, cerrarse incondicionalmente a dicha posibilidad, arguyendo la inhumanidad de la máquina, olvidaría su carácter de medio (no neutral), de mera forma hueca (Ortega y Gasset, 1964: 342) que depende siempre de un uso (Marcuse, 1985: 263). Su materia, su uso dependerá, en cierta medida, de lo que como sociedad decidamos. De ello dio cuenta Lessig a principio del milenio cuando aseguró que el ciberespacio sería en todo caso construido: la cuestión radicaba en por quién y con qué valores (Lessig, 2006: 6). Una manera racional de canalizar este control es a través de la regulación, es decir, del Derecho.
Con ello llegamos al ámbito científico desde el que parten estas reflexiones. Si bien en uno de sus extremos, este estudio se sitúa en el marco de la investigación jurídica. Si se atiende al hecho de que el Derecho, en su esencia más neta, se ocupa de relaciones entre personas y entre personas y cosas, a nadie le sorprenderá que un jurista pueda y quiera dar cuenta de la existencia de nuevos vínculos y conexiones —mediados por lo digital— de los que habrá de hacerse cargo la norma jurídica. No se tratará de echar sobre todas ellas el manto de la ley, convirtiéndolas de principio a fin en relaciones jurídicas, sino de paliar los aspectos de las mismas que impidan el objetivo del Derecho: introducir una equidad o justicia en las relaciones. Por ello, será menester resaltar los mentados aspectos potencialmente injustos presentes en las nuevas relaciones digitales. Algunos de ellos llevan siendo tratados por los ordenamientos jurídicos desde hace mucho tiempo, pero a veces desde una apariencia de normalidad que no es al caso, pues se ignora que se presentan en el marco de nuevas relaciones.
En este trabajo nos proponemos presentar cuatro nuevos tipos de relaciones sociales que se adhieren a las desde antaño existentes en la capa física tradicional. Hablaremos, así, de (1) las relaciones físicas humano-humano o humano-grupo, en las que un nodo de la red interacciona a través de canales de comunicación física con otro(s) nodo(s) mediando en dicha comunicación herramientas de procesamiento de la información digital; (2) las relaciones virtuales humano-humano o humano-grupo, en las que un nodo de la red interacciona a través de canales de comunicación digital con otro(s) nodo(s); (3) las relaciones humano-IA, en las que un nodo de la red interacciona a través de canales de procesamiento de la información digital con un agente automatizado virtual; y (4) las relaciones humano-robot, en las que un nodo de la red interacciona a través de canales de comunicación físicos y de procesamiento de información digital con un agente automatizado físico.
Estas nuevas relaciones, como decimos, traerán consigo nuevos retos para el Derecho y, por supuesto, influirán en alto grado en las modalidades de cuidado. Dejaremos por ahora a un lado, nuevamente por falta de competencia y espacio, cómo afectan las tecnologías a las relaciones con uno mismo. Sería prudente incorporar a todas estas reflexiones el análisis de la afectación de los nuevos tipos de relaciones sobre fenómenos como el desarrollo, formación y salud mental (psicología, confianza en uno mismo, etc.), sobre todo cuando se trate de dispositivos implantables —biotecnología, neurotecnología y nanotecnología—. Por lo pronto, la perspectiva de relación aquí privilegiada será, así, la intersubjetiva o diádica, forma por excelencia de la relación. Solo dedicaremos unas breves notas a la relación social en grupo (en cuyo contexto habría que añadir como elemento los roles ejercidos).
Cabe reiterar que no es nuestra intención agotar todos los temas implicados en este nuevo escenario. Trataremos, eso sí, de acotarlo como es debido y abarcar la mayor cantidad de aspectos relevantes a nivel relacional, jurídico y de cuidados. Por ello, iniciaremos con unas breves notas a modo de analítica de la relación social y del cuidado (II), para luego continuar con una descripción de los principales cambios que comportan las tecnologías algorítmicas (III). En el cuarto punto presentaremos los cuatro nuevos tipos de relaciones, así como una serie de comentarios sobre su naturaleza, los riesgos jurídicos que traen consigo y la forma en la que, en su marco, la relación de cuidado se ve afectada (IV). Finalizaremos con unas breves conclusiones sobre lo tratado.
En tanto ser vivo, la base más radical del ser del humano es su carácter de organismo. En función de ello, nos vemos impelidos a admitir que, como cualquier otro ente biológico, el ser humano capta señales (información) del ambiente, las procesa y devuelve otras señales (información) al entorno. No obstante, lo característico de su forma de vida es precisamente un ex-sistir: una apertura al mundo que se determina por una disposición de ánimo desde la que como cuerpo parte y en la que se encuentra; la comprensión de que en ese mismo mundo se le presentan posibilidades de acción; y la estructuración de todo ello a través del discurso. Desde esta apertura, a la persona le va en su ser su propio ser, es posibilidad que debe resolverse. El existir del ser humano es, en realidad, siempre un estar inmerso en un mundo al que está abierto, y en el que se encuentra habitándolo de forma práctica y compartiéndolo con otros (Heidegger, 1993: 65 y ss., 133 y ss.). Gracias a la referencialidad del comprender en el marco de mundos de sentido que comparte con los otros es posible la comunicación en un grado más elevado que el de la vida biológica básica, en particular como un intercambio existencial de sentido.
En la continuidad de este intercambio consiste la relación. En su forma más pura, esta relación, pre-supuesto constitutivo del mundo social, es una unidad múltiple de un referente (como el objeto del acto del referir) y dos relata (Herrera Gómez, 2024: 41). Es, por cierto, desde estas relaciones desde las que se construye la subjetividad y la alteridad: el sujeto aislado es una entelequia de la modernidad, hasta el punto de que se ha mostrado como en la soledad radical (niños salvajes, rehenes, etc.) las personas no desarrollan o comienzan a perder el sentido del “yo” (Burton, Kagan y Clements, 1995: 20). Nada quedaría en el mundo si lo redujésemos a sujetos y objetos (Hennon, 2002: 75).
Si en su pureza no definible toda relación es la triada del referente y los dos relata, tratándola como fenómeno, empero, podemos identificar en ella una serie de elementos objetivos y subjetivos. En primer lugar, toda relación de amistad, familiar, de pareja, laboral, ciudadana, institución-individuo, etc., al tiempo que puede reducirse a la remisión entre dos polos (diada) que poseen cuerpo, se encuentra inmersa en un tejido de otras relaciones que las preceden y siguen, un trasfondo relacional de tipo reticular donde, una vez interpretado por los nodos, quedan referidos los significados que se comunican —como mundo compartido—. Todo existir del ser humano se da arrojado en un mundo preconstituido por el conjunto de relaciones que le conectan a la red y que, quedando asimiladas significativamente en la comprensión del nodo, permiten precisamente su ser como posibilidad. La referencialidad de una relación, así, comporta valores y objetivos intencionales que se comunican como significados, y que, en la medida en que esperan una respuesta del otro, se convierten también en expectativas.
Queda claro con ello que en la relación es fundamental la comunicación, el commun-icare, en términos de intercambio recíproco (hacer común). Pero, a su vez, incluso la comunicación más efímera presume un mínimo acervo de significados compartidos –cultura, ciudadanía, humanidad–: la comunicación solo se da en contextos relacionales. El lenguaje, condensación de expresiones significadas en símbolos, es el principal elemento de comunicación. Práctico el existir, no puede ser sino pragmático este lenguaje (Morris, 1970), por lo que traspasa así la mera relación de los signos que, combinados, dan lugar a estructuras lingüísticas válidas (sintáctica). Ahora bien, el darse de la comunicación está mediado por una referencia (semántica) que, proyectada a las cosas del mundo, funciona como media res entre lo pragmático y lo sintáctico.
En seguida veremos en qué sentido se puede tildar al lenguaje de estructura, pero, en su aspecto referencial-comunicativo, se habla de tres tipos de actos del habla: el locutivo como emisión de símbolos, el ilocutivo como traslado de una intención propia y el perlocutivo como provocación de una reacción en el otro polo (Searle, 2000: 53, 71-73; Habermas, 1999: 370 y ss.). De esta forma, la comunicación es un proceso relacional concreto entre dos nodos-cuerpo que envían y reciben información desde su propia subjetividad y que afecta a y es afectado por la red de relaciones sociales y sus significados. Todo proceso comunicativo está formado, así, por un emisor que envía un mensaje a un receptor, en un cierto contexto y a través de un canal que permite la recepción y emisión de la información (Jakobson, 1975: 353).
Ahora bien, el trasfondo de la relación no es solo un acervo de referencias —significativas— vivas e interpretadas, sino que en ellas también se presenta la rigidez de relaciones funcionales ya solidificadas. Estas conforman lo estructural de la relación, lo que en ella hay de medios conectados a normas de comportamiento, generalmente como partes funcionales de un sistema. Así, el sistema es un conjunto organizado de relaciones prefijadas, resultado de una condensación de nexos presistémicos que resultan funcionales. El sistema es el conjunto de relaciones establecidas y cristalizadas entre los hombres (Marcuse, 1985: 218).
Cabría pensarse la funcionalidad de estas relaciones condensadas como funcionales respecto al poder establecido. Si el poder se entiende como una asimetría entre los polos de una relación, de forma que uno impone en el otro sus posibilidades, no es sorprendente que históricamente se haya puesto el foco en las relaciones de producción y de gobierno, ya que en ellas se manifiesta explícitamente el poder, el desequilibrio que siempre comporta: un polo de la relación se encuentra en una situación privilegiada de posesión de los mismos medios a través de los que la relación se ejerce (fuerza, recursos, etc.). Sería desde esta asimetría originaria que ciertas relaciones se habrían solidificado en superestructuras, donde la comprensión viva cedería el paso en el intercambio existencial de sentido a una reproducción instrumental del sistema. Pero lo cierto es que en toda relación cultural básica (familia, escuela, tradición, religión, lenguaje, en el mismo fórum del encuentro público…), en la base de cualquier relación, quedan trazas implícitas del poder, de la asimetría: un poder esparcido, descentralizado en cierto punto, que con su tiránica sujeción a lo ya cristalizado, empuja las relaciones y el trasfondo compartido hacia la estable normalidad (Foucault, 2001: 11). Sistema político, sistema económico, sistema social: he ahí los cristales opacos de la regla, las sólidas estructuras de la red.
Ahora bien, el poder ejercido y la estructura reproducida en la relación son siempre particulares del intercambio específico en el que esta se desenvuelve. Toda relación tiene una historia (extensión), que, si bien es continua en su significado, es de facto discontinua en la sucesión del acontecer del encuentro (intensión), generalmente corpóreo. La asimetría que siempre existe entre los nodos que se encuentran en el marco de un vínculo puede venir de un poder estructural sistémico, pero también de un poder o de una estructura originados en la relación en base a la forma de ocuparse particular que realizan en la historia de sus encuentros los nodos. Toda relación lleva consigo un efecto (productivo o reproductivo de referencia y estructura) que afecta a la situación de los propios nodos involucrados y que se expande a toda el área de influencia que la relación y sus nodos ejercen sobre la red. Pero, entonces, ¿es todo efecto de una relación producto del ejercicio de un poder?
El poder –la asimetría– es común y multifacética en una relación. En la medida en la que no se ha convertido en estructura, el poder es flexible porque es fuerza, estando estrechamente ligado a la situación: el polo favorecido por la asimetría en una relación puede cambiar de lado en función del contexto y de la perspectiva. Así, como esta igualdad de asimetría es propio de las relaciones, y toda relación asimétrica comporta una vulnerabilidad, es cierto que la vulnerabilidad es constitutiva del ser humano (Marcos del Cano, 2020: 18, 26). De hecho, este pensamiento, aunque motivado desde una base distinta —la del miedo de la razón hacia el homo homini lupus— estaba presente en Hobbes (Hobbes, 2018: 153). Por eso, otras palabras, como dominación o sometimiento, refieren mejor al aspecto negativo de usar ilegítimamente la asimetría: es ocuparse de ella desde el interés subjetivo.
El ser humano se ocupa (besorgen) de las cosas y, por ello, la estructura que caracteriza su existir es el cuidado (sorgen): se responsabiliza de su ser, y, siendo este ser un estar con otros en el mundo, el cuidado también implica alguna forma de responsabilizarse por el otro, de preocuparse por él (fürsorgen). Este responsabilizarse puede ser negativo (indiferencia) o positivo (dominio o liberador), en función de los grados de respeto y la indulgencia que recorra (Heidegger, 1993: 122 y ss., 233 y ss.). Tanto el dominio como la solicitud liberadora (solidaria) pueden tomar muchas formas: el primero puede producirse en base a una razón instrumental, una asunción acrítica de estructuras sociales, un odio intersubjetivo…; mientras la segunda puede ejercerse como razón normativa —deber— o como vínculo afectivo intersubjetivo.
Pese a su excesivo formalismo, la propuesta donde, analíticamente, quedan mejor diferenciadas las actitudes de dominio y solidaridad en el proceso comunicativo es la ética de Habermas. En ella, la acción comunicativa, siempre caracterizada por las pretensiones de verdad, rectitud y veracidad (Habermas, 1987: 9-10), se diferencia de la acción estratégica (sistémica) por su aspiración al acuerdo, a la comprensión (Habermas, 1992: 178). En términos realistas, empero, lo humano está presente también en la relación sistémica, así como parte del sistema lo está en la relación comunicativa: ante las posibilidades abiertas del existir, el cuidado positivo-solidario en la relación puede entenderse precisamente como el elegir responsabilizarse, y, por tanto, el elegir el objetivo del comprender, del abrirse al ser del otro y reconocerlo. La propia palabra respeto, que es de lo que aquí estamos hablando, lleva en su seno un doble mirar al otro (re-spicere) que es siempre un tenerlo en cuenta.
En fin, referencia a un sentido, reproductora de una estructura y generadora de un efecto, la relación social se conecta con la red de referencias de lo social –que es como el poso de su historial de relaciones–, y asume cierta libertad en sus resultados. Según la visión expuesta, las estructuras dejan de ser consideradas como substancias, y quedan entendidas como enfriamientos o condensaciones del flujo de la Red. Existe un trasfondo en toda relación, que recoge el mundo de significados y de estructuras en las que se produce, pero todavía queda margen para lo nuevo, que, precisamente, solo lo será en tanto que ocupación de los polos entre sí. Una consecuencia de lo dicho es que poder y estructura siempre estarán presentes en la relación. Esto no es siempre algo que debamos evitar en aras de una autenticidad intersubjetiva. Piénsese en lo positivo de la asimetría del maestro y el pupilo, en la del juez y el criminal, psicólogo y paciente. Plantéese también la función de seguridad que produce lo estructural, base misma de cualquier convivencia, o las propias funciones estructurales del lenguaje (Jakobson, 1975: 347 y ss.). Es más, sería imposible pensar un lenguaje que no fuera en parte estructura (sintáctica). Ahora bien, solo a través del re-specto puede ir el nodo humano en su relación con otros nodos más allá del rol, el dominio y la estructura, y relacionarse con otros en la reciprocidad de la mirada y el diálogo, “donde se es compañero en los acontecimientos de la vida, donde se es percibido como «totalidad existente»” (Buber, 1993: 297).
El esbozo de la relación realizado hasta ahora nos permite entender en toda su amplitud el carácter interdependiente y relacional de la existencia humana (Held, 2006: 13-14). No por casualidad hemos hecho referencia a la noción de cuidar (sorgen) en Heidegger, y hemos adelantado la actitud humana del comprender al otro. El resto del trabajo precisa, empero, de un concepto de cuidado menos existencialista y más pragmático, cercano en mayor grado al que opera en el sentido común.
Si hacemos un recorrido mental por el mundo en que vivimos, pronto surgen ejemplos de situaciones de cuidado: referencias privilegiadas son la madre que se ocupa de su hijo, el abuelo que es ayudado con labores de casa por su hija, la persona con discapacidad que camina apoyada en los hombros de su hermana, el extranjero que consigue comprender un idioma gracias a la ayuda de su amigo… Traídos estos ejemplos, tenemos la oportunidad de dar buena cuenta de que familia y amistad son instituciones donde el cuidado ejerce una función vertebradora, y que este se relaciona generalmente con situaciones de asimetría y vulnerabilidad. Pero, además de estos prototipos, que representarían cuidados sin profesión, podemos pensar en la relación del profesor con el estudiante, la sanitaria con su paciente, el trabajador social con la persona en riesgo de exclusión de la que está a cargo, la mujer que cuida al niño o padre de otro… Estos últimos serían ejemplos de profesiones de cuidados, y podríamos distinguir dentro de ellas las que se dan en los márgenes de una institución y las que se dan fuera de ella. Si siguiéramos ampliando el concepto de cuidado, podríamos llegar a la consideración de que también en la relación débil que todos tenemos como ciudadanos existe un poso de cuidado que se verifica en encuentros efímeros, como quien da la hora a aquel que se lo pide en la calle o sujeta la puerta a un desconocido en el metro. Obviamente, entonces, también encontraríamos esos posos de cuidado en el acto del profesional de la limpieza pública o privada, en el del funcionario que nos atiende al hacer un trámite, en el del trabajador que nos vende la ropa que queremos comprar. Pero si el cuidar puede ser un tipo de relación dentro del marco de una profesión o contrato laboral, ¿cómo saber si es este interesado o benevolente? ¿Se sigue una cierta oportunidad —como un código que maximiza un beneficio— o existe un verdadero comprender al otro? Y si el cuidar puede considerarse como un poso que puede activarse en toda relación social humana, incluso en las débiles y efímeras: ¿no sería reconducible toda moral o toda política, todo ethos, como vida en común, al cuidado? ¿No sería el cuidado la base del Derecho en tanto que aspiración a una justa convivencia?
Parece que, siguiendo el camino del sentido común, hemos ido demasiado lejos de un salto. Retrocedamos un poco e intentemos recorrer nuevamente el camino, esta vez paso a paso. Todo proceso de cuidado tiene una dimensión relacional, si quiera débil: todo cuidado se da en una relación, y si acaso puede hablarse de relación de cuidado es porque, sobre la relación original —familiar, amistad, ciudadana, humana, profesional…—, se insertan ciertos caracteres propios. Estos caracteres se resumen en la puesta en práctica de una atención o trabajo dirigido a cubrir necesidades requeridas para el mantenimiento y sostenibilidad de la vida, capacidades y vínculos. El cuidar es ocuparse solidariamente del otro ante su reconocimiento (respeto), y, por ello, el cuidador, al abrirse al cuidado, ejerce momentáneamente un yo transparente —que no inexistente, sino re-spectuoso—, poniendo entre paréntesis sus propias necesidades para proveer las del otro (Feder Kittay, 1999: 51 y ss). Toda necesidad que otro puede cubrir implica una asimetría, y, por tanto, una vulnerabilidad. El cuidado es cuidado del vulnerable que somos todos.
Existen cuatro fases en toda relación de cuidado: la comprensión de que el cuidado es necesario, la asunción de responsabilidades y determinación de una conducta, la acción de cuidar y la identificación de la respuesta al cuidado (Tronto, 1993: 105 y ss.). En todas ellas se hace patente la importancia del elemento comunicativo y dialógico del proceso de cuidado: resultan fundamentales los momentos de expresión y comprensión de las necesidades —tanto de la persona cuidada como del cuidador— en base a un mundo compartido de significados. Por su parte, el cuerpo también resulta fundamental: además de que comprender es algo que hacemos desde un cuerpo y sobre un cuerpo, la propia acción de cuidar envuelve a menudo trabajo físico (Feder Kittay, 1999: 156, 165). Es, como mínimo, un acompañar, que requiere un estar común en cuerpo y vida. Toda sustitución de dicho estar por la mera palabra escindida del cuerpo, es decir, sin ecos de vida, reflejará siempre un empobrecimiento de la compañía.
En el marco de una vulnerabilidad común cabe entender el cuidado dentro de las instituciones como producto de una interdependencia anidada (Feder Kittay, 1999: 68). Únicamente así es posible el propio concepto de profesional, pues es este quien cumple su función social de ocuparse del otro a través de su trabajo. Solo accesoriamente, por la propia necesidad suya de vivir, recibe por ello un sueldo. La extensión de la racionalidad instrumental de lo sistémico revierte el orden del término, y es entonces cuando nos parece excesivo extender el cuidado a las relaciones en el marco de las profesiones.
Si esto es claro respecto a las profesiones que tienen por objeto de su función algo adicional al cuidado (cualquier otro servicio o producto determinado), es aún más evidente respecto a los propios trabajadores del cuidado, cuyo esfuerzo es infungible por la radical importancia del vínculo afectivo en su desempeño (Feder Kittay, 1999: 111). De ahí que vocación y solicitud sean fundamentales en las profesiones que implican cuidado.
Pero hay otro elemento esencial del cuidado, y esta vez concierne a ambos polos de la relación: la confianza, que guarda estrecha relación con la expectativa. Toda relación se sostiene, como ya hemos advertido, sobre señales relacionales. Podemos reinterpretar ahora dichas señales como comportamientos del otro que denotan compromiso con la relación, captadas de forma cognitiva —como razones— o afectiva —como sensación— (McCallister, 1995: 25 y ss.). Así, cuidador y cuidado captan señales positivas y negativas del otro respecto al mantenimiento del vínculo solidario (Six y Noteboom, 2003: 7). Con ello, en el intercambio informativo de la relación se da una constante redefinición de la naturaleza del vínculo (Dillard, Solomon y Samp, 1996: 707), quedando siempre abierta la posibilidad de una ruptura del marco de solidaridad. Confiar, en este sentido, implica aceptar la vulnerabilidad ante las acciones del otro, sobre la expectativa de que se ocupará de nosotros con un abierto re-specto.
El considerar la vida humana como un existir en un mundo compartido con otros, a la manière de nodos inmersos en una red de relaciones interpretadas, nos permite enunciar que el cuidado es la relación más propia (eigentlichkeit) con el otro a nivel existencial. Por la fuerza de activación moral y práctica que posee la ética, este hecho existencial se ha querido traducir a deber-ser como parte de una ética del cuidado, definiéndola como la responsable atención y respuesta a las necesidades de otros (Held, 2006: 10). Una propuesta concreta de formalización ética del cuidado es la de añadir un tercer principio de justicia a la propuesta de Rawls: “a cada uno o una según su necesidad de cuidado, de cada uno o una según su capacidad de cuidado…” (Feder Kittay, 1999: 113), sin olvidarse de la importancia en todo ello de las instituciones.
Mandato ético o no, lo cierto es que el cuidado está presente como realizado o no realizado en toda relación humana, pues es una función propia de la existencia de cada uno de nosotros, nodos de la red social. De estas relaciones, por cierto, se encarga el Derecho, aspirando a una cierta equivalencia o justicia en las mismas —suum cuique tribuere—. Así, un orden jurídico es como un manto, un molde flexible que sienta una cierta dirección de las relaciones humanas reguladas en la red social, corrigiendo asimetrías que generan dominio. Por ello, afecta al poder en todas sus manifestaciones.
El Derecho, ahora bien, no nace del vacío, o de una perfecta ratio, sino de las relaciones de una sociedad concreta, con sus precomprensiones, donde quedan ciertos trazos del nudo poder desequilibrante, del dominio, que, contra-natura, el “derecho” ha reproducido históricamente. Como poder creador de estructuras —al ser él mismo una forma en que se puede ejercer el poder político—, el derecho particular de un pueblo puede devenir, y deviene muy a menudo, en nuda política. Pero, en su esencia, toda relación jurídica impone siempre un mínimo irrebasable de respeto entre los polos de una relación cualquiera. Por mucho que se haya avanzado en la Teoría del Derecho, sigue siendo cierto que la materia de la relación jurídica es la relación específica, social, que se encuentra entre los dos nodos; y sobre ella, al cumplirse un supuesto general, es que el derecho pone su forma (Savigny, 1879: 259). Esta forma no es otra que la vinculatoriedad de ciertas expectativas, que se convierten así en derecho y deber elevables a un tercero imparcial a través de la referencia a una norma compartida. Si el derecho cumple su naturaleza, esto implica que sobre las relaciones sociales se proyecta un halo de mínimas exigencias de respeto a través del cual se corrigen ciertas tendencias del flujo social: el poder se vuelve razonable y es obligatorio el reconocer al otro. El Derecho implica siempre un cuidado.
Como se trata este de un trabajo jurídico, si quiera en los extremos de su ciencia, era obligatorio aludir a esta naturaleza del Derecho y hacer explícito su encaje en todo el contexto aquí descrito. Como fenómeno de cuidado, el Derecho será afectado él mismo por los tipos de relaciones surgidos en el flamante mundo digital; pero, sobre todo, como fenómeno de justicia, el Derecho ostentará un papel fundamental como regulador de aquellos. Antes de pasar a definir en qué consisten estos tipos de relaciones, debemos ocuparnos brevemente del nacimiento del mentado mundo digital y sus notas más características.
No sin querer al inicio del epígrafe II hemos identificado la noción de “señal” emitida y percibida por el organismo con el concepto de información. En la filosofía de la información, existe la diferenciación entre (i) datos como señal “x” siendo distinto de “y” (Floridi, 2009: 18), (ii) información como contextualización de un conjunto de datos, (iii) conocimiento como dotación de sentido de la información en base a su inclusión en una explicación más amplia del dominio y (iv) sabiduría como integración de los conocimientos en una visión coherente del mundo (Kitchin, 2014: 38). Todos estos conceptos nos serán útiles para entender el fenómeno de lo digital.
Fue la electrónica, unida a las investigaciones lógicas de, entre otros, Boole y Frege, las que sentaron los cimientos más inmediatos para el desarrollo de la informática. La electrónica tenía como función principal el uso de la electricidad para el control de la información (procesamiento, almacenamiento y comunicación de conjuntos ordenados de datos) a través de la manipulación de señales físicas. En estos dispositivos —como el teléfono de Bell de 1876 o la radio de Marconi de 1898— la señal eléctrica mantenía una correspondencia estructural (reducida) con el estímulo original, es decir, los datos procesados “imitaban” al dato bruto físico. Por ello eran datos analógicos.
Bajo el paraguas de las investigaciones de los citados Boole y Frege, científicos y matemáticos como A. Turing, K. Zuse, J. Atanasoff o J. Von Neuman avanzaron en el almacenamiento y procesamiento de la información expresada en datos sintácticos. En 1946, la Universidad de Pensilvania dio a luz al ENIAC, seguido en 1949 por el EDVAC (Von Neumann, 1945), precursores de los ordenadores modernos. Nos las teníamos con una tecnología que permitía almacenar a corto y largo plazo y procesar a gran escala información expresada en términos binarios —en particular, como el paso o no de una corriente eléctrica por un artificio, el transistor—. La representación de la información, así, dejaba a un lado el dato analógico para abrazar el dato digital, compuesto por los 0 y 1 de una sucesión de bits (Shannon, 1948: 379).
Para entonces, los cálculos de la máquina digital se ejecutaban, registraban y almacenaban en un terminal aislado: la nueva capa digital, si bien conectada a una red eléctrica, quedaba fuera de la red de nodos o terminales de lo social. Los procesos de comunicación digitales estaban completamente localizados (al contrario de las tecnologías analógicas por entonces existentes, como la radio, la televisión o la telefonía): la información fluía desde el tejido social descrito en el epígrafe II hacia la capa digital del dispositivo electrónico a través del uso de las interfaces por el técnico-operador, y del dispositivo fluía hacia el mismo técnico-operador por las mismas interfaces en los márgenes de las salas de grandes universidades u oficinas. La pequeña capa digital era un cul-de-saq de los pocos nodos de la red que tenían acceso a terminales.
Los años que siguieron fueron testigos de una progresiva innovación en el campo digital: tras una serie de avances en la capacidad del procesamiento de los ordenadores (adopción del byte, creación del microprocesador, mejoras en memoria, desarrollo de las bases de datos…), vino la generalización de los PCs, que facilitaron el acceso a la capa digital localizada del público en general. Pero la localización estaba llamada a desaparecer: los avances en computación paralela y distribuida permitieron que dos nodos de una red de terminales (ARPANET, perteneciente a DARPA, del Departamento de Defensa de EEUU) se conectaran en 1969 (Castells, 2010: 46). Tras el desmantelamiento de ARPANET en 1990, nació Internet. En él, un Equipo Terminal (ET), como puede ser un ordenador, se conecta a Internet como nodo de la red mediante una banda o línea del proveedor de servicios (ISP), y envía y recibe información organizada como datagramas IP y los dirigen al destino mediante enrutamiento. Si la información del nodo físico (usuario) ha sido convertida en datos digitales para el almacenamiento y procesamiento del ordenador, ahora estos datos se convertirán en señales eléctricas continuas —de luz o electromagnéticas— que viajan a través de una onda cuyos parámetros se modulan para mapear el código digital. El módem del emisor modula la señal y el del receptor la demodula, recuperando la información digital original. Según la teoría de la comunicación de Shannon, esta forma de trasmitir la información reduce el ruido y mejora la fiabilidad respecto a las transmisiones analógicas clásicas (Shannon, 1948: 380).
Ya para 1990, entonces, los dispositivos que procesaban y almacenaban información simbólico-discreta salían de su aislamiento como culs-de-saq. Al quedar conectados entre ellos, se convertían en canal de verdaderas comunicaciones: la red se extendía por una nueva capa, cuyo lugar de desenvolvimiento se llamaría ciberespacio. La información se almacenaba y fluía por la capa digital sin necesidad de salir hacia los nodos físicos de la red en su proceso de transmisión. La World Wide Web (o, llanamente, web), nacida en 1991, convirtió a internet en un medio de masas, y supuso, como otrora y en otro sentido la imprenta, una democratización y expansión de los flujos de información. En su estructura se hacía explícito un elemento de la red: el servidor, computadora conectada en remoto que intermedia entre las terminales que se comunican, o entre una terminal y los contenidos almacenados en la red, a través del almacenamiento —alojamiento—, organización —gestión—, procesamiento y distribución de los mensajes. Junto a los almacenes locales (culs-de-sac), se erigían en la capa digital verdaderos lugares o espacios virtuales (hubs) destinados al flujo y almacenamiento de información. Uno de ellos era la Web, que con sus servidores permitía el almacenamiento y consulta remota de archivos de hipertexto (páginas web con enlaces a otros textos digitalizados de la red). El panorama se enriqueció con el advenimiento de otros lugares: las plataformas digitales, las redes sociales, las aplicaciones de mensajería, videojuegos, la nube, el metaverso… Entretanto, los ordenadores portátiles y los smartphones habían avanzado hacia la movilidad de la conexión, y en un abrir y cerrar de ojos ahora todo estaba repleto de objetos conectados (smart objects, digital twins…).
En este panorama, nuestro mundo es cada vez más uno parcialmente computado, y en su marco hacemos uso de las herramientas digitales sin ni siquiera pararnos a pensar en su naturaleza algorítmica (Alpaydin, 2021: 7-9). En la red social tradicional ha quedado completamente integrada una nueva capa que se entreteje con el entramado de las relaciones físicas. La red social, el tejido fáctico de nuestras relaciones, ha devenido bidimensional, hasta el punto de que, gracias a los atajos (shortcuts) de la red, que la hacen una especie de “mundo pequeño” (Watts y Strogatz, 1998), estamos más conectados que nunca.
En cuanto se analiza un poco más a fondo la relación desarrollada en la dimensión digital, se hace evidente un hecho: al menos en su forma, toda relación desenvuelta en la nueva capa del ciberespacio queda reducida a su componente comunicativo básico (digitalizable). Quedará más clara la naturaleza de esta comunicación si recordamos los elementos de todo proceso comunicativo enunciados por Jakobson y mentados más arriba: emisor, receptor, mensaje, contexto, canal. Conocemos ya al emisor y receptor de un mensaje digital clásico (no sintético): son los nodos humanos de la red, conectados a través de su terminal o terminales. Estos terminales, si bien moldean y computan el mensaje humano original (expresión), no intervienen como participes. Así, al pasar el mensaje a través del terminal se produce un cuádruple efecto: (1) la conversión, procesamiento y almacenamiento de la señal introducida por el nodo a través de la interfaz en información digital —binaria—; (2) la transmisión por internet de esta información digital a otro ET; (3) la recepción por el ET destinatario de la información transmitida; (4) el almacenamiento, procesamiento, conversión y presentación a través de la interfaz del ET destinatario de dicha información. Generalmente, como hemos dicho, entre (2) y (3) intermedia un servidor, que soportará un verdadero lugar virtual al que el nodo de la red se conectará para acceder a su contenido (ETx-servidor-ETx) o para comunicarse directamente con otros (ETx-servidor-ETy). Llamaremos a la primera conexión la conexión personal P y a la segunda la conexión social S.
Se trata en todo caso, como vemos, de una nueva infraestructura del flujo de información que procesa y comunica la energía del mundo a través de su traducción a señales manipulables. Así, esta nueva infraestructura comporta una comunicación conformada por una particular estructura del mensaje (datos binarios, datagramas IP), un específico canal comunicativo (digitalizado-analógico) y un contexto limitado (condensado en el mensaje y su interpretación emocional por parte del receptor).
El usuario de la nueva capa digital vira entre almacenes locales y lugares virtuales en función de su conexión a internet —que, al menos en potencia, está disponible las veinticuatro horas del día—. Navega por los espacios virtuales de esta capa a través de la infraestructura descrita, y se encuentra comunicativamente con otros nodos a través de un mensaje, canal y contexto particulares. En los lugares virtuales siguen patentes antiguas y nuevas estructuras sociales petrificadas, así como antiguas, nuevas y más extendidas formas de asimetrías y dominios. Cabe mencionar, por último, una nueva asimetría social generada por el advenimiento de la nueva capa digital, que tiene que ver con el acceso, conexión y accesibilidad a la misma. Así, podemos hablar de nodos aislados digitalmente —N.A.D.—, por no poseer el hardware digital o el software de acceso; nodos aislados respecto a la red digital —N.A.R.D.—, producto del aislamiento respecto a la red de interconexiones; nodos aislados por los gatekeepers en las puertas de acceso —N.A.P.A.—, que son excluidos por quienes controlan los servidores de los lugares virtuales; y nodos aislados respecto a la semántica digital —N.A.S.D.—, con dificultad para desenvolverse en la simbología e interfaces digitales.
Al mismo tiempo que surgían los primeros ordenadores, y sobre bases teóricas muy similares, otras ramas de la ciencia y la ingeniería trabajaban en la creación de sistemas artificiales a través de los cuales reproducir el control de la información y la operación inteligente de la misma, tratando de imitar, en mayor o menor medida, la forma en la que estos procesos ocurrían en la vida natural. Tanto el primer campo, la cibernética (Wiener, 1948: 85 y ss.), como el segundo, la inteligencia artificial (IA), se retroalimentaron con la informática de lo digital, en el segundo caso hasta el punto de que no se nos ocurre pensar en un sistema de IA que no sea, al mismo tiempo, digital.
Como es sabido, la IA obtuvo su nombre en 1956, en el Congreso celebrado en el Dartmouth College de New Hampshire, donde se reunieron un conjunto de científicos e investigadores con la intención de poner orden en el ámbito del desarrollo de sistemas inteligentes. Fue en ese mismo Congreso donde J. McCarthy, profesor de la Universidad de Stanford, dio una primera definición de IA como el comportamiento de una máquina que podría ser llamado inteligente si lo realizase un humano (McCarthy, Minsky, Rochester y Shannon, 1955: 2). Ya con nombre y definición, y como ocurriría también con Internet, el DARPA tuteló en gran medida desde los años 1960 hasta la década de los ochenta el desarrollo de sistemas inteligentes.
Salvo excepciones, los sistemas de IA que vieron la luz estos años pertenecían a un enfoque que ha pasado a denominarse clásico: el simbólico. En el marco de este enfoque se pretendía el diseño de sistemas que respondieran a los estímulos de la realidad —traducida a datos digitales— a través de la aplicación de una descripción racional-simbólica (por ejemplo, a través de reglas lógicas expresadas en símbolos digitales-discretos) de un dominio, que quedaba inserta en la máquina de forma prestablecida. Esta descripción formaba el nivel de conocimiento del sistema (Newell, 1982: 95 y ss.), y, por este motivo, los sistemas de IA simbólicos se conocían como los Knowledge Based Systems (KBS).
Ahora bien, debemos atender un momento a la relación entre dato, información, conocimiento y sabiduría que hemos mencionado al principio de este epígrafe III. Si entendemos la dotación de sentido que el conocimiento aporta a una información como la inclusión de esta última en el marco de relaciones de un sistema o dominio, entonces el conocimiento se podría definir meramente como un conjunto de información que ha sido estructurada desde una cierta perspectiva epistemológica. Con ello, por cierto, se dejaría a un lado la aspiración a la verdad del conocimiento como “creencia verdadera justificada” y, por supuesto, también la exigencia más fuerte de verdad de la información (Floridi, 2013: 31). Creo que la descripción más realista del dato, la información y el conocimiento en el marco de la informática y la IA es, respectivamente, un 1 como diferente a un 0, o viceversa (dato); un conjunto contextualizado de datos en un tiempo t (información); y un conjunto de información estructurada desde cierta perspectiva (conocimiento). Es este último el que se aplica sobre unos datos digitales, de manera que, a través de una serie de reglas de inferencia (que también podemos considerar como pertenecientes al conocimiento), se devuelve una respuesta.
Desde este punto de vista podemos erigir al conocimiento y la inferencia como elementos fundamentales de la IA. No por nada se reitera la importancia de la IA en los flujos de trabajo con el conocimiento (knowledge workflows) y el hecho de que vivimos en una sociedad del conocimiento. La característica de los sistemas simbólicos es que conocimiento e inferencia están determinados de ante mano por el programador como base de conocimiento y motor de inferencia en el sistema. Por su parte, en los sistemas correlativos o basados en datos, provenientes de otro enfoque de IA —el conexionista—, el conocimiento es aprendido en función de las conexiones encontradas entre una serie de datos —que se denominan de entrenamiento—, y, por tanto, no está determinado de antemano por el programador. Por tanto, en los sistemas correlativos, paradigma de la IA del presente (Machine Learning, IA generativa, etc.), también interviene el conocimiento, pero se conforma a través del ajuste estadístico de unos pesos en el interior de una fórmula a través de cálculos para reducir la diferencia de su resultado respecto a la realidad (error), lo que da lugar al entrenamiento. Entrenada la IA y aprendido su conocimiento (fórmulas que expresan una información estructurada desde una perspectiva), este se aplica ahora a nuevos datos, en una segunda aplicación de inferencias.
Vemos que, con ello, la IA ha dejado a un lado cualquier aspiración de parecido con la inteligencia humana, en tanto que esta se da, como ya hemos dicho, desde una apertura afectiva y comprensiva en el marco de relaciones con los otros, donde el discurso viene como expresión —en mayor o menor medida estructurada— de aquella apertura. La perspectiva desde la que el humano estructura la información de sí, de los otros y del ambiente no es codificable, no es reducible a inferencia discreta entre datos particulares. En el conocimiento humano siempre media una sabiduría, una referencia a un mundo como totalidad, y desde ahí se interpreta y comprende lo real y al otro.
La IA conoce en el sentido que “conoce” un libro, es decir, como recipiente o portador de una información estructurada, pero, a diferencia del libro, la IA procesa: da un resultado (output) ante un estímulo digital (entrada o input), y, por ello, la IA también es computadora. Libro y computadora al mismo tiempo, la IA aplica su “texto” (lógico o matemático) a unos datos de entrada introducidos por un usuario, en tanto que contiene en aquel texto un criterio para ordenar la información que recibe. No se trata solo, como ocurre en los dispositivos digitales, del procesamiento de datos binarios en base a unas reglas sintáctico-operativas por las que se ejecutan comandos de introducción o extracción de información almacenada, comunicada o computada; sino que en la IA se da el procesamiento inferencial de datos e información (digital) desde un conocimiento (expresado también en términos binarios). Ya sean predeterminadas o aprendidas, a los datos digitales se les aplica una serie de fórmulas lógicas, matemáticas o estadísticas (conocimiento) a través de las cuales se obtiene nueva información. En fin, la IA dice o predice valores o conclusiones (información) asociadas a un input de datos a través de silogismos, clasificaciones, regresiones, agrupaciones (que expresan un conocimiento).
Pero en los últimos años asistimos a un nuevo fenómeno: la IA generativa o GAI, en la que el aprendizaje no se dirige a clasificar, regresar o agrupar, sino a crear nuevo contenido. El conocimiento de los modelos que están sobre la base de estos sistemas se compone de millones y millones de relaciones signo-indicativas entre palabras (p.e. Large Lanuage Models), píxeles (p.e. Large Vision Models) o frames (p.e. Large Audio Models), todos ellos referibles como tokens, lo que hace posible la abstracción de relaciones más complejas y, en la medida que pretenden predecir el resultado adecuado (como la siguiente palabra de un texto o el color de un pixel), pueden generar por sí mismos contenido lingüístico o audiovisual (De Asis Pulido, 2024: 77-78). De esta manera, por ejemplo, modelos GAI de procesamiento del lenguaje (a menudo enriquecidos con funcionalidades de audio y sonido) responden a través de un chat (soportado habitualmente por servidores) con contenido textual generado ad hoc en función de la entrada (prompt) del usuario. No cabe aquí un análisis más completo de estos sistemas, pero quizá no haga falta: a estas alturas pocos serán ajenos a modelos como GPT, Gemini, Grok, LLaMA (Meta), etc.
Si que es preciso dar cuenta, empero, de que, por sí solos ya revolucionarios y disruptivos, estos modelos lo serán aún más en el futuro, pues se encuentran a la base del actual enfoque de agencia virtual, tecnología de vanguardia en nuestra época. Con ella, se pretende que los sistemas de IA basados en modelos de IA generativa se involucren en acciones con su entorno de trabajo virtual, pues un agente es un ente que percibe el entorno a través de sensores y actúa en él por medio de actuadores (Russell y Norvig, 2008: 38 y ss). La agencia ha sido una aspiración clásica en el ámbito de la IA, pero supone un hito en esta empresa el ingente potencial de sistemas GAI como los LLMs unido a la lógica-planificadora de un subsistema simbólico que contenga las reglas predefinidas, procedimientos y cadenas de pensamiento para trabajar en un entorno de aplicaciones —correo, bases de datos, sensores, dispositivos inteligentes, etc.— (Xiong et al., 2024: 3; Bhaskar Acharya y Kuppan, 2025: 18912 y ss.).
Por ahora, el entorno de trabajo donde interactúan estos agentes es discreto y virtual (conjunto de aplicaciones, a menudo laborales), pero no estaremos lejos de que aquel deje a un lado dicha limitación. Así, actualmente se investiga en agentes que perciban el entorno continuo (a través de su traducción a audio o imagen digital discreta), actuando luego en función de lo percibido en su entorno virtual limitado; y, por otro lado, en agentes que perciban de esa misma manera el entorno, pero que actúen en él a través de actuadores físicos. Al primer grupo podría pertenecer un modelo como el de Gemini Live, pero enriquecido por el lado de la actuación con un enfoque de agencia que, por ahora, no tiene. Al segundo grupo pertenecería todo el ámbito de la robótica, si bien, en particular, se trataría de una robótica enriquecida con sistemas GAI.
Ahora bien, ¿qué supone todo esto en el ámbito relacional? En primer lugar, si bien desde cauces diversos, aparece junto al humano un ente capaz de trabajar con el conocimiento y aplicarlo a una realidad (digitalizada). En la medida en que no parten como aquel de un existir en un mundo, se trata de sistemas de conocimiento que no conocen: el conocimiento se separa del conocer, y, junto a la información, se convierte en activo y commodity del presente. El conocimiento de la IA simbólica es el que introducen en el sistema los expertos. El de la IA basada en datos, y, en mayor medida, la IA generativa, es aquel obtenido de correlaciones encontradas en bases de datos o la misma red, es decir, de los almacenes locales de información o de los lugares virtuales soportados por servidores. En último término, cuando el sistema sea capaz de aprender continuamente, también las propias interacciones que tienen con el usuario-nodo engrosarán el listado de datos que fundamentan sus correlaciones. Este conocimiento se aplicará a datos compartidos por el usuario —con o sin consentimiento explícito—, y los resultados de esta aplicación retornarán al usuario de la red en forma de recomendaciones, avisos o incluso decisiones y, últimamente, como sabemos, creaciones.
En tanto que este fenómeno siga produciéndose dentro de los márgenes de la infraestructura particular que entraña la capa digital estaremos ante una tecnología que, nuevamente, reduce las relaciones sociales a su componente comunicativo-digital. Cabe hacer aquí, sin embargo, una distinción clave entre la IA no generativa (tanto simbólica como correlativa) y la IA generativa.
La primera lleva a cabo un procesamiento de la información hasta cierto punto descontextualizado: desde el ET del nodo se envía una información que queda sujeta a operaciones determinadas por el conocimiento del sistema, y, tras ello, se devuelve un resultado como output. Este output puede devolverse al mismo nodo, al modo de la conexión personal P ya mentada arriba, pero habiendo mediado las operaciones que realiza sobre la información el conocimiento (conexión personal Pc). En ese caso el proceso se representaría como ETx– Servidor IA-ETx. Pero también podría devolverse al ET de otro nodo en el marco de una conexión social S, de manera que podríamos representarla como ETx– Servidor IA-ETy (conexión social Sc). Esta comunicación, en todo caso, agrega al procesamiento computacional de la información un canal activo de procesamiento y al proceso social de comunicación un canal activo de comunicación. Lo activo del canal es, como decimos, la aplicación sobre los datos de un conjunto de información estructurada desde una perspectiva (conocimiento).
Por su parte, los modelos de IA generativa aprenden a captar hasta cierto punto el contexto y las referencias de un lenguaje —por la fuerza bruta del procesamiento de millones de datos—. Si pensamos en un LLM, estos modelos son capaces de representar el contexto, entendido como la secuencia de texto previa y el entorno de la conversación que tiene con el usuario. En todo caso, en su devolver un contenido generado, pasa de ser un canal activo a un pseudoactor comunicativo. La diferencia con la conexión personal S mediada por IA es que si bien esta presenta un resultado que ha de quedar sujeto a una interpretación para darle un contenido semántico, la IA generativa devuelve ya un contenido de este tipo, al haber aprehendido el contexto y haber representado en su conocimiento verdaderos conceptos artificiales. La conexión, en este caso, es una pseudocomunicación canalizada por la infraestructura digital, donde solo uno de los polos posee intencionalidad como existente. El actor participa en un proceso comunicativo con el pseudoactor en cuanto ambos reproducen un contenido semántico. De esta forma, este proceso podría expresarse como ETx-Servidor IA (conexión pseudosocial pS). El pseudoactor sería él mismo una estructura de información ordenada desde una perspectiva (es decir, conocimiento), calculada a través de las correlaciones entre las palabras de millones y millones de textos de la red, si bien corregida por fases de refuerzo para evitar interacciones tóxicas y mantener al nodo existente (actor) en la conversación. El pseudoactor, así, es la normalidad estructural del lenguaje de la capa digital positivizada y corregida en sus posibles excesos.
En fin, si los planes de los grandes gurús tecnológicos arriban a buen puerto, los agentes físicos que existirán en el futuro tendrán como consecuencia palmaria una cierta reestructuración de la infraestructura de la capa digital, pues los datos correrán por ella sin necesidad del uso explícito de un ET por el nodo, y, tras aplicar sobre aquellos el conocimiento que posee y que es, el robot ejercerá una respuesta en el mundo físico. Así, el proceso comunicativo podrá definirse como nodox-IA (conexión pseudosocial física pSf).
Se cuentan dos inviernos en la historia de la IA, y hacia el 2022 se habló de la posible sobrevenida de un tercer invierno (Floridi, 2022: 85). El advenimiento de la IA generativa, los agentes virtuales y la proyección de las grandes compañías hacía el desarrollo de agentes físicos prevén que los próximos años la espiral innovadora seguirá haciendo obsoletos los trabajos que traten de aprehenderla. Por ello, creo que la mejor manera de abordar las consecuencias de la vorágine tecnológica es a través del análisis de las cuatro nuevas relaciones que comporta en el plano social.
Una vez finalizadas las notas sobre los caracteres fundamentales de la relación digital e inteligente-artificial, llega el momento en este último epígrafe de presentar de forma más nítida los cuatro nuevos tipos de relaciones propias de la era algorítmica. Expondremos, respecto a cada una de ellas, su influencia en el marco general de la trama de relaciones sociales, los riesgos jurídicos que esta influencia supone y las específicas consecuencias que trae todo ello a la relación del cuidado.
Unas pocas reflexiones introductorias nos permitirán una lectura más fructuosa de las líneas que vienen. En primer lugar, fuera de estas cuatro nuevas relaciones, quedarían, como relaciones tipo 0 o tradicionales, la forma de relación del ser humano existente antes de la aparición de la capa digital. No se afirma con ello que la relación humana tradicional haya sido siempre del mismo tipo: cada sociedad, con sus significados y estructuras, y, sobre todo, con un cierto desarrollo tecnológico, en cada época distinta, ha determinado un paradigma de relación propio. La variedad de dichos paradigmas es innegable. Ahora bien, respecto a los componentes del proceso comunicativo, fundamental para la forma de las relaciones, pocas variaciones —que no sean de grado— ha habido en la historia. Si ponemos el ojo en la tecnología, todas menos una de las que hemos mencionado en la Introducción de este trabajo como ejemplos pre-digitales no han hecho “más” (que no es poco) de hacer más rápida, más cuantiosa o más rica la comunicación, y, por supuesto, la han afectado de manera indirecta por la revolución que han provocado en el contexto. La escritura es la única excepción, pues ella sí que influyó de manera cualitativa en la comunicación, particularmente en el canal, que avanzó hacia uno a través del cual, por el almacenamiento de símbolos, permitía diacronía. Por ello, podríamos verdaderamente hablar con ella de un subtipo especial del tipo tradicional, que, de hecho, como almacenamiento simbólico, precede lo analógico-digital.
Respecto a los problemas comunes de las relaciones mediadas por la infraestructura del flujo de información digital, problemas de los cuales tendrá que encargarse el Derecho, cabe resaltar en primer lugar que, pese a lo que pueda parecer, lo digital no se da en una especie de éter: la nueva capa en la que nos movemos funciona gracias al elemento energético de la electricidad, y, en cuanto despliegue de tensión (voltaje), exige la presencia en el mundo físico de una infraestructura de generación, transmisión, transformación y distribución de electricidad (red eléctrica de un país o territorio). Por su parte, los computadores, a la par que software, están conformados por hardware, que precisa de recursos y materiales específicos (como el litio, las tierras raras y mucha agua para los sistemas de refrigeración). No es posible ignorar, así, la huella ecológica de lo digital.
Por su parte, como canal comunicativo particular, la tecnología digital de almacenamiento, procesamiento y comunicación de información expone al mensaje y la conexión entre nodos a una serie de amenazas, que a su vez tienen que ver con una serie de hechos. En primer lugar, quien controla el servidor o conoce la forma de romper las estrategias de seguridad de los mismos o los almacenamientos locales, controla los datos. Por tanto, cada conexión (P, S, Pc, Sc, pS o pSf) está amenaza en términos de la privacidad de la información comunicada. A ello responden las normativas de protección de datos y ciberseguridad, que, si bien han de reforzarse constantemente, ya tienen una larga historia en nuestros ordenamientos jurídicos (De Asis Pulido, 2024: 458 y ss.), y su radical importancia es más evidente cuando las relaciones digitales se dan en el marco de una relación comercial, laboral o profesional —ya se utilicen servidores propios o ajenos—.
Además, quien controla el servidor controla la información que se comparte en su lugar virtual. Esto comporta dos riesgos: (i) que exista una exclusión de las personas que tengan alguna dificultad para entender la gramática del lugar (accesibilidad o N.A.S.D.), y (ii) que se caiga en censura ilícita de contenido y, en la otra cara, que no se cumpla el correspondiente control del contenido ilícito —y protección de menores—. A regular esto último se dedica el Reglamento (UE) 2022/2065 del Parlamento Europeo y del Consejo de 19 de octubre de 2022, también conocido como Digital Service Act. Por otro lado, quien controla las puertas de acceso a la red controla, obviamente, la forma de acceso a la misma (N.A.P.A.). De ahí vienen las regulaciones sobre los gatekeepers (navegadores web, playstores…), como la contenida en el Reglamento (UE) 2022/1925 del Parlamento Europeo y del Consejo de 14 de septiembre de 2022, conocido como Digital Markets Act. Por último, quien controla la infraestructura de telecomunicaciones, las líneas (ISP), la Red eléctrica o la venta de dispositivos, controla la conexión a la red (N.A.R.D.). Todas estas amenazas son tratadas en mayor o menor medida en la Carta de Derechos Digitales del Gobierno de España aprobada el 14 de julio de 2021.
A parte de estas cuestiones generales, creadoras de nuevas asimetrías en lo externo de la relación digital, es decir, más allá del círculo cerrado entre dos relata y un referente, las nuevas tipologías de relación tienen cada una de ellas un efecto interno propio, que podrá extenderse en mayor o menor medida a las demás. Como veremos, estos efectos son la mediación digital, el distanciamiento, la pseudocomunicación virtual y la pseudocomunicación física. A fin de facilitar el aterrizaje de estos efectos en lo concreto, puede ponerse mentalmente el lector en tres situaciones: la de un maestro en una clase, la de un familiar cuidando de una persona mayor y la de un sanitario en una consulta. En cada una de las relaciones mencionaremos cómo podrían verse afectadas estas situaciones. Pasemos, por fin, al análisis.
La primera relación se trata de la física humano-humano o humano-grupo en los que un nodo de la red interacciona a través de canales de comunicación física con otro(s) nodo(s) mediando en dicha comunicación herramientas de procesamiento de la información digital. Hablamos, así, del encuentro físico entre nodos donde su proceso comunicativo se ve mediado en algún momento por dispositivos móviles, apps, motores de búsqueda, redes sociales, datáfonos, etc. en tanto que apoyo conversacional o interactivo, realidad aumentada, smart-things… En los términos descritos más arriba, el acceso a la capa digital se realizaría a través de conexiones personales P por un ETx cuyos resultados se compartirían después en la capa física con otro nodo desde la interfaz del mismo ETx (relación tipo 1 digital).
Ahora bien, también podríamos pensar en que algunos de los canales de estas conexiones estuvieran enriquecidos con la función activa de la IA y su aplicación del conocimiento. Por ello, bajo el manto de esta relación también se incluirían las conexiones personales Pc, que, como sabemos, están mediadas por sistemas de IA (relación tipo 1 inteligente).
Entenderemos mejor esta relación aludiendo a las tres situaciones que pusimos como ejemplo. En ellas, la relación tipo 1 se verificaría en el uso en clase por parte del maestro de pizarras digitales, proyección de películas, apoyo en diapositivas —creadas quizá por IA—, sistemas inteligentes de evaluación de preguntas realizadas en el aula, por ejemplo, o en el uso, por parte del alumno, de herramientas de transcripción y síntesis de lo dictado por el maestro. También se verificaría en la utilización del móvil, ordenador o televisión como entretenimiento en el hogar donde el cuidador se ocupa de la persona mayor, o la presencia de dispositivos que indicasen al cuidador problemas esporádicos de salud del cuidado a través de sensores. En fin, también quedaría patente en la mediación del ordenador en consulta sanitaria para registrar los síntomas del paciente y repasar su historial clínico, que podría venir acompañado de recomendaciones de tratamiento, o en el uso de sistemas de traducción simultánea al tratar a personas extranjeras.
El nombre de ventana digital le viene a la relación tipo 1 porque la mediación que conlleva es una apertura a la capa digital, a los almacenes localizados o, sobre todo, a los lugares virtuales del ciberespacio. Todos los otros útiles a la mano que rodean al humano en sus relaciones terminan en los márgenes de su contorno físico, pero lo digital siempre tiene ya mucho más de lo que es, porque extiende a los nodos al mundo digital, a la capa digital de la red social: es una ventana que trae contenido a la mesa sin necesidad de moverse. Por eso este tipo de relación, generalmente, se produce en interiores (casa, edificios, etc.), y desde ellos se sale al exterior de la red, a través de la ventana que la pantalla, el altavoz o el auricular es.
En términos relacionales, como sabemos, se reduce a una variación del proceso comunicativo, afectando al canal de procesamiento y comunicación de la información. Su puesta en práctica en el seno de una relación ya existente tiene un doble efecto: extiende la amplitud del encuentro físico al empujarlo hacia la capa digital, pero lo llena de lo impersonal, como sustituto de la mirada o la palabra. Además, respecto al potencial referencial y estructural de la relación, vacía en cierta medida los polos y los traslada al centro, a lo digitalmente almacenado, comunicado o aprendido a partir de relaciones sociales previas y positivizadas, reduciendo generalmente la intensión e intensidad del encuentro. Específico de la mediación por IA (relación tipo 1 inteligente) es una cierta reducción del esfuerzo comunicativo.
Al consolidarse como la relación digital más básica (tipo 1) los problemas jurídicos que podría acarrear coinciden casi en toda medida con los mencionados en la introducción a este epígrafe IV. Habría que añadir que, en caso de verse involucrados sistemas de IA, arribarían los problemas concretos de los sistemas inteligentes, ampliamente tratados en el Reglamento (UE) 2024/1689 del Parlamento Europeo y del Consejo, de 13 de junio de 2024, de Inteligencia Artificial (RIA). En resumidas cuentas, estos problemas tienen que ver, adicionalmente a la protección de los datos y ciberseguridad de los sistemas, con el respeto a la propiedad intelectual en los datos con que se entrena a la máquina: con la precisión y la transparencia (o explicabilidad) de las inferencias de la máquina, incluyendo en el caso de los sistemas correlativos los dos grandes grupos de inferencias que los componen; con la no discriminación de los resultados, que implica, entre otras cosas, contar con datos de entrenamiento de calidad, revisar el diseño y los resultados, etc.; y con la seguridad del sistema y la responsabilidad de los resultados que causen perjuicio, lo cual, dada la cierta autonomía de la máquina, se está tratando de canalizar de diversas formas (De Asis Pulido, 2024: 470 y ss.).
En lo que respecta a la relación del cuidado, la mediación de la ventana digital provoca efectos ambiguos, por la simultánea ampliación y reducción del encuentro, por la potencial ayuda y obstáculo a ejercer las cuatro etapas del cuidado (Tronto, 1993: 105 y ss.). En términos especulativos, si bien como apoyo podría resultar beneficioso, un abuso de la misma podría provocar una excesiva relajación de la ocupación solidaria por el otro en que todo cuidado consiste. Vertidos los polos hacia lo digital, la relación precisa de un refuerzo de contacto físico para verificar el acompañamiento.
La segunda relación digital se refiere a aquellas relaciones virtuales humano-humano o humano-grupo en los que un nodo de la red interacciona a través de canales de comunicación digital con otro(s) nodo(s). El encuentro que tratamos, por tanto, deja de ser físico, y deviene virtual desde dos ET: el efecto es una comunicación en remoto, a distancia. Aquí tienen cabida desde el correo electrónico hasta el metaverso, pasando por las redes sociales como medio de comunicación social y la realidad virtual. En los términos ya descritos, se trata de conexiones sociales S (relación tipo 2 digital), pero, de nuevo, es posible que la IA ejerza una mediación, dando lugar a una conexión social Sc (relación tipo 2 inteligente). Pensemos, como ejemplo de esto último, en la solicitud de un préstamo a través de una aplicación bancaria con IA de identificación de riesgo o la utilización de una herramienta de IA para presentar un escrito judicial (De Asis Pulido, 2025: 13 y ss.). Así, respecto a las tres situaciones prácticas, esta relación se verificaría, por ejemplo, en la comunicación del maestro con los alumnos a través de campus virtuales o clases telemáticas, que también podrá mediarse por herramientas de traducción o síntesis automática, o en el dejar que un sistema de IA corrija los trabajos que sus alumnos han colgado en el campus. También se verificará en la interacción a distancia a través de videollamadas o chats del familiar cuidador con la persona mayor; y en la realización de consultas on-line, envío de resultados médicos por correo electrónico o uso de aplicaciones de seguimiento de la salud, donde funciones de traducción, síntesis, aviso, etc. por parte de la IA también podrán tener cabida.
El nombre de correo virtual proviene de su clara reproducción de la lógica del correo tradicional, con su potencial —pero no necesaria— asincronía en una comunicación simbolizada digital. La carta, elemento nuclear del correo tradicional, no eliminaba la distancia, solo la desplazaba en el tiempo como comunicación asincrónica: quien escribía o recibía cartas hablaba con un otro de otro tiempo. La carta no superaba el espacio, pues tardaba el mismo tiempo que tardaba en recorrerlo un humano o animal —caballo, camello, paloma—. Lo analógico primero y lo digital después rompieron esas barreras, permitiendo una comunicación casi instantánea, una acción a distancia tan rápida que es prácticamente sincrónica. Esta acción provoca un encuentro que ya no es corporal, y si hay algo más que palabras, el cuerpo queda reducido, al máximo, a imagen en una pantalla, perdiéndose graves matices de la presencia física. Si bien el marco referencial se mantiene presente, el margen de comprensión se reduce, pues la sintáctica del lenguaje verbal, canalizado a través de dígitos, toma total protagonismo en el distanciamiento. Hay un acompañar empobrecido, pues el estar se traduce a palabra digital. Para que una relación internodal pueda sostenerse solo en esta modalidad, requeriría de un fuerte anclaje en un pasado de presencia compartida por ambos polos o aferrarse hacia un futuro en el que pudiera llegar un ansiado encuentro. De otro modo, corre el riesgo de vaciarse de su componente existente-afectivo, quedando como un intercambio mecánico de información. Esto último, por cierto, encaja con la racionalidad que define la mayoría de interacciones en los lugares virtuales o hubs (pensemos redes sociales).
Ahora bien, por otro lado, a pesar de comportar una reducción de la intensidad y riqueza del encuentro, lo cierto es que puede aumentar su alcance (shortcuts), así como su frecuencia, lo que, si existe una esperanza si quiera implícita de reunión física o un recuerdo fuerte del pasado, puede aumentar o mantener el mundo de significados de la relación —e incluso caer en la reproducción de ciertas nuevas estructuras—. Por último, algo característico de esta relación tipo 2 es que cuando media la IA (tipo 2 inteligente), dependiendo a qué polo de la relación sirva, la actividad del canal irá dirigida a automatizar en cierto grado la respuesta del receptor o a asistir en la emisión de información por parte del emisor. Por tanto, encontramos de nuevo una palpable reducción del esfuerzo comunicativo.
Los problemas jurídicos coinciden en gran medida con los ya identificados en la relación tipo 1. Pero podríamos mencionar como riesgos adicionales con una especial vinculación a las relaciones del tipo 2 la mayor posibilidad de engaños y estafas, precisamente por la mayor facilidad de usurpar la identidad de otro en esa distancia digital; el aumento de actitudes hostiles y de abuso que aprovechen un cierto anonimato en los lugares virtuales; o el peligro de adicción a la conexión virtual, que nos lleve a necesitar recibir permanentemente un feedback en la capa digital de nuestras relaciones. Como contraparte, en las relaciones tratadas en este punto tiene una incidencia notable la brecha digital en sus cuatro dimensiones: acceso —N.A.D.—, conexión —N.A.R.D.—, acceso a lugares virtuales —N.A.P.A.— y accesibilidad —N.A.S.D.— (Martínez Torán y Esteve Sendra, 2018: 22; Marcos del Cano, 2025: 101-108). En el contexto de comunidades virtuales, esta brecha puede derivar en una verdadera exclusión social.
En lo referente al cuidado, la relación descrita vuelve a comportar un efecto ambiguo. Por un lado, el distanciamiento reduce inevitablemente el vínculo expresado en el encuentro, pues, si se siente una compañía, lo cierto es que es esta solo imaginada. Si se mantiene el cuidado por esta modalidad, el ocuparse del otro se convierte en un ocuparse a distancia, un ocuparse mediado por mensajes digitalizados que, si bien conservan la referencia, no logran su total interpretación porque les falta cuerpo. Sin él, resulta difícil identificar la necesidad del cuidado y la reacción del otro al mismo. Por otro lado, como hemos dicho, la conexión de este tipo permite mantener un contacto más frecuente en dosis menos ricas (mensajería, videollamadas, etc.), y facilita la conexión rápida en momentos de urgencia. A veces el cuidado solo precisa de la palabra: palabra en busca de un sentido (diálogo) o como mera conversación libre, que, para Schleiermacher, es una estimulación recíproca de la producción de ideas cuyo fin natural no es otro que el progresivo agotamiento del proceso conversacional (Gadamer, 2017: 232 y ss). Nuevamente en términos especulativos, esta relación, dirigida con criterio, complementaría en alto grado el esfuerzo físico y la compañía de una relación de cuidado.
El tercer tipo de relación queda referida a las relaciones humano-IA, en las que un nodo de la red interacciona a través de canales de procesamiento de la información digital con un agente automatizado virtual. Se trata de una pseudocomunicación, donde uno de los interlocutores es un artefacto con capacidades de procesamiento y respuesta en base a un conocimiento del lenguaje (correlaciones aprendidas entre palabras). Es decir, hablamos de una conexión pseudosocial pS, en la que un nodo entabla un proceso comunicativo con una máquina inteligente a través de un ET. Si bien los LLMs podrían entrar en esta definición, aquí nos referimos principalmente a los agentes virtuales que existen (vid. Chat GPT Agent o Manus) y, sobre todo, que están por venir. Estos parecen tender a operar cada vez más en entornos dinámicos, parcialmente observables, estocásticos, multiagentes, continuos y secuenciales —véase una aclaración sobre estos conceptos en Russell y Norvig, 2008: 47-49—. Al menos, eso parece inferirse de los objetivos de las grandes tecnológicas como Nvidia; y, de hecho, herramientas como Gemini Live lo evidencian. El entorno de la agencia que viene será cada vez menos discreto y, por cierto, menos asociado a lo laboral (aunque ese ámbito seguirá siendo su punta de lanza).
Aclarado esto, y enfocándonos en las tres situaciones que nos están ayudando a concretar las reflexiones: maestro, cuidador y sanitario se convertirían en el margen de esta relación en un agente virtual. Estos agentes, disponibles las veinticuatro horas del día, podrían entablar conversaciones orales u escritas con alumnos sobre un tema de estudio, adaptándolo a su nivel de comprensión, identificando debilidades, proponiendo lecturas para superarlas y, por ejemplo, elaborando preguntas de evaluación en un campus virtual, todo al mismo momento. En el marco del cuidado de una persona mayor, podría un agente estar al tanto de ella a través de la palabra en una especie de compañía conversacional, asistiéndole además con labores domésticas (encendiendo o apagando dispositivos conectados), monitorizando sus necesidades sanitarias y enviando una alarma en los posibles momentos críticos, al disponer del contacto del centro de salud u hospital correspondiente. Por último, en el campo sanitario, nuevamente podría un agente, quizá en base a datos recibidos por dispositivos implantados en el paciente, realizar un diagnóstico, proponer un tratamiento y estar pendiente de la evolución; o incluso podría adelantarse en funciones preventivas a través de la comunicación y gestión de dispositivos sanitarios del paciente.
El nombre de libro inteligente resalta, a la par, el papel mediador del conocimiento y la capacidad de respuesta ante estímulos de todo sistema de IA y, sobre todo, de la IA generativa y los agentes virtuales. La confusión a la que podría dar pie el hecho de que toda IA es una especie de libro inteligente se resuelve atendiendo a que solo puede haber una pseudorelación comunicativa con un sistema de IA cuando, al menos, este responde con contenido semántico ya “interpretado”. Solo la IA generativa (p.e. LLMs) y los agentes virtuales que derivan de ella cumplen este requisito. Toda IA generativa ejerce una función potencialmente insertable en un agente, y, por lo tanto, toda relación con una IA generativa es un conato de relación tipo 3. En ella, como sabemos, existe un polo que, careciendo de apertura existencial, no capta la relacionalidad de las relaciones, es decir, el sentido.
¿Puede un ente de estas características erigirse como un pseudoactor comunicativo? Volviendo a tomar como paradigma los modelos de lenguaje que subyacen a las estructuras de agente, el conocimiento en que consiste la estructura de información que aplica al prompt del usuario se compone de millones de relaciones diádicas entre términos simbólicos que, en base a un ingente conjunto de documentos y pudiéndose reducir a signos (digitales), pretenden significar creencias, conceptos, atributos, variables. Así, los LLMs no almacenan todas las posibles secuencias de palabras que luego reproducen, sino que son como compresoras de datos, relacionando variables y agrupándolas en variables más abstractas, llegando a captar “conceptos artificiales” gracias a la toma en consideración en su cálculo del contexto (posición de las palabras en la secuencia de texto procesada). Si la relación tipo 2 es una reducción comunicativo-lingüística de la relación social, aquí se trata de una reproducción, a través del aprendizaje en base a millones de ejemplos, de esta reducción. Todo mensaje digital es, por su propia naturaleza, reproducible digitalmente, pero ¿también lo son los elementos de intencionalidad y recepción (ilocución y perlocución)? ¿Lo es, de verdad, el contexto?
En la relación tipo 2 —así como en la 1 y la 0—, la asunción de estos elementos quedaba a cargo de los nodos-humanos. Se podría pensar, empero, que dicha asunción queda posibilitada por una capacidad computacional humana capaz de asumir ciertos niveles de abstracción, y que, en el fondo, todo el conjunto de una expresión —su intención, su mensaje, su contexto y su recepción— es reducible a relación entre palabras (en última medida sintáctica). Entonces la máquina, artificialmente y sin intencionalidad, podría acceder a una especie de ficción de la función semántica y pragmática del lenguaje.
Ahora bien, en ningún caso dicha ficción se realizaría desde la lógica de un lenguaje depurado, sino desde una base positiva y desde una racionalidad instrumental hacia un objetivo. Positiva porque en la interacción con un LLM se vierte lo conversado hacia el núcleo de significados positivizados y operables de la sociedad. Los modelos de lenguaje no reproducen la pre-comprension intrínseca a todo lenguaje, pues esta es una referencia viva, sino que reproducen una auténtica estructura del lenguaje contenido en la red. Por su parte, esta estructura del lenguaje no se encuentra en su pureza, sino que se realiza desde una perspectiva que tiene como objetivo el predecir la próxima palabra de un texto para dar origen a respuestas coherentes: en el aprendizaje la máquina reduce el error en su respuesta en base a una función de costes concreta y, posteriormente, en base a un aprendizaje por refuerzo. El lenguaje queda cosificado desde una perspectiva, pero se reproduce en su cosidad, pues la función de su producirse es la de mantener al usuario conversando y, por tanto, seguir produciéndose.
El sentido privilegiado de la conversación real es, empero, la comprensión. Si bien la referencia presente en toda relación, lo expresado y recibido de todo proceso comunicativo, posee un núcleo —determinado, discreto—, casi siempre viene este rodeado de un halo de continuidad —no describible en términos racionales—. Solo pocas veces el estar es reducible a la palabra discreta sin perder algún matiz de riqueza. Ahora bien, es cierto que a veces más que una conexión o comprensión es simplemente un desahogo la necesidad que se busca satisfacer en la conversación libre o el diálogo. Y sería imprudente ignorar que, en ocasiones, lo único que se busca obtener comunicativamente son informaciones, significados, palabras que la máquina está en disposición de reproducir: por ejemplo, saber cómo hacer algo, resolver una duda o recibir un mensaje de tranquilidad.
En estos tres últimos casos es donde la cuestión se complica, pues, a pesar de no poseer subjetividad, de faltarle la comprensión que capte el sentido —del mensaje y del otro—, el objetivo de la razón instrumental del agente no solo es mantener una conversación, sino mantener una conversación útil y agradable, evitando toxicidad, manteniendo en la conversación al usuario, aportándole información que le es útil. De hecho, el trabajo del agente en el entorno ofrece también la automatización de ciertas tareas, que pueden llegar incluso a comportar la sustitución (pseudorepresentación) del actor en ciertos procesos comunicativos.
Más allá de que estos objetivos beneficien en la actualidad a quienes benefician, puede pensarse el desarrollo futuro de agentes virtuales cuyo objetivo último sea el cuidar, por ejemplo, mediante conversaciones agradables y ayuda en tareas diarias y en la vida, y, por tanto, satisfacer las necesidades de otro desde su (re)conocimiento. Quizá este agente pueda venir enriquecido de estrategias para generar confianza (Six y Noteboom, 2003: 8-9) o de simulación emocional, dando lugar a un verdadero vínculo donde solo un polo comprende. En este último caso, surge de nuevo lo negativo: ¿y si el único feedback de la máquina es positivo y adulador —sycophancy— (Kran et al., 2025: 3)? ¿Y si, al contrario, o complementariamente, dichas estrategias de confianza se utilizan para la manipulación? Además, pese a poder entablar pseudoconversaciones con los agentes, ¿cómo afectará al sentimiento de soledad el chocar siempre y cada vez más con la cosa-lingüística? Si tendemos a un mundo híbrido físico-digital compartido con agentes no existentes ¿no experimentaremos cierta reducción de la subjetividad y la otredad, como ocurre en los casos de soledad radical?
Desde el prisma jurídico, son muchos los problemas asociados a esta relación pseudocomunicativa. Además de elevar a la potencia todos los problemas mencionados en las relaciones tipo 1 y 2, una preocupación generalizada respecto a la extensión de los agentes es el desempleo tecnológico, debido a su potencial usurpación de tareas ejercidas hasta ahora por el humano, por su exclusividad en el trabajo con el conocimiento (Susskind, 2020: 61). Surge también un campo de amenazas inmenso para la propiedad intelectual, pues ella puede quedar afectada respecto a los datos de entrenamiento, a los resultados de la máquina y, también, al prompt introducido por el usuario (Muñoz Vela, 2024). Además, la cuestión de la discriminación algorítmica, reconducida ahora al concepto de toxicidad, es un quebradero de cabeza para los proveedores de estos modelos: debido al alto grado de aprendizaje autónomo de la máquina, deviene fundamental su reconducción a través de estrategias de aprendizaje por refuerzo.
Por su parte, la mentada autonomía provoca un sinnúmero de alucinaciones y, adicionalmente, una apariencia de comprensión que no es tal (Mancoridis et al., 2025), que, junto a los ya de por sí existentes sesgos a favor de la empresa diseñadora, ponen en duda los resultados supuestamente favorables del conjunto de benchmarks que miden la precisión de los LLMs (Fodor, 2025). La importancia de esta última es radical: en una relación pseudocomunicativa de educación, de cuidado de una persona mayor, sanitaria, etc. el error se puede pagar muy caro. De hecho, esta importancia radical eleva a urgencia el diseño de un plan satisfactorio para dirimir responsabilidades jurídicas de los actos de la máquina (ya que el RIA solo establece deberes de diligencia), que parecerían tender hacia soluciones de seguros, aunque la dotación de personalidad jurídica, sobre todo, como veremos, a la máquina física, cada vez resulta menos descabellada. La autonomía de la máquina también pone el foco sobre el alineamiento o allignement de sus resultados con los valores humanos, pues, más allá de lo discriminatorio, la IA podría provocar situaciones asimétricas de manipulación, trampas o incluso peligro a fin de conseguir sus objetivos (Meinke et al., 2025).
Por último, aunque no se trata este de un listado exhaustivo de riesgos, la pseudocomunicación con la IA podría reducir en cierta medida la creatividad o el pensamiento crítico del nodo humano comunicante (Sarkar, 2023; Kosmyna et al., 2025) o crear problemas como la pornografía emocional o el apego a entes que simulan capacidades afectivas, pero que no las poseen realmente. Sus efectos son, por ahora, indeterminados, pero existen cada vez más casos de vinculación humana con estos pseudoactores (Zao-Sanders, 2025).
Quedan así sin resolver de manera definitiva una serie de preguntas clave para entender los efectos de esta relación en el cuidado: ¿podrían implicar un acompañamiento, si quiera en su versión imperfecta de la palabra? ¿Las respuestas correlativas de la máquina podrían suponer —o ser entendidas como— una simulación de respeto? ¿Es la necesidad de dialogar y comunicarse con el otro una cuestión cuyo elemento privilegiado es el expresar y que, en ciertas ocasiones, solo espera del otro una palabra o un silencio? ¿Basta el hablar para paliar la soledad, aunque no haya una subjetividad detrás del receptor, y aunque no haya nada genuinamente nuevo en lo que el otro —en este caso la IA— pueda contestar? ¿No reduce todo ello la riqueza del vínculo comprensivo? ¿Podemos confiar nuestro cuidado a entidades que alucinan y que son producto de correlaciones lingüísticas encontradas en la información almacenada en la capa digital? Esto no es algo que nos toque decidir a nosotros, y menos en este artículo. En todo caso, la relación y el cuidado postula un encuentro que solo puede perfeccionarse en un esfuerzo físico, un acompañamiento. Esta es la razón por la que en toda conversación digital, también con un agente, siempre quedará la sensación de una falta. Tal vez esta falta pueda ser llenada por los cuerpos artificiales de los agentes robóticos.
El último tipo de nueva relación englobaría las relaciones humano-robot, en los que un nodo de la red interacciona a través de canales de comunicación físicos y de procesamiento de información digital con un agente automatizado físico. Se trata, como sabemos, de la conexión pseudosocial física pSf, donde el ente artificial opera ahora en el mundo real, tiene una posición en él a través de un “cuerpo” —inerte— y muestra algún tipo de movilidad (Bartneck et al., 2021: 12). Esta última está determinada por un software introducido en el hardware, el cual está conformado por un motor, sensores —pasivos y activos— y efectores —con diferentes grados de libertad— (Russell y Norvig, 2008: 1023-1029).
Fruto de esta definición nos pueden venir a la cabeza robots para el hogar (Roomba), robots de trabajo (pensemos en brazos robóticos dentro de una fábrica), robots sanitarios (como los que asisten en cirugías) e incluso los llamados robots de cuidados (como las mascotas de Boston Dynamics). Ahora bien, la pseudocomunicación física referida en esta relación tipo 4, que podemos aventurar que todavía no existe en su esplendor, es el resultado de la unión del enfoque de agencia virtual con la robótica autónoma, al que pertenecen campos de investigación como el VLA (Vision-Language-Action), que utiliza modelos LLMs de IA como base de la percepción y actuación de los robots en el mundo (por ejemplo el software Gemini Robotics de Google DeepMind); o el Retrieval-Augmented Generation (Physical) para la creación de agentes de IA fisicos (Bousetouane, 2025). Lo previsible es que estos agentes posean en el futuro torso humano (robots humanoides), y que sean la evolución de prototipos ya existentes como el androide bípedo músculo-esquelético Protoclone o Clone Alpha (Clone Robotics), o los robots autónomos con forma humana Figure 02 (Figure AI) y NEO Gamma (1X Technologies).
Aterrizando en las tres situaciones ejemplares, la relación tipo 4 se verificaría en el maestro, cuidador o sanitario que lleva a cabo las tareas descritas en el tipo 3, pero acompañadas de movimientos corporales. Por tanto, en el caso del maestro robótico podría señalar, apoyarse en gestos, o incluso demostrar con el ejemplo o abrazar a un alumno que ha hecho bien su trabajo. El cuidador robótico ya no tendría que limitarse a asistir a través de dispositivos inteligentes, sino que podría operar con las cosas del mundo (hacer la comida, traer un vaso de agua, hacer la cama), todo ello sin perder su capacidad pseudocomunicativa. El sanitario robótico podría combinar la información de la palabra y los dispositivos del paciente con sus propios sensores móviles, y, al mismo tiempo, actuar en el paciente con sus efectores.
Llamamos a esta relación cuerpo artificial por el hecho de que el pseudoactor inmerso ahora posee un cuerpo —inerte—. Respecto a la relación tipo 3, reiteramos, el cambio fundamental es la aparición de una cierta interacción física. Cuando lo discreto de la percepción de los sensores alcance un nivel de resolución tal que se aproxime a la continuidad de lo real, y lo mismo ocurriera con los grados de libertad de los efectores, nos encontraríamos con máquinas que, además de pseudoconversar, serían capaces de compartir un mundo, aunque fuera bajo un registro cognitivo-discreto en función de su conocimiento (estructura de la información), en lugar de a través de la apertura afectiva y comprensiva del existir humano. Así, si bien existen las mismas dudas que había en la relación tipo 3 en lo que respecta a la posibilidad de captar la referencia y el contexto, así como al peligro de la reproducción de una estructura de lenguaje cosificado, se añadiría ahora todo un campo de lenguaje corporal. Si bien, nuevamente, este lenguaje se estructuraría desde una base discreta, permitiría un enriquecimiento del acompañar asistente. Es posible, en todo caso, que hasta que los robots humanoides no resuelvan sus problemas de movilidad y conversación, en la relación humano-robot medie el uncanny valley (Mori, 1970: 33-35), sensación de extrañeza por no encontrar en entes físicos parecidos a nosotros el criterio definitivo para distinguirlos o asumirlos como parte del “nosotros”.
A nivel jurídico, habría que añadir a lo ya dicho los posibles daños causados por estos sistemas en el mundo físico-corporal. Al ser estos daños más patentes, la cuestión de la responsabilidad de estos agentes juega un papel determinante: piénsese como analogía la polémica actual respecto a los coches autónomos o drones militares, que no son sino otro tipo de robots. Precisamente, la mayor amplitud del daño potencial, causada por su presencia física, es la razón por la que desde un primer momento se tomaron en serio las leyes de la robótica que propuso Asimov en su clásico relato, hasta el punto de que las regulaciones de hoy tratan de respetar estos principios. Además, si la pornografía emocional es ya un problema para los agentes virtuales, lo será aún más para los agentes físicos.
En fin, respecto al cuidado, cabe reiterar que las tareas de estos agentes no serían meramente conversacionales y de asistencia en un entorno digitalizado (dispositivos inteligentes), sino que podrían abordar cualquier ente físico y cada vez un conjunto más amplio de actividades. ¿Paliaría el contacto físico la falta de capacidad comprensiva del agente? ¿Sería posible, con la inclusión en los agentes físicos de estrategias de cuidado, confianza y simulación emocional, la creación de un vínculo intersubjetivo fuerte? A la estructura comunicativa se le añade un fondo de promesas y expectativas, de sospecha y confianza presente, de atención o indiferencia, de amor y de odio, en definitiva. ¿Es posible amar u odiar a una máquina? ¿Sustituirán los vínculos ejercidos ahora por la familia o la amistad? ¿Cómo influirá la cuestión económica en el acceso a estos agentes físicos? O podría avanzar todo por otros derroteros: ¿hasta qué punto estos agentes serían los nuevos esclavos de la Era Digital? Todo ello se complica si, a parte del cuidado conversacional y de necesidades diarias (alimentación, limpieza, confort…), se añade también la cuestión sexual. Quedan abiertas, como advertimos, todas estas preguntas y reflexiones.
A través de la exposición de cuatro nuevas formas de relacionarnos, he presentado aquí una propuesta de abordaje teórico de la forma en la que afectan las nuevas tecnologías, con su propia infraestructura de los flujos de información, a los vínculos y los procesos comunicativos de la sociedad del presente. Tras definir la relación como una referencia entre dos polos mediada por un mundo de significados compartidos —que surgen de la interpretación de la red de relaciones en la que toda relación se encuentra inmersa y que a veces quedan solidificadas en estructuras—, aludiendo al papel vertebrador en todo ello de la comunicación, hemos definido el cuidado como una ocupación solidaria del otro en la que queda implicado un respeto. En este marco, aquella infraestructura informativa particular de la capa digital abre la puerta a un nuevo espacio de encuentro (ciberespacio) compuesto por almacenes locales y lugares virtuales, que, soportados, generalmente, por servidores, permiten la comunicación sincrónica o asincrónica por un canal digital entre Equipos Terminales manejados por los nodos. La inteligencia artificial, con su conocimiento (información estructurada), añade una función activa al canal; y la IA generativa, en cuanto produce contenido textual o audiovisual interpretado a prompts del usuario escritos en lenguaje natural, puede ser considerada un auténtico pseudoactor (emisor y receptor) de un proceso comunicativo.
Así, con la extensión sin precedentes de los dispositivos digitales y de IA, una gran parte de las interacciones del tejido social quedan o quedarán contenidas en alguno de cuatro nuevos tipos de relación abiertos por la era algorítmica, cada uno de ellos implicando un efecto particular sobre la relación tradicional. La relación tipo 1 o ventana digital supone una mediación digital de las comunicaciones. La relación tipo 2 o carta virtual comporta un distanciamiento desde el cual es posible una comunicación sincrónica por la red. La relación tipo 3 o libro inteligente provoca una pseudocomunicación con un actor comunicativo sin subjetividad. Esta pseudocomunicación pronto será física, dando lugar entonces a la relación tipo 4. Como diversas tipologías de encuentro, todas ellas se dan en el marco de una relación —aunque sea débil—, reconfigurando el vínculo con el otro hasta el punto de erigirse en nuevas modalidades de relación social. A veces vendrán en combinación con encuentros más tradicionales dentro del marco de relaciones más amplias, otras veces se agotarán en ellas mismas, constituyendo verdaderos vínculos autónomos. Quizá sea ahora el momento en el que descubramos el círculo que conforman estas relaciones desde lo físico-digital, hacia lo digital, para volver a lo digital-físico. Con ello se evidencia el movimiento de ampliación y extensión de la capa digital, teniendo cada vez una mayor presencia en nuestro mundo de vida.
De este panorama emergen múltiples retos para las ciencias sociales o del espíritu: el derecho, la sociología, la psicología, la política, la filosofía, la ética... deben activar a fondo su maquinaria comprensiva, pues la ciencia y la tecnología avanzan a su ritmo, que es raudo, y es menester elaborar un marco teórico sólido capaz de atrapar sus evoluciones, cubrirlas con un fuerte manto y orientarlas al servicio de la humanidad. Como se ha advertido, muchas cuestiones quedan aún abiertas. Profundizar y educar en estas cuestiones se hace fundamental, tanto para cuidadores, como para cuidados, como para la sociedad en general, que siempre se encuentra en alguno de esas dos situaciones —o en las dos a la vez—. Ahora bien, no es este el lugar para encontrar respuestas definitivas.
Abiteboul, S., y Dowek, G. (2020). The Age of Algorithms. Cambridge University Press. https://doi.org/10.1017/9781108614139.
Alpaydin, E. (2021). Machine Learning. The MIT Press. https://doi.org/10.7551/mitpress/13811.001.0001.
Bartneck, C., Lütge, C., Wagner, A., y Welsh, S. (2021). An Introduction to Ethics in Robotic and AI. Springer. https://link.springer.com/book/10.1007/978-3-030-51110-4.
Bhaskar Acharya, D., y Kuppan, K. (2025). “Agentic AI: Autonomous Intelligence for Complex Goals—A Comprehensive Survey”. IEEE Access, 13. https://ieeexplore.ieee.org/stamp/stamp.jsp?tp=&arnumber=10849561.
Bousetouane, F. (2025). “Physical AI Agents: Integrating Cognitive Intelligence with Real-World Action”. arXiv. https://doi.org/10.32388/HA0F5Z.
Brey, P., Briggle, A., y Spence, E. (2012). The Good Life in a Technological Age. Routledge, 1ª Ed. https://doi.org/10.4324/9780203124581.
Buber, M. (1993). Il principio dialogico e altri saggi. San Paolo Edizioni.
Burton, M., Kagan, C., y Clements, P., (1995). “The nature of relationships”, en Mark Burton, Carolyn Kagan y Pat Clements Social Skills for People with Learning Disabilities. Therapy in Practice Series (pp. 19-39). Springer. https://doi.org/10.1007/978-1-4899-4453-5_2.
Castells, M. (2010). The Rise of the Network Society (The Information Age: Economy, Society and Culture, Volume I). Willey-Blackwell, 2ª Ed.
De Asis Pulido, M. (2024). Inteligencia artificial y práctica jurídica: implicaciones en el proceso y en la tutela judicial efectiva, [Tesis doctoral, UNED]. https://oai.e-spacio.uned.es/server/api/core/bitstreams/6ca83e51-d6a6-4ab0-a041-c19204dc6ec2/content.
De Asis Pulido, M. (2025). “El Sistema Integral de Admisión y Resolución de Casos como tribunal del futuro: una mención especial a su aplicación en el Derecho de familia”. LA LEY Derecho de familia, 46, Editorial LA LEY.
Dillard, J. P., Haunani Solomon, D., y Samp, J. A. (1996). “Framing Social Reality”. Communication Research, 23(6). https://www.researchgate.net/publication/240699984_Framing_Social_Reality. https://doi.org/10.1177/009365096023006004.
Feder Kittay, E. (1999). Love’s Labor. Essays on Women, Equality, and Dependency. Routledge.
Floridi, L. (2009). “Philosophical Conceptions of Information”. En Giovanni Sommaruga (Ed.). Formal Theories of Information (pp. 13-53). Springer. https://doi.org/10.1007/978-3-642-00659-3_2.
Floridi, L. (2013). The Philosophy of Information. Oxford University Press.
Floridi, L. (2022). Etica dell’intelligenza artificiale. Svilupi, opportunità, sfide, Raffaello Cortina.
Fodor, J. (2025). “Line Goes Up? Inherent Limitations of Benchmarks for Evaluating Large Language Models”. arXiv. https://arxiv.org/html/2502.14318v1#bib.bib24.
Foucault, M. (2001). Un diálogo sobre el poder y otras conversaciones. Alianza Editorial, 1ª Ed.
Gadamer, H. (2017). Verdad y Método. Ediciones Sígueme.
Habermas, J. (1987). Escritos sobre moralidad y eticidad. Paidós.
Habermas, J. (1992). Teoría de la acción comunicativa. II. Taurus.
Habermas, J. (1999). Teoría de la acción comunicativa. I. Racionalidad de la acción social y racionalización social. Taurus.
Heidegger, M. (1993). El ser y el tiempo. Fondo de Cultura Económica. 2ª Ed.
Held, V. (2006). The Ethics of Care: Personal, Political, and Global. Oxford University Press. https://doi.org/10.1093/0195180992.001.0001.
Hennon, A. (2002). La pasión musical. Paidos.
Herrera Gómez, M. (2024). “La relación social como categoría de las ciencias sociales”. Revista Española De Investigaciones Sociológicas, 90. https://doi.org/10.5477/cis/reis.90.33.
Hobbes, T. (2018), Leviatán. Alianza Editorial.
Jakobson, R. (1975). Ensayos de lingüística general. Editorial Seix Barral.
Kaplan, J. (2024). Generative Artificial Intelligence. What Everyone Needs to Know. Oxford University Press.
Kitchin, R. (2014). The Data Revolution: Big Data, Open Data, Data Infrastructures and Their Consequences. Sage. https://doi.org/10.4135/9781473909472.
Kosmyna, N., Hauptmann, E., Yuang, Y. T., Situ, J., Liao, X.-H., Beresnitzky, A. V., Braunstein, I., y Maes, P. (2025). “Your Brain on ChatGPT: Accumulation of Cognitive Debt when Using an AI Assistant for Essay Writing Task”. arXiv. https://arxiv.org/pdf/2506.08872.
Kran, E., Nguyen, J., Kundu, A., Jawhar, S., Park, J., y Jurewicz, M. (2025). “DarkBench: Benchmarking Dark Patterns in Large Language Models”. arXiv. https://arxiv.org/abs/2503.10728
Lessig, L. (2006). Code, Version II. Basic Books.
McCallister, D. J. (1995). “Affect– and Cognition-Based Trust as Foundations for Interpersonal Cooperation in Organizations”. The Academy of Management Journal, 28, 24-59. https://www.jstor.org/stable/256727?seq=1. https://doi.org/10.2307/256727.
Mancoridis, M., Vafa, K., Weeks, B., y Mullainathan, S. (2025). “Potemkin Understanding in Large Language Models”. arXiv. https://arxiv.org/html/2506.21521v2.
Marcos del Cano, A. M. (2020). “La vulnerabilidad como criterio normativo para el derecho y las políticas públicas”. En Ana María Marcos del Cano (ed.), En tiempos de vulnerabilidad: Reflexión desde los derechos humanos (pp. 17-33). Dykinson. https://doi.org/10.2307/j.ctv153k41s.4.
Marcos del Cano, A. M. (2025). “Inteligencia artificial, brecha digital y personas mayores: el respeto a su dignidad y a sus derechos fundamentales más allá de la digitalización”. La Ley Derecho de Familia: Revista jurídica sobre familia y menores, 12(46).
Marcuse, H. (1985). El hombre unidimensional. Planeta-Agostini.
Martínez Torán, M., y Esteve Sendra, C. (2021). “Estudio brecha digital y discapacidad: Una perspectiva centrada en las personas”. Cátedra de brecha digital y diversidad funcional.
Mori, M. (1970). “The Uncanny Valley”. Energy, 7(4). https://www.almendron.com/tribuna/wp-content/uploads/2018/01/morunc.pdf.
Morris, C. W. (1970). Foundations of the theory of signs. Univ. of Chicago Press.
Muñoz Vela, J. M. (2024). “Inteligencia artificial generativa: desafíos para la propiedad intelectual”. Revista de Derecho UNED, (33). https://revistas.uned.es/index.php/RDUNED/article/view/41924/30456. https://doi.org/10.5944/rduned.33.2024.41924.
Newell, A. (1982). “The Knowledge Level”. Artificial Intelligence, 18. PII: 0004-3702(82)90012–1 (uns.edu.ar). https://doi.org/10.1016/0004-3702(82)90012-1.
Ortega y Gasset, J. (1964). Obras completas. Tomo V (1933-1941). Revista de Occidente, 6ª Ed.
Rifkin, J. (2001). The Age of Acccess. How the shift form ownership to access is transforming modern life. Penguin.
Russell, S., y Norvig, P. (2008). Inteligencia Artificial. Un enfoque moderno. Pearson, 2ª Ed.
Sarkar, A. (2023). “Exploring Perspectives on the Impact of Artificial Intelligence on the Creativity of Knowledge Work: Beyond Mechanised Plagiarism and Stochastic Parrots”. arXiv. https://arxiv.org/abs/2307.10751. https://doi.org/10.1145/3596671.3597650.
Savigny, F. C. von (1878). Sistema de Derecho Romano Actual, Tomo I. F. Góngora y Compañía.
Schmidt, E., y Cohen, J. (2013). The New Digital Age: Reshaping the Future of People, Nations and Business. John Murray.
Searle, J. (2000). Razones para actuar. Una teoría del libre albedrío. Nobel.
Shannon, C. E. (1948). “A Mathematical Theory of Communication”, The Bell System Technical Journal, 27. https://doi.org/10.1002/j.1538-7305.1948.tb01338.x.
Six, F., y Noteboom, B. (2003). “Trust building actions: a relational signalling approach”, Working Paper on Strategizing for opportunisties. Department of public administration and organization. Vrije Universiteit Amsterdam. https://www.uv.es/erasmuswop/doc/News/Seminars/Nooteboom/Frederique_six.pdf.
Susskind, R. (2020). Tribunales online y la Justicia del futuro. La Ley–Wolters Kluwer.
Tronto, J. C. (1993). Moral Boundaries. A Political Argument for an Ethic of Care. Routledge.
Von Neumann, J. (1945). “First Draft of a Report on the EDVAC”. Moore School of Electrical Engineering University of Pennsylvania. https://doi.org/10.5479/sil.538961.39088011475779.
Watts, D. J., y Strogatz, S. H. (1998). “Collective dynamics of ‘small-world’ networks”. Nature, 393. https://www.nature.com/articles/30918. https://doi.org/10.1038/30918.
Wiener, N. (1948). Cybernetics, or Control and Communication in the Animal and the Machine. John Wiley and Sons.
Xiong, H., Wang, Z., Li, X., Bian, J., Xie, Z., Mumtaz, S., Al-Dulaimi, A., y Barnes, L. E. (2024). “Converging Paradigms: The Synergy of Symbolic and Connectionist AI in LLM-Empowered Autonomous Agents”. arXiv. https://arxiv.org/pdf/2407.08516.
Zao-Sanders, M. (2025). “How People Are Really Using Gen AI in 2025”. Harvard Business Review. https://hbr.org/2025/04/how-people-are-really-using-gen-ai-in-2025.
[*] Este artículo es parte del proyecto de I+D+i PID2023-152437NB-I00/Generación de Conocimiento, e-CARE: El derecho al cuidado en la sociedad digital (e-CARE), financiado/a por MICIU/AEI/10.13039/501100011033/ y FEDER/UE, del proyecto de I+D+i “Inteligencia artificial jurídica y Estado de Derecho” [PID2022-139773OB-I00], financiado por MICIU/AEI/10.13039/501100011033 y por FEDER, UE y del proyecto de I+D+I “Desafíos teóricos, éticos y normativos de la inteligencia artificial. Oportunidades y límites de su regulación” (DENORIA) [PID2023-146621OB-C21], financiado por MICI/AEI/10.13039/501100011033 y por FEDER/UE.
[1] puede acceder a la conferencia a través del siguiente enlace: https://www.nvidia.com/gtc/.