Derechos y garantías procesales penales fundamentales: una lectura en clave tecnológica

Fundamental criminal procedural rights and guarantees: reading in technological key

Fernando Martín Diz

Catedrático de Derecho Procesal

Universidad de Salamanca

fmdiz@usal.es 0000-0002-9288-8240

Recibido: 29 de abril de 2024 | Aceptado: 30 de mayo de 2024

IUS ET SCIENTIA • 2024 • ISSN 2444-8478

Vol. 10 • Nº 1 • pp. 52-81

https://dx.doi.org/10.12795/IESTSCIENTIA.2024.i01.03

RESUMEN

PALABRAS CLAVE

Realizar una valoración inicial sobre el acomodo de la tecnología disruptiva con los derechos fundamentales y garantías constitucionales implica analizar la repercusión de la posible utilización de elementos tecnológicos de última generación (inteligencia artificial) en funciones asistenciales de la labor jurisdiccional. El binomio proceso judicial e inteligencia artificial es una realidad que debe conciliarse desde tres premisas imprescindibles: normal legal, jurisdiccionalidad y respeto a los derechos fundamentales. Sin duda, el hecho de que la aplicación de la inteligencia artificial se sostenga, como uno de sus grandes principios, por la necesidad de control por humano, garantiza que el órgano jurisdiccional sea el garante de la legalidad y constitucionalidad de la utilización de soluciones de inteligencia artificial en funciones auxiliares en la actividad procesal sin que el justiciable vea afectados derechos fundamentales como la presunción de inocencia, el derecho de defensa o el derecho a la tutela judicial efectiva, que, a su vez, deben ser interpretados y adaptados a la realidad tecnológica actual.

Proceso judicial

Derechos fundamentales

Garantías procesales

Inteligencia artificial

ABSTRACT

KEYWORDS

Carrying out an initial assessment of the accommodation of disruptive technology with fundamental rights and constitutional guarantees implies analyzing the impact of the possible use of cutting-edge technological elements (artificial intelligence) in auxiliary tasks of jurisdictional work. The binomial judicial process and artificial intelligence is a reality that must be reconciled from three essential premises: legal normality, jurisdictionality and respect for fundamental rights. Without a doubt, the fact that the application of artificial intelligence is supported, as one of its main principles, by the need for human control (human in commad), guarantees that the jurisdictional body is the guarantor of the legality and constitutionality of the use of security solutions. Artificial intelligence in auxiliary functions in the procedural activity without affecting the defendant's fundamental rights such as the presumption of innocence, the right of defense or the right to effective judicial protection, which, in turn, must be interpreted and adapted to reality current technology.

Judicial proceedings

Fundamental rights

Procedural guarantees

Artificial intelligence

I. Introducción: ¿anclados en el «pasado»?

Un proceso penal vigente procedente de una norma de 1882, una norma impecable y con una gran técnica jurídica: para su tiempo. Una realidad, casi siglo y medio después, que supera cualquier ficción que en aquel momento pudiera, ni siquiera remotamente, sospecharse. En primer término, por el hecho de que, entonces, al igual que ahora, había una monarquía como forma de Estado y una Constitución, de 1876, cuya comisión redactora presidió Alonso Martínez, quien posteriormente sería Ministro de Gracia y Justicia bajo cuya responsabilidad se promulgó la Ley de Enjuiciamiento Criminal que aún perdura. Monarquía que ha evolucionado hacia una monarquía también constitucional, democrática y plenamente integrada en un Estado de Derecho, una monarquía parlamentaria asentada sobre otra Constitución, que ahora data de 1978, y que se asienta sobre postulados que propugnan como valores superiores de su ordenamiento jurídico la libertad, la seguridad, la igualdad y el pluralismo político (art. 1.1 Constitución Española, en adelante CE). En segundo lugar, porque en casi ciento cincuenta años que han transcurrido desde aquel momento, promulgación de la vigente Ley de Enjuiciamiento Criminal, la sociedad, la justicia, los derechos, las relaciones jurídicas y el propio derecho procesal, han evolucionado. Mucho, muchísimo. Y a ello, hay que sumar, a día de hoy, avanzado ya el siglo XXI, un factor absolutamente disruptivo: la tecnología.

El pasado, por tanto, no puede atar el presente, ni frenar el futuro y, sin duda, el futuro de la sociedad y de las relaciones jurídicas está claramente condicionado por el impulso y desarrollo tecnológico, por el avance hacia soluciones telemáticas, de inteligencia artificial, incluso en escenarios virtuales (metaverso), que, también, afectan y hacen variar el sentido y valor de los derechos y obligaciones tal y como los veníamos conociendo y aplicando hasta ahora. Y, evidentemente, el derecho procesal no puede ser una realidad estática y ajena a esta evolución. Los derechos fundamentales de corte procesal y las garantías básicas del proceso también han de acomodar su interpretación al contexto tecnológico en que nos desenvolvemos. El acceso a la justicia, por dar una referencia inicial a título de ejemplo, no puede concebirse contemporáneamente, y en cumplimiento y observancia del derecho a la tutela judicial efectiva, como una justicia presencial, sino que debe considerarse como el acceso a una justicia digital, con todas las garantías, pero desarrollable plenamente en entornos virtuales, telemáticos o interpuestos. Muchas de las actuaciones procesales se conducen ya, por imperativo legal[1], mediante la remisión y recepción de actos procesales a través de aplicaciones telemáticas, las vistas se pueden celebrar en entornos virtuales o digitales y, en una expresión de lo más avanzado, incluso hay situaciones procesales –fundamentalmente burocráticas– que se prevé puedan llevarse a cabo de manera automatizada con la asistencia de inteligencias artificiales.

1.1. El humanismo digital y la justicia inteligente: vectores de futuro

Con todo ello, la tecnología tampoco está llamada a reemplazar ni eliminar el insustituible humanismo que debe acompañar al proceso judicial ni, en sentido contrario, ser desechada por el mero hecho de ser «no humana». El humanismo en el Derecho, como en tantas otras facetas de la sociedad, nunca es pasado, ni un ancla que pueda impedir el progreso. Precisamente el humanismo, y la capacidad del ser humano para evolucionar es siempre lo que conduce al futuro. Y esta conjunción es que la caracteriza al siglo XXI, humanismo y tecnología (humanismo digital, si se me permite la expresión), que se cristalizan en la implantación de soluciones tecnológicas, telemáticas, digitales, también el en ámbito de la Justicia (justicia inteligente). Estamos ante una Justicia orientada al dato[2], ante una justicia que trata de sacar provecho de lo que puede definirse como «el factor tecnológico» y con ello de la cantidad de datos que ella misma genera, para que aplicándole los criterios de manejo y proceso de esos datos (fundamentalmente a través de los correspondientes algoritmos), ofrezca beneficios en términos de eficiencia y eficacia al proceso judicial. Nos encontramos en una especie de tensión entre humanidad y artificialidad y que en cierto modo en el ámbito judicial busca un punto de equilibrio sobre el cual «asentarse», para que la función social expresada por la justicia no sea desvirtuada por la lógica eficientista alimentada por las tecnologías digitales. La clave para ello está, como señala el autor, en la exigencia de destacar la naturaleza necesaria e insuperablemente instrumental de la inteligencia artificial y de las tecnologías digitales en general, rechazando claramente, según su opinión, visiones que conciban la «digital transformation» como fin (Bini, 2024).

De hecho, el Real Decreto-ley 6/2023, anticipa, en su Exposición de Motivos, apartado II, que uno de sus objetivos es «la adaptación de la realidad judicial española del siglo XXI al marco tecnológico contemporáneo» sin perder de vista, como también afirma que debe respetarse la esencia insustituible de la potestad jurisdiccional «a cuyo servicio y al de las garantías procesales ha de adaptarse necesariamente la tecnología para permitir su plena satisfacción». Esta norma legal sirve como imprescindible soporte para la utilización de tecnologías de la información en la Administración de justicia, asegurando, como dispone el art. 1.2 del citado RDL «la seguridad jurídica digital, el acceso, autenticidad, confidencialidad, integridad, disponibilidad, trazabilidad, conservación, portabilidad e interoperabilidad de los datos, informaciones y servicios que gestione en el ejercicio de sus funciones», con un empleo instrumental de soporte y apoyo a la actividad jurisdiccional. Por tanto, a día de hoy y con este precepto en la mano, no se contempla que, por ejemplo, la implementación de soluciones de inteligencia artificial en el marco procesal tenga atribuciones decisorias y sustitutivas de los titulares de los órganos jurisdiccionales o de otros operadores procesales (Ministerio Fiscal, Letrados de la Administración de Justicia), remarcando, y esto es lo que nos conecta directamente con el contenido del presente trabajo, que dicha utilización ha de realizarse –art. 1.3 RDL 6/2023– con pleno respeto a las garantías procesales y constitucionales.

Lo que no debe calar es un mensaje negativo hacia la posible incorporación de las tecnologías disruptivas en el ámbito de la justicia, pero si debe asentarse, también, una inquietud en su habilitación adecuada en clave de garantías y protección de derechos fundamentales. Propugnamos por ello una lectura en clave tecnológica de las bases sobre las que se asienta el proceso jurisdiccional en un estado constitucional y democrático de Derecho como es el nuestro, y en el cual, la inteligencia artificial[3], como sistema basado en máquinas diseñado para funcionar con distintos niveles de autonomía y que puede mostrar capacidad de adaptación tras su despliegue y que, para objetivos explícitos o implícitos, infiere, a partir de la entrada que recibe, cómo generar salidas tales como predicciones, contenidos, recomendaciones o decisiones que pueden influir en entornos físicos o virtuales, y, que, en nuestro caso, puede aplicarse a situaciones, actos o resoluciones propias de un proceso judicial. Así, pues, el ideal enlace entre proceso e inteligencia artificial se sostiene sobre la premisa de que la función jurisdiccional no es tan automática como lo es el tratamiento de un asunto por una inteligencia artificial, implica interpretaciones y adaptaciones de la norma en sentido teleológico para las cuales, posiblemente, una máquina nunca va a estar preparada por mi perfecta que pueda parecerlo, por muchos datos de que disponga y por un potente entramado algorítmico que se aplique. Impartir justicia no es una cuestión matemática ni de ingeniería, es una cuestión humana, tan antigua como la propia existencia, y tan irremplazable como el razonamiento de las personas. Es una cuestión de experiencia y razonamiento basado en el sentido común y en la aplicación de la norma legal. Ayudarse para ello de la tecnología más moderna y accesible es inteligente, pero no a cambio de una sustitución y reemplazo y siempre desde la exigencia del acomodo absoluto de los derechos fundamentales (procesales) y de las garantías básicas del proceso a esta realidad tecnológica. Por ello, ha de interpretarse, y de regularse –en un esperable nuevo marco normativo–, el conglomerado de derechos reconocidos constitucional y legalmente, desde la realidad y la proyección de la integración de tecnologías disruptivas (marcadamente la inteligencia artificial en funciones asistenciales de la función jurisdiccional).

Una expresión de esta justicia inteligente que nos acecha, e incluso con la potenciación que para ello pueden llegar a suponer las herramientas de inteligencia artificial generativa, viene dada, actualmente, por la habilitación para la posible automatización[4] de determinadas situaciones procesales, pero quien sabe si en el futuro para dar lugar a un juez-robot que directamente asuma la función jurisdiccional y dicte sentencia. Una vez más, ante esta tesitura, surge el dilema de armonizar y compatibilizar humanismo digital y justicia inteligente, sosiego y pausa humana frente a inmediatez y celeridad electrónica. Al hilo de esta circunstancia «las garantías procesales siempre han estado guiadas por la madurez del juicio, madurez precisada de un tiempo razonable» (Calaza López, 2024), circunstancia, prosigue textualmente la autora citada, que sin embargo no se cumple en el caso de la inteligencia artificial donde la respuesta inmediata no se identifica –o no, al menos por su inmediatez– con la respuesta sesgada, inmadura o poco asentada.

Finalmente, hemos de valorar que los vectores de cambio en una lectura tecnológica de los derechos fundamentales y las garantías procesales, como son el humanismo digital y la justicia inteligente, han de ofrecer respuesta idéntica y homogénea para la justicia presencial y la justicia virtual, entendida la primera como la justicia más tradicional que implica la realización de actuaciones procesales en persona y con inmediación física, y la segunda como la justicia en línea que se desarrolla aprovechando las tecnologías de la información y la comunicación a distancia y con medios interpuestos (videoconferencia, salas virtuales, comunicaciones electrónicas) entre jueces, partes y otros profesionales concernidos en la actividad procesal (Ministerio Fiscal, Letrados de la Administración de Justicia, Abogacía y Procura, entre otros). En este sentido nos parece muy relevante la Resolución de la Asamblea General de Naciones Unidas de 21 de marzo de 2024 sobre la promoción de sistemas de inteligencia artificial seguros y fiables que beneficien un desarrollo sostenible, donde destacaba la necesaria promoción y protección de los derechos humanos en el diseño, desarrollo, despliegue y uso de la IA. En la precitada Asamblea se pidió a todos los Estados miembros que se abstengan de utilizar sistemas de IA que no puedan funcionar de conformidad con las normas internacionales de derechos humanos o que planteen riesgos indebidos para su disfrute. En relación con la equiparación de los derechos fundamentales (procesales) y de las garantías que deben atenderse tanto en un modelo de justicia presencial como en uno más avanzado tecnológicamente, y prácticamente virtual, subrayó que los mismos derechos que tienen las personas en situaciones offline (justicia tradicional o presencial) deben protegerse también online, incluso durante el ciclo de vida de los sistemas de IA. Por tanto, un objetivo de la lectura en clave tecnológica de estos derechos y garantías en el proceso requiere que al tiempo de mantener su esencia e interpretación en el desarrollo de procesos judiciales presenciales, también mantengan esa misma esencia en la adaptación a la realidad social y jurídica que supone la migración hacia procesos judiciales telemáticos y con implementación de inteligencia artificial, sin que pueda darse un desequilibrio entre los derechos de que goce el justiciable en una u otra posibilidad.

II. El juez como garante: la observancia del principio de supervisión y control por humano en la aplicación de la inteligencia artificial en el proceso

En un entorno marcado por lo que se ha calificado como el dataismo, esto es, la dependencia y utilización masiva de datos, e inmersos en una sociedad calificada como algocrática (Solar Cayón, 2020) en la cual los algoritmos pudieran estar llamados a sustituir el razonamiento humano, la lectura en clave tecnológica de los derechos fundamentales procesales y de las garantías del proceso ha de ser llevada a cabo por quien ha de aplicarlos y velar por su integridad: el juez. Si la tecnología, de la mano de la irrupción de la inteligencia artificial en diferentes actuaciones procesales, puede comprometer derechos y garantías, el garante ha de ser el juez. No en vano, los propios principios que guían la aplicación de la inteligencia artificial, ya desde la Directrices éticas para una inteligencia artificial fiable del Grupo de Expertos de Alto Nivel sobre inteligencia artificial de la Unión Europea (2018), acogen como uno de los mismos el principio de control (supervisión) por humano. Más aún, cuando el asentamiento de la inteligencia artificial en el entorno de la justicia ha de producirse desde su consideración de elemento asistencial o auxiliar de la función jurisdiccional. Ha de ser elemento a disposición de los órganos jurisdiccionales, apoyando la actividad jurisdiccional, desde el máximo respeto a los derechos fundamentales, pero siempre bajo supervisión humana. Una herramienta de asistencia cuyo objetivo sea facilitar al titular del órgano jurisdiccional la adopción de mejores y más documentadas decisiones, pero sin llegar al extremo de someter al justiciable a un proceso o decisiones jurisdiccionales basado exclusivamente en soluciones automatizadas, sin intervención ni supervisión humana, puramente tecnológicas y maquínicas. Las soluciones tecnológicas disruptivas aplicadas al proceso han de mantener su carácter instrumental, sin reemplazar en ningún caso al sujeto que asume la decisión procesal, como es, y debe ser, el juez. No en vano solo el juez puede asegurar y avalar en plenitud el respeto a los derechos fundamentales (procesales y no procesales) y la correcta observancia de las exigencias procesales en garantía del justiciable

En la labor jurisdiccional se deposita entonces el primer eslabón de la cadena de respaldo de una lectura contemporánea y adaptada al contexto tecnológico de la aplicación de soluciones tecnológicas en el proceso judicial. Su supervisión ante herramientas de inteligencia artificial, la decisión de aplicarlas y la asimilación y motivación de sus resultados y propuestas, garantiza que una justicia «inteligente» es una justicia también al servicio de las personas, sus derechos fundamentales y su autonomía, obviando o desechando su empleo cuando comprometa estos derechos o las garantías del proceso, conculcando la presunción de inocencia, menoscabando el derecho de defensa o privando de la contradicción o la igualdad entre partes, entre otros muchos derechos y garantías. Será, entonces, exigencia inexcusable, que cualquier solución tecnológica aplicable en el proceso, pueda ser supervisada por humano (juez). Sin este presupuesto legal y procesal, no podrá avalarse una adecuada protección de los derechos fundamentales procesales y de las garantías del proceso, más aún cuando se consideran, como hace el flamante Reglamento de la Unión Europea por el que se establecen normas armonizadas sobre la inteligencia artificial (Ley sobre Inteligencia Artificial), sistemas de alto riesgo debido a la afectación que su utilización tiene en los derechos humanos, en los derechos fundamentales y en la propia estructura del Estado de Derecho por la calidad y pertinencia de los conjuntos de datos que son utilizados y su protección personal.

El Reglamento de la Unión Europea (Ley sobre Inteligencia Artificial) opta por determinar con claridad una serie de supuestos, perfectamente pormenorizados, que están expresamente prohibidos para la aplicación de la inteligencia artificial, algunos de ellos concurrentes en el marco de la actividad jurisdiccional y respecto de los cuales, evidentemente, el juez, como supervisor y garante de los derechos de los justiciables, deberá impedir su empleo en sede procesal o, directamente, inhabilitar sus posibles resultados y repercusiones en el proceso. Son, de manera más concreta, las prohibiciones relativas a la utilización de inteligencia artificial para la categorización biométrica de personas con características sensibles; la aplicación de inteligencia artificial para desarrollar scraping (proceso de extracción de contenidos y datos de sitios web mediante software) generalizado de imágenes faciales de internet o circuito cerrado de televisión y grabación para generar bases de datos de reconocimiento facial; o sistemas de inteligencia artificial de scoring (puntuación) social basado en comportamiento o características personales, situaciones todas ellas que podrían incidir, por ejemplo, en cuestiones procesales penales conculcando el derecho a la presunción de inocencia.

De este modo, soluciones de inteligencia artificial predictiva o con fines de investigación que habiliten el empleo de sistemas biométricos que utilicen características sensibles (como creencias políticas, religiosas, filosóficas, de raza u orientación sexual) o que procedan a la extracción no selectiva de imágenes faciales de Internet (por ejemplo, lo que llevo a cabo Clearview) o se sirvan de grabaciones de circuitos cerrados de TV para crear bases de datos de reconocimiento facial, no serán admisibles, salvo, en una circunstancia que expresamente se habilita, claro está, bajo la exigencia de la supervisión humana (autorización judicial expresa, como garantía). Nos referimos al aprovechamiento en sede procesal del posible uso de sistemas de identificación biométrica, en espacios de acceso público y con fines policiales de investigación penal, siempre con previa autorización judicial y solo para determinados delitos (graves). En este supuesto, los sistemas de identificación biométrica guiados o apoyados en inteligencia artificial se utilizarán estrictamente para la búsqueda selectiva de una persona condenada o sospechosa de haber cometido un delito grave. La «identificación en tiempo real» queda limitada, bajo autorización y supervisión judicial, a búsquedas específica de víctimas (en caso de delitos de secuestro, trata de personas, explotación sexual) o para la prevención de una amenaza terrorista (específica y actual, no hipotética y preventiva), o bien, finalmente, para la localización o identificación de una persona sospechosa de haber cometido uno de los delitos específicos mencionados en el propio Reglamento europeo (terrorismo, trata de seres humanos, explotación sexual, asesinato, secuestro, violación, robo a mano armada, participación en una organización delictiva, delitos contra el medio ambiente).

A efectos de facilitar la supervisión y control por humano de las herramientas de inteligencia artificial se contienen previsiones en el Reglamento comunitario que tratan de evitar la opacidad de las soluciones de inteligencia artificial mediante una serie de obligaciones de transparencia en los mismos, siendo, nuevamente, el juez en nuestro caso el responsable de dicho control. Genéricamente, el Considerando 47 del Reglamento determina que estos sistemas de inteligencia artificial de alto riesgo deben diseñarse de manera que los implantadores puedan entender cómo funcionan, evaluar su funcionalidad y comprender sus puntos fuertes y limitaciones, además de ir acompañados de la información adecuada en forma de instrucciones de uso (características, capacidad y limitaciones del funcionamiento del sistema). Será, entonces, el titular del órgano jurisdiccional quien valore si se cumple esa exigencia de comprensibilidad y transparencia en la aplicación de la herramienta y sus resultados dentro de su actividad jurisdiccional y ponderar los posibles riesgos que para los derechos fundamentales y las garantías procesales pueda generar el rendimiento del sistema. Con ello, se habilita al órgano jurisdiccional para elegir y aplicar adecuadamente la herramienta de inteligencia artificial, dentro de los usos previstos y excluidos y sin menoscabar en ningún caso los derechos procesales fundamentales y garantías del justiciable que pudieran verse afectados. El precepto de referencia será, dentro del articulado del Reglamento de la Unión Europea por el que se establecen normas armonizadas sobre la inteligencia artificial (Ley sobre Inteligencia Artificial) de 2024, el art. 14. Su contenido plasma de forma explícita el principio básico de supervisión humana en el empleo de herramientas de inteligencia artificial. Determina que los sistemas de inteligencia artificial de alto riesgo, como son los propios diseñados y encauzados para ser aplicables en el ámbito de la justicia, se diseñarán y desarrollarán de tal manera, incluso con herramientas de interfaz hombre-máquina, que puedan ser supervisados eficazmente por personas físicas durante el periodo en que el sistema esté en uso.

Este control jurisdiccional de garantía en la utilización de herramientas de inteligencia artificial en el proceso judicial exige, primeramente, prevenir o reducir al mínimo posible cualquier aplicación no legal, que puede venir dada por ausencia de norma legal de cobertura que regule su aplicación, o bien por una aplicación que sobrepase dichas previsiones legales –de existir– y que redunde en una vulneración de derechos o garantías procesales del justiciable. De este modo, en supuestos como los relativos a valoración del riesgo de una víctima, reincidencia de un encausado, el juez, de acuerdo a la exigencia de transparencia y sus consecuencias expuestas anteriormente, debe emplear dicha herramienta en los estrictos términos legales que lo amparan sin emplearlo para una finalidad o actuación procesal diferente –por ejemplo, una herramienta diseñada para evaluar el riesgo de reincidencia no sería apta para valorar una prueba testifical– y en las condiciones de uso debido razonablemente previsibles –de las cuales es consciente por una formación e información previa–. Para ello, para dicha ponderación y empleo, el art. 14 del Reglamento comunitario sobre inteligencia artificial, establece como referencia el principio de proporcionalidad en la aplicación de la supervisión, lo que determina un cálculo de sus efectos en relación a los riesgos, nivel de autonomía y contexto de uso del sistema de inteligencia artificial, para lo cual ofrece, además, una serie de referencias que garanticen dicha circunstancia:

  1. Medidas identificadas por el proveedor y que sean adecuadas para ser aplicadas por el usuario.
  2. Comprensión de las capacidades y limitaciones del sistema con vistas a detectar y abordar anomalías, disfunciones y rendimientos inesperados –particularmente importante en el caso en que el juez detecte un posible sesgo o discriminación en la ratificación o algoritmización de la herramienta y con ello disfunciones en los posibles resultados-.

Quedan incólumes, en todo caso, dos situaciones. De una parte, con la supervisión jurisdiccional se evitan los riesgos derivados de herramientas de inteligencia artificial automatizadas, que produzcan efectos directos en actuaciones procesales sin el aval de un control humano y con ello una colisión, y eventual vulneración, de derechos y garantías procesales sin ningún tipo de barrera previa, debiendo solventarse, ya a posteriori, dichas trasgresiones y, entendemos, por denuncia o impugnación de las partes ante el resultado de acto automatizado. En segundo término, se preserva y asegura la decisión humana, jurisdiccional, discrecional y motivada decretando, mediante resolución procesal, cuándo, cómo y para que finalidad procesal se va a utilizar y recurrir a las mismas, ante situaciones concretas en que emplear sistemas de inteligencia artificial de alto riesgo, como es en el caso de la justicia, aconsejen ignorar, anular o invertir de otro modo los resultados. Esta previsión concuerda con el propio art. 29 del Reglamento de la Unión Europea por el que se establecen normas armonizadas sobre la inteligencia artificial (Ley sobre Inteligencia Artificial) de 2024, ya que establece la obligación de los responsables de despliegue de sistemas de inteligencia artificial de alto riesgo de adoptar las medidas técnicas y organizativas adecuadas para garantizar que utilizarán dichos sistemas de conformidad con las instrucciones de uso, por tanto bajo estricta supervisión y control humano, velando por que las personas físicas asignadas para garantizar la supervisión (en nuestro caso el juez cuando recurra a su empleo en actuaciones procesales) tenga la competencia, formación y autoridad necesarias, así como el apoyo (técnico y personal) necesario.

En conclusión, una lectura en clave tecnológica, para la correcta y más garantista aplicación de soluciones de inteligencia artificial en el proceso, demanda indefectiblemente una resolución jurisdiccional expresa y motivada que justifique su utilización, sobre la base de una normativa legal que ofrezca cobertura suficiente, y que posteriormente sea asumida por el juez desde la autonomía y libertad de valorar sus resultados, evitando aplicaciones automáticas, lesivas de derechos y garantías procesales del justiciable y no adecuadamente ponderadas y proporcionadas al fin para el cual sean utilizada dentro de un proceso judicial.

III. El actual contexto de los derechos fundamentales y las garantías del proceso

En pleno siglo XXI, en el ámbito del proceso judicial hay una cuestión indiscutible y sólidamente asentada: la figura del juez como garante de los derechos fundamentales de aquellos sujetos que se ven afectados por el proceso, de manera especialmente particular en el caso del proceso penal y en relación con el encausado y la víctima. Es en este contexto en el cual es más sensible, sin perjuicio de los demás órdenes jurisdiccionales (civil, laboral y administrativo), la necesidad de protección y salvaguardia de derechos y garantías por su repercusión y por la consecuencia de su vulneración en las actuaciones procesales: la nulidad de pleno derecho. El proceso ha de ser constitucional, en sintonía con la amalgama de derechos fundamentales procesales, y ha de ser garantista en consonancia con los principios y garantías básicas que disponen las leyes de enjuiciamiento tanto a nivel de proceso como de procedimiento. En el primer caso, en la dimensión constitucional del proceso, todas y cada una de las actuaciones, se llevarán a efecto desde la escrupulosa observancia de los derechos fundamentales, particularmente de los de contenido procesal reflejados en la Constitución y en los Tratados y Convenios Internacionales suscritos por España además de estar rodeado de todas las garantías legales exigibles y establecidas en las leyes de enjuiciamiento. En este sentido, cabe recordar que el Anteproyecto de Ley de Enjuiciamiento Criminal de 2020 en España, en su Exposición de Motivos, apartado VII, ya contemplaba el denominado «Proceso penal constitucional», dedicando su Título Preliminar, a la previsión de los «Principios constitucionales del Proceso penal», una referencia expresa, y una serie de artículos, dedicada a establecer los sustentos fundamentales del proceso penal constitucional, entendido como aquel proceso que se ajusta y observa en su desarrollo los derechos y garantías que el texto de la vigente Constitución Española de 1978 ha dispuesto. Evidentemente, no queda ahí encerrada la esencia de los derechos fundamentales y garantías básicas del proceso penal que el Anteproyecto desarrollaba, sino que posterior y paulatinamente, tratan de observarse en todas y cada una de las instituciones, actuaciones y previsiones procedimentales.

Cabe plantearse entonces si no sería necesaria una norma legal, con rango de Ley Orgánica, que disponga, ya sea a título particular para cada orden jurisdiccional o bien en conjunto para todos ellos, una previsión normativa específica que desarrolle los derechos fundamentales procesales y las garantías del proceso de procedencia constitucional, y en el momento actual, lo haga en sintonía con los nuevos retos jurídico-procesales que plantean las nuevas tecnologías. La ventaja de una norma programática en esta dirección es que asentaría una actualización, no solo en relación con la incidencia de las nuevas tecnologías, sino que incorporaría la interpretación del contenido de estos derechos y garantías que ha venido realizando el Tribunal Constitucional durante, ya casi, estos últimos cincuenta años. Se conseguiría, además, perfilar y dar un contenido más específico y actual a esta serie de elementos estructurales del proceso en clave constitucional desde el perfil que el Tribunal Constitucional ha determinado en una jurisprudencia estable y sólida. Es el caso, a título de ejemplo, del derecho a la tutela judicial efectiva, que contempla el art. 24 de la CE, cuando prácticamente todas sus proyecciones ya han sido perfiladas a través de la jurisprudencia del Tribunal Constitucional (y por ejemplo se vieron reflejadas en muchos aspectos en el Anteproyecto de Ley de Enjuiciamiento Criminal de 2020) al disponer hoy en día de opciones que complementan al proceso para obtener justicia y tutela en los derechos, incluso a través de elementos tecnológicos (arbitraje o mediación electrónica).

Más recientemente, el RDL 6/2023, en relación a la previsión del derecho a la tutela judicial efectiva, y en conexión con los derechos materiales hacia los cuales se desenvuelve, ante la irrupción y asentamiento de nuevas tecnologías y de una sociedad culturalmente disruptiva, requiere, como consta en la Exposición de Motivos de la precitada reforma de una asunción de los retos de la digitalización, de la utilidad de los nuevos instrumentos y herramientas al servicio de una mejor y más eficiente justicia, y por tanto el aprovechamiento que las nuevas tecnologías puedan ofrecer para una más eficiente función jurisdiccional. De hecho este texto, ya vigente, otorga carta de naturaleza a una justicia orientada al dato, tecnológica y que habilita el desarrollo de actuaciones procesales automatizadas y proactivas, que no requieren de intervención humana, canalizadas a través de mecanismos tecnológicos –inteligencia artificial– y en las cuales no hay interpretación y aplicación de la ley que precise del ejercicio de la función jurisdiccional, generando una justicia, que ofrece tutela al justiciable, de forma disruptiva pero siempre con la cautela, en ambas modalidades, que prevé el art. 57.4 en cuanto a la reversibilidad de dichas actuaciones y a su conducción por humano si fuese preciso. Ajustando, este texto, un incólume derecho a la tutela judicial efectiva en la previsión de práctica de las que califica como «actuaciones asistidas» para las cuales se habilita la utilización de borradores de documentos generados por inteligencia artificial pero cuyo valor y eficacia procesal no se obtiene en tanto en cuanto no sean refrendados o asumidos por el juez, u otro interviniente procesal que tenga la competencia sobre dicho acto (Letrado de la Administración de Justicia, Ministerio Fiscal…). La vertiente de motivación de las resoluciones judiciales que comprende el precitado derecho a la tutela judicial efectiva y el derecho al juez ordinario (humano) predeterminado por la ley quedan perfectamente protegidos con dicha previsión legal, y adecuando de forma muy correcta su lectura en clave tecnológica a una nueva norma que habilita su aplicación.

IV. Análisis de los derechos fundamentales procesales en relación con la disrupción tecnológica

El repertorio de derechos fundamentales procesales, relativos a la presunción de inocencia, la defensa, la asistencia letrada, el conocimiento de la acusación, el derecho a guardar silencio y no declarar contra uno mismo, etc., se ven complementados de manera indisociable con un conjunto de garantías procesales que propician un modelo procesal adecuado y óptimo para el justiciable, y siempre bajo la premisa de la reserva de jurisdiccionalidad para la restricción de estos derechos y la aplicación y observancia de las garantías. El abordaje más reciente, a nivel nacional español, de los derechos fundamentales procesales y de las garantías del proceso se llevó a cabo con el Anteproyecto de Ley de Enjuiciamiento Criminal de 2020, en cuyos arts. 4 y ss., procedía a situar en contexto, aún no totalmente tecnológico, estas referencias procesales de primera magnitud. Es por ello por lo que tomamos, para dar un avance vinculado a una lectura e interpretación de los mismos en clave tecnológica, dicha aproximación prelegislativa como elemento de apoyo en los siguientes apartados.

4.1. El derecho a la presunción de inocencia

Indudablemente el proceso penal es el escenario jurisdiccional en el cual los derechos fundamentales y las garantías procesales se encuentran en un nivel de exigencia máximo por la transcendencia para los derechos y libertades individuales del ciudadano. Y, de entre todos ellos, fundamentalmente vinculado a este concreto entorno, la primacía la ostenta el derecho a la presunción de inocencia, como esfera protectora del encausado en frente a un ejercicio indiscriminado e injustificado de la investigación o la acusación penal. Por ejemplo, por ir situando la cuestión: ¿qué garantías respecto a la presunción de inocencia, y también con ello el derecho a guardar silencio depara someter los datos de una persona a una evaluación o perfilación por parte de una herramienta de inteligencia artificial?, más, aún, cuando para llevar a cabo dicha evaluación criminológica (riesgo de criminalidad, reincidencia, valoración de adopción y cumplimiento de medidas cautelares) se requiere que el propio investigado aporte «datos» que sean incorporados a la herramienta para su procesamiento y tratamiento por algoritmos. ¿No implica, una circunstancia así una situación similar a cuando se le obligase a declarar, aportando datos oralmente? En idéntico sentido: ¿utilizar un sistema de inteligencia artificial para determinar si un investigado o encausado mientre en sus declaraciones, no conculca el derecho a no declarar contra uno mismo, confesarse culpable y a la presunción de inocencia? El «derecho» a mentir en las declaraciones del investigado o encausado está reconocido en la jurisprudencia del Tribunal Constitucional por cuanto el investigado o encausado no está sometido a la obligación jurídica de decir verdad –no presta juramento– pudiendo guardar silencio o directamente mentir, como elemento de defensa, no autoincriminación y protección del derecho a no confesarse culpable. Por ello, emplear una inteligencia artificial en actuaciones procesales para detectar posibles falsedades en la declaración del investigado (como legítima estrategia procesal de defensa) podría llegar a entrar en contradicción con la plenitud del ejercicio del derecho a no confesarse culpable y de la presunción de inocencia.

El derecho a la presunción de inocencia es un derecho que no permite restricciones y que la tecnología al servicio de las actuaciones procesales no puede condicionar ni menoscabar. Está totalmente asentada la consideración lineal e ininterrumpida de dicho derecho en favor del investigado o encausado, según la fase procesal en que nos encontremos, desde el inicio y hasta el fin (sentencia firme) de las actuaciones procesales. En sintonía con el art. 48 de la Carta de Derechos Fundamentales de la Unión Europea, toda persona –también las jurídicas en su imputabilidad– se presumen inocentes desde el inicio de cualquier actuación procesal que pueda atribuirle responsabilidad en la participación de un delito y hasta que su culpabilidad haya sido legalmente declarada mediante sentencia firme de condena. Entretanto, el empleo de cualquier dispositivo electrónico o solución tecnológica que pueda afectar esta condición debe requerir, obligatoriamente, de la pertinente autorización judicial y en relación con la observancia del principio de proporcionalidad en su empleo y fines. La presunción de inocencia se extiende durante todo el proceso y en todas sus instancias y, como hemos indicado, solo se desvanece ante la sentencia condenatoria firme que la enerve en virtud de pruebas suficientes que permitan al tribunal alcanzar más allá de toda duda razonable, una convicción fundada sobre la culpabilidad del acusado. Nuevamente aquí pueden concurrir necesidades interpretativas del derecho a la presunción de inocencia en un contexto tecnológico. Testar la veracidad de una denuncia y a partir de ello proceder a actuaciones procesales incriminatorias con una herramienta de inteligencia artificial, o someter al contraste de un software diseñado para la valoración una declaración testifical o la idoneidad de una pericial, reconstruir virtualmente el escenario del delito o la forma de comisión a partir de datos objetivos que consten en autos, todo ello, empleando herramientas de inteligencia artificial, debe producirse desde el contraste previo, por parte del juez, de la idoneidad y respeto a la presunción de inocencia de la solución tecnológica, conociendo los datos que emplea, los algoritmos que aplica y la inexistencia de sesgos o factores discriminatorios –como podría ser una ponderación inadecuada de antecedentes criminales del investigado, en relación con otros hechos delictivos, o bien su lugar de residencia si se tiene catalogado en herramientas tecnológicas como un lugar de criminalidad frecuente, etc.–

La consideración procesal de inocente del investigado o encausado, es un derecho expansivo y erga omnes, por tanto, de carácter general y también proyección extraprocesal, vinculando no solo las autoridades judiciales sino a todos aquellos que aborden cualquier cuestión relacionada con un proceso penal, sean personas físicas o jurídicas, de manera muy particular a los medios de comunicación en cualquiera de sus posibles versiones e incluso a los titulares de redes sociales. Como regla de tratamiento procesal, las autoridades judiciales y demás operadores procesales, como es el caso del Ministerio Fiscal, Letrados de la Administración de Justicia, Policía Judicial, abogados y procuradores, deben otorgar el mismo rango de importancia a la averiguación y constatación de los hechos punibles (existencia, tipicidad y autoría) como a la protección real del derecho a la parte pasiva del proceso desde su inicio y hasta la existencia de sentencia firme de condena en su contra, lo que supone que cualquier herramienta tecnológica que apliquen en el ámbito de sus actuaciones procesales debe ser total y escrupulosamente respetuosa con la presunción de inocencia en cualquiera de las fases del proceso. En este sentido es seriamente necesario que dado que la condena por parte del juzgador solo procede cuando existan pruebas suficientes que permitan al tribunal alcanzar, más allá de toda duda razonable, una convicción fundada sobre la culpabilidad del acusado, en la motivación de la sentencia, y si uno de los elementos de convicción utilizados tiene un componente tecnológico (piénsese en una inteligencia artificial que haya podido evaluar el resultado de una prueba), quede perfectamente asumida por el juzgados su argumentación y valoración así como la perfecta legalidad de la utilización de dicha herramienta.

Es más, una herramienta tecnológica disruptiva (como puede ser una inteligencia artificial en funciones asistenciales al juez) no encajaría con una lectura constitucional actualizada del derecho a la presunción de inocencia si, por ejemplo, y respecto del encausado (acusado) le impide desplegar actividad probatoria que pruebe su inocencia, o supone un menoscabo irrecuperable de la misma en virtud, por ejemplo, de una predicción evacuada en el tratamiento de datos de manera discriminatoria, sesgada u opaca. Igualmente podría darse este elemento contrario al derecho a la presunción de inocencia cuando ante una prueba idónea, lícita y practicada en el plenario con todas las garantías procesales, referida a los elementos constitutivos del delito y a la participación del encausado vertiese, en función de su datificación y algoritmización, elementos discriminatorios o sesgados respecto del investigado o encausado por razones de raza, sexo, orientación sexual, afiliación o creencias políticas, nacionalidad, lugar de residencia, sin una justificación objetiva y proporcional, avocando a que dicha valoración tecnológica del medio de prueba se vea comprometida por una ausencia de fiabilidad objetiva y con ello no ser suficiente para probar la culpabilidad.

¿Podría ser una herramienta tecnológica suficiente elemento como prueba de cargo para desvirtuar completamente la presunción de inocencia? Personalmente considero que no. Ni el estado de la ciencia, ni las previsiones legales procesales aplicables ni, siquiera, el sentido común, lo aconsejan. Por muy objetiva que pueda llegar a ser una prueba de procedencia tecnológica, es imprescindible que, si es la única prueba de cargo, concurra junto a ella y para fundamentar una condena, otros elementos (al menos indiciario y demostrados) que racionalmente corroboren la información, resultado, propuesta o predicción que, por ejemplo, una inteligencia artificial puede ofrecer. La exigencia de motivación en la sentencia respecto de la valoración probatoria efectuada por el órgano jurisdiccional sentenciador y su suficiencia para enervar la presunción de inocencia nos conduce a exigir que las pruebas presentadas encajen en los medios de prueba legalmente considerados, situación que aún no se produce en relación a una eventual prueba de inteligencia artificial, respecto de la cual no hay previsión legal en nuestras leyes de enjuiciamiento en relación a su viabilidad, práctica y valoración.

4.2. El derecho de defensa y de asistencia letrada

Otro gran bastión de los derechos procesales fundamentales, junto al derecho a la tutela judicial efectiva y el derecho a la presunción de inocencia, es el derecho de defensa, inherente a la postulación procesal de los derechos y obligaciones del ciudadano y a su adecuada tutela en sede jurisdiccional dentro de un Estado de Derecho. Salvaguardar adecuadamente el derecho de defensa, en la mayor extensión y efectividad posible a lo largo de un proceso judicial, y de forma muy especial en el caso del proceso penal y respecto del investigado o encausado, es imprescindible tratando de garantizar en todas y cada una de las actuaciones procesales que dicho derecho quede incólume, accesible y realizable, ya sea personalmente por el encausado (excepcionalmente) o a través de la participación de su defensa letrada como defensa técnica especializada, realizada por profesional (Abogado). Lógicamente la interpretación constitucional de este derecho fundamental establece una concepción amplia del mismo, abarcando todas las fases del proceso (desde posibles actuaciones preprocesales de carácter preparatorio, conciliatorio e incluso cautelar) hasta el cumplimiento de la sentencia firme (y la extinción de la pena en el caso del proceso penal). Derecho fundamental procesal, que en términos negativos proscribe la indefensión y que comprende tanto la libre designación de abogado como la designación de oficio en los supuestos que la ley prevé, ya sea ante la falta de designación en los casos en que es necesario o bien en caso de restricciones a la designación de abogado de confianza asumibles por las circunstancias concurrentes en esa situación procesal. Asume el órgano jurisdiccional, como en todos y cada uno de los derechos fundamentales procesales y garantías del proceso, la responsabilidad de comprobar y velar por la efectividad, en este caso, del derecho de defensa, de informar sobre su aplicabilidad y de los derechos que confiere removiendo los obstáculos que dificulten o impidan su efectivo despliegue. Anudada a un derecho de defensa efectivo está la disponibilidad, en caso de cumplir los respectivos requisitos establecidos legalmente, del derecho de asistencia jurídica gratuita del que pueden disponer las partes (especialmente al investigado o encausado) en caso de cumplir los requisitos y exigencias de la Ley 1/1996, de asistencia jurídica gratuita.

En este punto es imprescindible traer a colación el proyectado desarrollo del derecho de defensa, actualmente plasmado en el Proyecto de Ley Orgánica del Derecho de Defensa (BOCG, Serie A, referencia 121/000006, 2 de febrero de 2024) en el cual se interrelaciona de manera directa e indisociable la efectividad del derecho de defensa con su ejercicio a través de la defensa letrada profesional dando respuesta, con este proyecto de ley, y según su Exposición de Motivos (apartado III), a la constatación de que desde la aprobación de la Constitución Española, la jurisprudencia y la práctica judicial «han ido consolidando los estándares de protección del derecho de defensa en los diversos órdenes jurisdiccionales, procedimientos y actuaciones», llegando al momento en que «la realidad histórica y social de este país hace necesario» que se consagre en una ley orgánica que, sin agotar sus diversas facetas (y una de ellas, aún en ciernes y desconocida en cuanto a su inmediata evolución es la irrupción de la inteligencia artificial y su repercusión en este derecho), desarrolle algunos de los aspectos esenciales de este derecho, sirviendo para «que las personas conozcan el alcance de este derecho en su máximo reconocimiento y garantía, así como para dejar constituida una guía de ruta para todos los operadores jurídicos». De este modo el art. 1 del citado Proyecto de LO del Derecho de Defensa (2024) determina que el objeto de la norma es «regular el derecho de defensa, reconocido en el artículo 24 de la Constitución Española» como derecho fundamental indisponible, esto es, en una lectura en clave tecnológica, no afectable por cualquier herramienta de inteligencia artificial, o similar, que pueda menoscabarlo o excluirlo. Seguidamente ofreceremos algunas interrogantes y circunstancias que pueden, hipotéticamente, surgir de inmediato en el contexto que planteamos, tomando ya en consideración que el Proyecto advierte, tengámoslo en cuenta, art. 3.5, que «la utilización de medios electrónicos en la actividad de los Tribunales y la Administración de Justicia, así como ante otras Administraciones Públicas, deberá ser compatible con el ejercicio efectivo del derecho de defensa en los términos previstos en las leyes», estando sujeto –art. 3.6 del Proyecto de LO del Derecho de Defensa– al procedimiento legalmente establecido –deberá haber norma, por tanto que habilite situaciones, como las que avanzamos, en que por ejemplo una inteligencia artificial pudiera asumir la defensa técnica de una persona en el proceso– y que cualquier duda sobre su interpretación y alcance ha de resolverse, siempre, del modo más favorable al ejercicio del derecho.

¿En qué sentido puede afectar la inteligencia artificial al derecho de defensa? Consideramos que, al menos, en las siguientes situaciones:

  1. Desde el ejercicio de la defensa técnica letrada están disponibles soluciones de inteligencia artificial que asisten a la abogacía en la preparación y perfilación de los asuntos (en el entorno del conocido como legaltech). Herramientas mayoritariamente generadas como software desarrollado por empresas privadas que requiere de un desembolso económico para acceder a su licencia de utilización o bien como software que desarrollan bufetes de abogados o empresas para sus departamentos y servicios jurídicos. Este factor implica una cierta desigualdad frente a otros abogados que por diversos motivos no puedan tener acceso a las mismas, salvo que se llegue a disponer, desde instituciones públicas, herramientas a disposición de toda la abogacía. Es por ello que, en primer término, y en vinculación directa con el derecho a la igualdad, podrían producirse desequilibrios[5] en los casos en que una de las partes utilice herramientas de inteligencia artificial para la preparación del asunto frente a aquella otra que no tenga a su alcance los recursos (económicos o materiales) para ello, por cuanto le permitirá al litigante que la emplea desplegar con mayor eficiencia sus argumentos (más datos, más comparativas, etc…). En igual sentido en cuanto a garantizar un derecho de defensa efectivo, ante el posible rechazo[6] de un abogado a la defensa de un asunto cuando un previo cálculo predictivo de posibilidades arroje un resultado de posible éxito muy bajo o pobre.
  2. El derecho de defensa se puede ver afectado, en segundo término, cuando se lleva a efecto la aplicación de una herramienta de inteligencia artificial en el proceso y no se ha informado debidamente de esta situación a la parte, y además no le es posible conocer su funcionamiento (black box) pudiendo incurrirse tanto en una indefensión procesal (por no trasladar a la parte esta situación) como tecnológica (desconocimiento del diseño y funcionamiento del programa y algoritmos), siendo paradigmático en este sentido el famoso caso Loomis en Estados Unidos[7]. Esta situación podría dar lugar a indefensión a las partes por hurtarles el conocimiento de la forma en que se ha obtenido el resultado o la predicción. Incluso podría llegar a extenderse hasta la consideración de si con la utilización de aplicaciones de inteligencia artificial, y desde el respeto al derecho de defensa, podría vulnerarse de algún modo su vinculación con la utilización de medios de defensa y de prueba pertinentes y lícitos, si no hay una regulación legal previa que establezca las condiciones y límites para su uso en el proceso. Este inconveniente al derecho de defensa, y que se garantice un uso de inteligencia artificial en el proceso de forma adecuada y acorde con los derechos fundamentales procesales, pasa, entonces, por detallar a las partes el procedimiento de automatización de forma explicable y cognoscible más allá de su justo resultado, para así descartar legítimamente todo riesgo ausencia de transparencia, carencia de control humano, ausencia de confidencialidad o riesgo de sesgo o discriminación
  3. ¿Podría una inteligencia artificial asumir la defensa técnica de la parte en un proceso judicial? De partida, es una situación viable tecnológicamente (recuérdese el supuesto de DoNotPay en Estados Unidos, en que se ofrecía la posibilidad de que dicha app asesorara a un usuario en tiempo real, a través de un teléfono móvil inteligente, para defenderse de la acusación en juicio). Pero; ¿legalmente es posible? En España, al menos hoy en día, no hay norma de cobertura al efecto, y cualquier referencia al ejercicio de la defensa por abogado está vinculada al abogado como persona física humana. Si tomamos, por ejemplo, la última referencia del citado Proyecto de LO del Derecho de Defensa, el art. 4, al perfilar el derecho a la asistencia jurídica como elemento nuclear del derecho de defensa, establece en su apartado 2 que «la prestación de la asistencia jurídica para el ejercicio del derecho de defensa corresponde al profesional de la abogacía, de conformidad con lo dispuesto en las leyes y en los estatutos profesionales correspondientes». No hay, por tanto, habilitación legal, actual o previsión de futuro, que permita a una inteligencia artificial, por si misma, asumir la defensa técnica de la parte en un proceso judicial, más aún cuando en los arts. 12 y ss. del referido Proyecto de LO se desgranan las garantías del ejercicio de la abogacía refiriéndose en todo momento al profesional como «personas que, estando en posesión del título profesional regulado en la normativa sobre acceso a las profesiones de la abogacía la procura, están incorporadas a un colegio de la Abogacía como ejercientes y se dedican de forma profesional al asesoramiento jurídico, a la solución de conflictos y a la defensa de derechos e intereses ajenos, tanto públicos como privados, en la vía judicial o extrajudicial».

4.3. Otros derechos fundamentales procesales

¿Podría mecanizarse, a través de la interacción con una inteligencia artificial, el tradicional derecho a ser informado de la acusación? El art. 24.2 CE recoge de forma genérica este derecho fundamental procesal, de proyección penal, sin establecer en dicha sede normativa cómo ha de llevarse a cabo, sobreentendiendo, en una interpretación lógica, que corresponde al órgano jurisdiccional trasladar al investigado lo antes posible los hechos punibles y la calificación jurídica de los mismos (susceptible de posible modificación según avance el proceso y dentro de las condiciones legales que lo permitan) para habilitar de la manera más efectiva posible la plenitud del derecho de defensa al que se anuda indiscutiblemente. Estamos ante otro derecho fundamental procesal singular y diferente al de defensa, pero con carácter instrumental sobre aquel y sobre el derecho a la asistencia letrada. Implica la activación del señalamiento procesal concreto de una persona, y en segundo lugar de una persona frente a la que hay existencia de actividad incriminatoria. Ante esta realidad y exigencia constitucional, planteamos si el avance tecnológico permitiría implantar herramientas que trasladen de manera clara y fehaciente al investigado o encausado esta trascendental situación procesal, incluso en actividades policiales preliminares y de investigación por la Fiscalía, anteriores al inicio formal de las actuaciones.

El garantismo procesal exige el cumplimiento de esta condición de forma inmediata a la constatación de la implicación de una persona en un proceso penal en condición de investigada o encausada, más aún cuando la comunicación de cargos al sospechoso ante una inminente primera comparecencia, apertura de la fase de investigación y asunción de competencias del Juez de instrucción precisa de esta insoslayable protección de los derechos fundamentales de ese encausado. Si Policía y Fiscalía en actuaciones previas a una imputación, o los juzgados disponen de una herramienta que comunica directamente al investigado su situación, con el traslado de la información pertinente, como posible actuación automatizada o proactiva –no olvidemos las posibilidades que abre el art. 57 del reciente RDL 6/2023–, y previa consideración legal de esta actuación y su contenido y efectos, teóricamente, sería factible desde el momento que la Administración de Justicia disponga de una herramienta segura al efecto. Incluso con la coetánea comunicación de la pertinente citación para comparecer ante el juzgado competente y trasladarle el contenido de la investigación procesal que se sigue contra ella y una eventual declaración. Cabe, a priori, una lectura en clave tecnológica de este derecho que habilite un sistema tecnológico que transmita a un sospechoso los hechos que se le atribuyen y su calificación jurídica, dándole la oportunidad de defenderse, además de la necesaria comunicación adicional en caso de aparición de nuevos hechos que se le atribuyan o se modifique la calificación jurídica, además aprovechando la interactuación con una herramienta que constate que se ha llevado a cabo en lenguaje comprensible y accesible, adaptándola circunstancias y condiciones de la persona encausada (edad, grado de madurez, discapacidad u otra circunstancia personal –inmigración, colectivos vulnerables por exclusiones de raza, sexo, religión, procedencia social o nacional, etc.).

En relación con el derecho a la tutela judicial efectiva, una adaptación de su tenor constitucional vigente al fenómeno tecnológico presente nos lleva en primer lugar a determinar la incompatibilidad de la observancia de este derecho con cualquier solución tecnológica disruptiva que impida el acceso a los órganos jurisdiccionales. La tutela judicial efectiva ese un derecho fundamental pleno e imperturbable para el justiciable que no puede verse limitado ni cercenado. En su vertiente de acceso a la jurisdicción, no sería admisible, en ningún caso, establecer una obligación para el justiciable de someter un litigio a una herramienta de inteligencia artificial con aplicaciones procesales, ya sean predictivas o decisorias. En idéntico sentido, el empleo de herramientas de inteligencia artificial en el proceso debe dejar franco y expedito el derecho a recurrir e impugnar las decisiones jurisdiccionales que hayan dictado por el órgano jurisdiccional. Ni tiene sentido ni parece asumible, otorgar a una inteligencia artificial la revisión de las decisiones de un humano, más aún cuando uno de los principios básicos de empleo de la inteligencia artificial es más bien el contrario, la supervisión y control de las propuestas efectuadas por una herramienta de este tipo por parte de un humano. Más aún si cabe, si relacionamos todo lo anterior con el derecho al juez ordinario prestablecido por la ley, de cuya expresión deducimos tanto la referencia implícita a que el juez ordinario se entiende como un juez humano, no un juez-robot o similar– y que su previa determinación por ley requeriría, en nuestro caso una norma legal explícita que habilitara la atribución de la potestad jurisdiccional, y sus inherentes funciones de juzgar y hacer ejecutar lo juzgado, a una inteligencia artificial.

V. Garantías procesales y disrupción tecnológica

Un criterio meramente eficientista para implementar la inteligencia artificial en el ámbito del proceso judicial, suprimiendo o recortando garantías y afectando a los principios básicos del proceso y del procedimiento, no es admisible como coartada para la aplicación indiscriminada de soluciones tecnológicas que, presuntamente, puedan aportar mayor celeridad y eficacia a las actuaciones jurisdiccionales. Eficiencia sí, pero nunca a cambio de menores garantías procesales. El proceso debe mantenerse en las garantías propias del inveterado debido proceso, desde las actuaciones procesales públicas y llevadas a cabo por un juez imparcial, siendo ya conocido y advertido el riesgo que presentan, en estas vertientes, las soluciones tecnológicas por opacas y sesgadas o discriminatorias. Nos preguntamos, además, si realmente las soluciones tecnológicas disruptivas son el oasis en el desierto de la Administración de Justicia que puede propiciar la garantía de un proceso sin dilaciones indebidas, cuando aún ni siquiera disponemos de una experiencia y resultados contrastados en su efectividad. ¿Son idóneas herramientas tecnológicas para aminorar el plazo de duración de una fase de instrucción?, ¿lo son para sugerir al juez actuaciones procesales que generen un acortamiento temporal, sin merma de derechos y previsiones legales procedimentales, del proceso?, preguntas de cuya respuesta, una vez exista un bagaje real en su utilización, podremos extraer una verdadera conclusión.

Importantes garantías del proceso, y principios del proceso y del procedimiento, envuelven uno de los elementos claves: la prueba. Tomando, una vez más, como referencia la actividad probatoria en el proceso penal, donde toda prueba de cargo deberá ser incorporada al proceso penal con pleno respeto al derecho de defensa y al derecho a un proceso con todas las garantías, difícilmente vemos posible, a día de hoy, sin una regulación expresa en el articulado de las leyes de enjuiciamiento, que herramientas de inteligencia artificial puedan generar una posible «prueba de inteligencia artificial», cuando soluciones de software de este calado interpreten o apliquen determinados datos que consten en las actuaciones para evacuar pronósticos o dictámenes que el juez pueda utilizar para fijar los hechos probados, la culpabilidad y reflejarlo motivadamente en la sentencia desde la convicción que dicho resultado le haya deparado. ¿es aceptable una herramienta de inteligencia artificial que discrimine, asistencialmente para el órgano jurisdiccional, la admisibilidad por pertinente, útil, legal e idónea de una prueba propuesta por las partes o cuya adopción de oficio, en los supuestos previstos por ley, está valorando el juez? Conviene no olvidar en este aspecto que derechos como la presunción de inocencia o el derecho de defensa se ven directamente concernidos y es recomendable una flexibilidad y prevalencia para favorecerlos en relación con las decisiones jurisdiccionales que se pronuncien respecto a la inadmisión de prueba, la denegación de práctica de las mismas, e incluso su valoración, desde la imprescindible referencia que debe suponer en este sentido, particularmente en los dos primeros aspectos reseñados, de la exigencia de proporcionalidad y jurisdiccionalidad a la hora de limitar este derecho fundamental. ¿Conviene «delegar» en una inteligencia artificial, por ejemplo, determinar la ilicitud, por haber sido obtenida con violación de derechos fundamentales, de una prueba? El filtro jurisdiccional de control de no lesividad de derechos fundamentales nos parece absolutamente imprescindible en todo caso ante esta hipótesis, pudiendo llegarse, en su caso, a que pueda utilizarse como elemento auxiliar de la resolución jurisdiccional, pero nunca sustitutivo de la misma.

Como garantía procesal abordamos también la consideración legal de la prohibición de doble enjuiciamiento vinculada a la institución procesal de la cosa juzgada y la aplicación del principio de ne bis in idem y que se condiciona, lógicamente, a la existencia de una resolución judicial firme. Con ello, se mantiene la línea marcada en la Carta de Derechos Fundamentales de la Unión Europea, en cuyo art. 50 establece con el carácter de derecho, el derecho a no ser acusado o condenado penalmente dos veces por el mismo delito o infracción respecto de la cual ya haya sido absuelto o condenado en la Unión mediante sentencia penal firme conforme a la Ley. ¿Puede asumir, en una composición tecnológica actualizada de dicha exigencia, una inteligencia artificial esta labor?, de nuevo, volvemos al común denominador de casi todas las respuestas que venimos desgranando a la lectura en clave tecnológica de los axiomas procesales: técnicamente es posible, legalmente no se contempla hoy en día. Sin esta última condición, nada se puede hacer, más que ofrecer la valoración de su supuesta conveniencia. Aparentemente el contraste de los elementos básicos de la cosa juzgada, en cuanto a hechos enjuiciados y personas que han sido parte en el proceso, es una circunstancia asumible para la creación de un software que contraste aquello que ha sido resuelto en sentencia firme (cosa juzgada), e incluso que lo está siendo (litispendencia) y un nuevo proceso judicial, evitando esa duplicidad prohibida.

VI. Derechos fundamentales y garantías constitucionales e inteligencia artificial: un binomio conciliable

El tratamiento masivo de datos en el entorno del proceso, encuentra sus primeras y más directa, de forma concreta en el ámbito procesal penal, con la Ley Orgánica 7/2021, de 26 de mayo, de protección de datos personales tratados para fines de prevención, detección, investigación y enjuiciamiento de infracciones penales y de ejecución de sanciones penales, dando continuidad a nivel normativo interno a las orientaciones europeas procedentes de dos instrumentos como son el Reglamento (UE) 2016/679 del Parlamento Europeo y del Consejo, de 27 de abril de 2016, relativo a la protección de las personas físicas en lo que respecta al tratamiento de datos personales y a la libre circulación de estos datos y la Directiva (UE) 2016/680 del Parlamento Europeo y del Consejo, de 27 de abril de 2016, relativa a la protección de las personas físicas en lo que respecta al tratamiento de datos personales por parte de las autoridades competentes para fines de prevención, investigación, detección o enjuiciamiento de infracciones penales o de ejecución de sanciones penales.

El refrendo definitivo lo supone, como ya señalábamos en los albores del presente trabajo, el Real Decreto-Ley 6/2023, en el cual se desarrolla, de forma clara, explícita e integral para todos los órdenes jurisdiccionales, una justicia orientada al dato. Así lo establece dicha norma dentro de los objetivos y principios de la misma, en su art. 1: «1. La presente ley regula la utilización de las tecnologías de la información en el ámbito de la Administración de Justicia y en las relaciones de la Administración de Justicia con el resto de administraciones públicas, y sus organismos y entidades vinculadas y dependientes. 2. En la Administración de Justicia se utilizarán las tecnologías de la información de acuerdo con lo dispuesto en la presente ley, asegurando la seguridad jurídica digital, el acceso, autenticidad, confidencialidad, integridad, disponibilidad, trazabilidad, conservación, portabilidad e interoperabilidad de los datos, informaciones y servicios que gestione en el ejercicio de sus funciones. 3. Las tecnologías de la información en el ámbito de la Administración de Justicia tendrán carácter instrumental de soporte y apoyo a la actividad jurisdiccional, con pleno respeto a las garantías procesales y constitucionales», dotando ya, con ello, de los requisitos que hemos defendido relativos a existencia de norma legal de cobertura, jurisdiccionalidad y respeto a los derechos fundamentales.

Incluso, recordamos, el art. 35, dispone el principio general de orientación al dato en la Administración de Justicia, estableciendo la previsión de que: «Todos los sistemas de información y comunicación que se utilicen en el ámbito de la Administración de Justicia, incluso para finalidades de apoyo a las de carácter gubernativo, asegurarán la entrada, incorporación y tratamiento de la información en forma de metadatos», señalando el apartado k), de manera concreta este binomio de futuro entre proceso judicial e inteligencia artificial al indicar que el tratamiento generalizado que dispone se podrá utilizar en: «La aplicación de técnicas de inteligencia artificial para los fines anteriores u otros que sirvan de apoyo a la función jurisdiccional, a la tramitación, en su caso, de procedimientos judiciales, y a la definición y ejecución de políticas públicas relativas a la Administración de Justicia». Proceso judicial e inteligencia artificial están condenados a entenderse y a construir, conjunta e inseparablemente, uno de los vértices de futuro apoyo de las actuaciones jurisdiccionales.

Incorporar herramientas de inteligencia artificial al ámbito procesal ya está siendo uno de los retos de mayor envergadura que la evolución del proceso y de los procedimientos judiciales acometen, con la exigencia inapelable de hacerlo desde el más absoluto respeto a los derechos fundamentales procesales y a las garantías constitucionales del proceso tal y como hemos planteado en el presente trabajo. Desde los parámetros que hemos tratado de definir, son realidades conciliables. Parece casi imposible no pensar en que a corto plazo, los órganos jurisdiccionales, con las normativa ya disponible, obvien la posibilidad de verse asistidos con instrumentos de valoración del riesgo[8] o la reincidencia que recurran a soluciones de inteligencia artificial, como ya por ejemplo se viene haciendo en otros países y con precedentes que ofrecen la pauta garantista a seguir como puede ser el caso Loomis en Estados Unidos en relación con la utilización del programa COMPAS. O que recurran a herramientas de inteligencia artificial que puedan emitir recomendaciones o corroborar el resultado de una prueba en relación con datos objetivos y constatables, la veracidad de una declaración testifical o la idoneidad de un perito y su dictamen pericial. Ante esta realidad, aparentemente inaplazable e inapelable, deberán perfeccionarse las exigencias en relación con la observancia de los derechos fundamentales procesales, por ejemplo, y para evitar la indefensión, con la exigencia de comunicación previa a las partes de la utilización por parte del órgano jurisdiccional de este tipo de herramientas y de su funcionamiento, a efectos de facilitar tanto el derecho de defensa, alegando respecto a su utilización como el derecho a objetar en su aplicación –previsto en las normas europeas reguladoras de la utilización de inteligencia artificial y en el Reglamento (UE) 2016/679, General de Protección de Datos (RGPD), en caso de que se tratara de una actuación procesal automatizada.

En este último referente normativo, art. 22 RGPD, se establece el derecho de todo interesado (las partes en el caso del proceso judicial) a «no ser objeto a una decisión basada únicamente en el tratamiento automatizado, incluida la elaboración de perfiles, que produzca efectos jurídicos en él o le afecte significativamente de modo similar». Por tanto, el empleo de inteligencia artificial en el ámbito procesal afecta significativamente y produce efectos jurídicos sobre las partes –particularmente sobre el encausado, en el caso del proceso penal–, ya sea como elemento que sirva para aportar datos a valorar por el juez o asumiendo, llegado el hipotético caso, funciones decisorias. Ahora bien, cualquiera de las partes podrá rechazar, sin exigencia de justificación alguna, quedar sometido a una decisión que se base «únicamente» en el tratamiento automatizado, pero, sensu contrario, entendemos de la interpretación que realizamos del texto del precepto del RGPD de la UE que si estaría sujeto a una decisión judicial en la cual se ha asistido el juez o tribunal, que es quien decide en último término, de un elemento de inteligencia artificial como herramienta asistencial. Establece, por tanto, el precepto de referencia un derecho de reserva por el afectado para no ser objeto de una decisión basada únicamente en inteligencia artificial y esta le afecta jurídicamente, si no consiente expresamente a ella. Desde un plano generalista, consideramos utilizable una herramienta de inteligencia artificial legal, según la excepción del apartado c) del párrafo segundo del art. 22 del RGPD de la UE, cuando «se base en el consentimiento explícito del interesado», en nuestro caso, en el consentimiento (informado, como aclararemos seguidamente) de todas las partes en el litigio y prestado de forma voluntaria e inequívoca ante el órgano jurisdiccional, arbitral o mediador, ante el cual se sustancia el conflicto en el cual se lleve a efecto la aplicación de herramientas de inteligencia artificial siempre dentro de los límites legales aplicables. A nivel nacional, esta posibilidad se encuentra expresamente contemplada en la Ley Orgánica 3/2018, de 5 de diciembre, de Protección de Datos Personales y garantía de los derechos digitales, en cuyo art. 18 refleja la previsión expuesta por el Reglamento (UE) 2016/679.

Otras posibles aplicaciones de inteligencia artificial en el caso específico del proceso penal se contemplaban en el Anteproyecto de Ley de Enjuiciamiento Criminal de 2020, de forma adecuada, al requerir autorización judicial y con ello un control del cumplimiento de los mínimos exigibles en la defensa y protección de los derechos fundamentales procesales de las partes, en los contenidos del art. 516 (en relación con el cruce automatizado e inteligente de datos, bajo autorización del Juez de Garantías), 517 (búsquedas selectivas, también bajo autorización del Juez de Garantías) o el art. 518 (en relación al tratamiento de los datos utilizados y obtenidos).

La implementación de la inteligencia artificial, desde el pleno respeto a los derechos fundamentales y a las garantías procesales, en el ámbito del proceso, viene determinada, a nuestro parecer, por las siguientes tres condiciones preliminares:

  1. Regulación general –ya disponemos de ella merced a las previsiones del RDL 6/2023– y recomendablemente más explícita, en las Leyes de Enjuiciamiento, en relación a las actividades procesales en que puede el Juez acudir a elementos de inteligencia artificial en funciones asistenciales (nunca decisorias).
  2. Consentimiento informado como eje de la aplicación de la inteligencia artificial en situaciones procesales, particularmente en el caso del proceso penal, para una adecuada protección del derecho de defensa
  3. Supervisión jurisdiccional

Junto a las condiciones antecitadas, solo puede ser sostenible y admisible el binomio proceso judicial-inteligencia artificial desde la garantía de absoluto e incondicional respeto y observancia de los derechos fundamentales procesales. De este modo, y enn primer término, en relación con el derecho a la tutela judicial efectiva, y respecto al acceso a los órganos jurisdiccionales, este ha de mantenerse expedito y sin condiciones o requisitos inhabilitantes a favor del justiciable como consecuencia de una posible utilización de inteligencia artificial como elemento predictivo o disuasorio del acceso al proceso judicial. Hemos de tener presente, por ello, que la utilización de herramientas de inteligencia artificial en cuestiones procesales no pueden ser condición o requisito que menoscabe el libre acceso por parte del ciudadano a los juzgados y tribunales para obtener tutela judicial de sus derechos. Acceder a herramientas de inteligencia artificial que elaboren planteamientos procesales predictivos, cara a la preparación de un proceso, no puede servir de coartada para que el ciudadano, a la vista de una predicción, se retraiga de plantear su asunto judicialmente sobre la base de una simple predicción de fracaso a tenor de los datos arrojados en su conflicto, aún en fase preprocesal, por un sistema experto.

Tampoco puede coartar al justiciable una hipotética justicia virtualizada, en forma de jueces no humanos (inteligencias artificiales en funciones decisorias). Ante ese futurista escenario debiera contemplarse siempre y en todo caso tanto el derecho a objetar del justiciable como la disponibilidad incondicional de acceso a un órgano jurisdiccional atendido por humanos. En aquellos supuestos en que el órgano jurisdiccional pudiera recurrir a un sistema inteligente para la preparación o redacción de su resolución o, llegado el caso, si dicho sistema directamente asumiera la función decisoria sería absolutamente imprescindible que dicha decisión esté fundada en Derecho y motivada para cumplir con las exigencias inherentes al derecho a la tutela judicial efectiva. Bien es cierto que, en el segundo caso, ni siquiera podríamos hablar de tutela «judicial» puesto que no sería un juez quien se pronunciara sobre la cuestión sino una inteligencia artificial legal. En cualquier caso, aunque con ello, se simplificarían las actuaciones, no queda relevada ni eximida la exigencia de fundamentación jurídica y motivación para que las partes puedan acceder al razonamiento sobre el cual se asienta la decisión adoptada. Ha de conocerse la «razonabilidad» y congruencia de la decisión, su correlación con el objeto del proceso (hechos y pretensiones) y el contraste con la operación algorítmica llevada a cabo, sin perjuicio de que en el caso de tratarse de inteligencias artificiales en funciones asistenciales del órgano jurisdiccional, quede en manos del juzgador (control humano, como una de las premisas indisociables a la inteligencia artificial) el encaje de la lógica tecnológica con la resolución que dicta y asume como propia. La precitada Resolución de 16 de febrero de 2017 del Parlamento europeo prevé, en relación con esta cuestión, en su Considerando H el que ha de velarse por la inteligibilidad de los procesos decisorios de las herramientas de inteligencia artificial, cuestión que índice con las reflexiones precedentes respecto a la necesidad insoslayable de fundar en Derecho y motivar una resolución jurisdiccional, también obtenida con apoyo o aplicación plena de inteligencia artificial.

Piedra angular del proceso judicial en términos constitucionales es el escrupuloso respeto al derecho de defensa. Hemos anticipado, en pasajes previos, algunos de los riesgos a los que puede verse expuesto. Por ejemplo, el acceso y empleo de herramientas de inteligencia artificial, salvo que se dispongan de forma pública e igualitaria desde instituciones públicas, requiere un desembolso económico por cuanto se trata de creaciones informáticas procedentes de empresas privadas. Es por ello que, en primer término, y en vinculación directa con el derecho a la igualdad, podrían producirse desequilibrios en los casos en que una de las partes utilice herramientas de inteligencia artificial para la preparación del asunto (en el entorno del actualmente denominado legaltech) frente a aquella otra que no tenga a su alcance los recursos (económicos o materiales) para ello, por cuanto le permitirá al litigante que la emplea desplegar con mayor eficiencia sus argumentos (más datos, más comparativas, pronósticos, predicciones, etc.). Asimismo, en cuanto a garantizar un derecho de defensa efectivo, ante el posible rechazo de un abogado a la defensa de un asunto cuando un previo cálculo predictivo de posibilidades arroje un resultado de escasas posibilidades de éxito en la defensa de las pretensiones de su cliente.

El derecho de defensa se puede ver afectado también, como ya hemos relatado en apartados anteriores, cuando se desconoce el funcionamiento de la herramienta, bien porque no se le notifica al justiciable y a los encargados de su postulación procesal o bien por qué se le otorga información insuficiente –especialmente en relación a los aspectos más técnicos de configuración y funcionamiento de la herramienta tecnológica–, y no se presta un consentimiento informado y con garantías, sobre sus características y funcionamiento, diseño y algoritmos. Esta situación, dará lugar a indefensión (tecnológica y procesal) a las partes por hurtarles el conocimiento de la forma en que se ha obtenido el resultado o la predicción. Incluso podría llegar a extenderse hasta la consideración de si con la utilización de aplicaciones de inteligencia artificial, y desde el respeto al derecho de defensa, podría vulnerarse de algún modo su vinculación con la utilización de medios de defensa y de prueba pertinentes y lícitos, si no hay una regulación legal previa que establezca las condiciones y límites para su uso en el proceso. Cedería entonces el secreto empresarial y los derechos de propiedad industrial que protegen la conformación de la inteligencia artificial legal ante el superior valor del derecho fundamental de defensa que, para ejercerse en plenitud en un proceso (de manera particularmente especial en el caso del proceso penal), requiere que las partes conozcan el funcionamiento de la misma, sus datos y algoritmos, situándolo asimismo en la línea de transparencia en su utilización que se exige desde los postulados normativos europeos sobre uso de herramientas de inteligencia artificial. Basta recordar, como apunte, el mandato del Consejo Económico y Social Europeo en la conclusión 1.7 de su Dictamen relativo a generar confianza en la inteligencia artificial centrada en el ser humano (2019) aludiendo a que los sistemas de inteligencia artificial deben ser «explicables o, cuando ello no sea posible, debe facilitarse información a los ciudadanos y a los consumidores sobre sus límites y riesgos. Este inconveniente al derecho de defensa, y que se garantice un uso de inteligencia artificial en el proceso de forma adecuada y acorde con los derechos fundamentales procesales, pasa, entonces, por detallar a las partes el procedimiento de automatización de forma explicable y cognoscible más allá de su justo resultado, para así descartar legítimamente todo riesgo ausencia de transparencia, carencia de control humano, ausencia de confidencialidad o riesgo de sesgo o discriminación.

Examinando las potenciales consecuencias del advenimiento de la inteligencia artificial en el entorno del proceso, desde su repercusión al derecho de defensa, se nos plantea la siguiente incógnita. Existen ya inteligencias artificiales que ejercitan labores de acusación en el proceso penal. Así, asumiendo la figura del Ministerio Fiscal, como ocurre en la Fiscalía Popular de Shanghai Pudong, la mayor fiscalía de distrito en China, donde se ha implementado un sistema informático basado en inteligencia artificial capaz de elaborar escritos de acusación y presentar cargos contra sospechosos basándose en una descripción verbal de lo sucedido. E igualmente en supuestos de creaciones tecnológicas que pueden asumir las funciones de abogado o los casos en que los abogados recurren a soluciones de inteligencia artificial generativa para la preparación y redacción de escritos de acusación. ¿Ejercer la acusación desde estas fórmulas tecnológicas afecta o menoscaba el derecho de defensa? Personalmente entiendo que la clave, en cualquier caso, para el perfecto despliegue del derecho de defensa está «en la exigencia básica del principio acusatorio en cuanto confiere al acusado, en el caso del proceso penal, la oportunidad de rebatir la acusación, especialmente en el plenario, sin que pueda ser condenado por elementos fácticos y jurídicos distintos de la que se le ha acusado» (Sentencia del Tribunal Supremo 112/2024, de 6 de febrero, ECLI:ES:TS2024:633) con independencia de la forma –humana o «tecnológica»- en la cual se ejercita dicha acusación. Por supuesto que es aconsejable que la acusación, desde la que salta el resorte del derecho de defensa como respuesta, sea ejercitada o, al menos, supervisada por humano (Ministerio Fiscal o Abogacía) pero no es óbice para que la base de la misma haya sido elaborada, preparada o propuesta por una inteligencia artificial, sin que ello repercuta, de manera directa e irreparable, en un menoscabo del derecho de defensa.

Concernido por el binomio proceso judicial (penal) e inteligencia artificial se ve también, tal y como hemos analizado, el derecho a la presunción de inocencia. Este derecho fundamental puede verse condicionado, más aún por su importancia en el ámbito del proceso penal siendo capital para el investigado o encausado, dado que el derecho a la presunción de inocencia quedaría desvirtuado de raíz cuando el sistema de inteligencia artificial aplicado a la realización de actos de investigación o a actos de valoración de la prueba es discriminatorio y sesgado en relación con determinados perfiles de personas por su origen, condición, raza, género, lugar de residencia e, incluso, en razón de ostentar posibles antecedentes penales. Incluso, puede generarse un efecto pernicioso sobre la presunción de inocencia en virtud del manejo de datos o hechos desarraigados del proceso y totalmente ajenos al mismo que puedan perjudicar al investigado o encausado, como puedan ser los de tipo socioeconómico, laborales o educativos. Dilucidar sobre la culpabilidad o inocencia de una persona no es una mera cuestión de perfilación automática sobre patrones preestablecidos por un sistema de inteligencia artificial, siempre y en todo proceso penal hay una diferencia concurrente: los hechos y las circunstancias de posible comisión del hecho delictivo. No hay dos delitos iguales y las previsiones que pueden arrojar millones de datos y los algoritmos más evolucionados no pueden condicionar la presunción de inocencia que requiere la existencia de pruebas de cargo concluyentes, legales e indubitadas.

Finalmente, podemos traer a colación también las connotaciones de la interrelación entre proceso judicial e inteligencia artificial en lo que respecta al derecho al debido proceso (proceso con todas las garantías) para el cual una primera y apreciable incidencia tiene lugar en relación con la exigencia de que, cuando se utilice el sistema de inteligencia artificial por el juzgado o tribunal en funciones asistenciales o decisorias, exista una cobertura legal que lo ampare, desde los postulados generales de nuestras leyes de enjuiciamiento en las que meridianamente queda sentando el principio de legalidad como principio rector del proceso, exigiendo que todas las actuaciones se conduzcan de acuerdo a las previsiones legales vigentes y aplicables. Desde la amplitud que abarca el derecho al debido proceso, el empleo de utilidades de inteligencia artificial en materia probatoria, o como medio de prueba, incide directamente, de nuevo y entre otras consecuencias, en las exigencias anteriormente referidas del RGDP europeo relativas a que tanto el juzgado o tribunal como los litigantes conozcan los algoritmos empleados por el sistema a la hora de evacuar su resultado o propuesta. En relación al órgano jurisdiccional, es crucial el entendimiento por este del funcionamiento y resultados ofrecidos por la herramienta de inteligencia artificial si ella comporta un elemento asistencial en la valoración de la prueba o directamente configura un medio de prueba puesto que posteriormente en la sentencia deberá motivar como ha interpretado y valorado el resultado de dicha prueba, cuestión prácticamente imposible si para el juez no ha sido inteligible por ejemplo como se ha datificado y algoritmizado dicha aplicación. Y en igual sentido para las partes en cuanto en el momento del juicio y para garantizar la plenitud de sus alegaciones no conocen los criterios de funcionamiento del sistema de inteligencia artificial con lo que se les privaría, si así fuera, de su derecho de defensa al no poder ejercerlo adecuadamente.

Derivación natural del derecho al debido proceso es la interrelación con la exigencia constitucional del juez ordinario predeterminado por la ley. Se trata, desde uno y otro, de eliminar y proscribir arbitrariedades en el proceso judicial, o por analogía en otras vías extrajudiciales de resolución de litigios. Llegados a este punto, puede asaltarnos la duda de si el empleo de inteligencias artificiales en la resolución de litigios, pudiera afectar el derecho al juez ordinario predeterminado por la ley, en cuanto es un elemento no inicial del proceso, condicionado a una elección subjetiva, por ejemplo del juez para emplearlo como elemento asistencial o auxiliar en el procedimiento o directamente en la decisión que resuelve el objeto del proceso, o bien, si este fuera el caso, designado externamente para asumir la función decisoria del litigio desde su personalidad no humana, cuando el derecho al juez ordinario predeterminado por la ley, de suyo, se refiere a un juez humano. ¿Condiciona, entonces, la introducción de una inteligencia artificial en la actividad procesal las garantías que engloba el derecho al juez ordinario predeterminado por la ley y el derecho al debido proceso? La respuesta se encuentra en la interpretación que otorguemos al vigente art. 24.2 de la Constitución española, por cuanto la jurisprudencia del Tribunal Constitucional es clara y contundente en cuanto a la exigencia de existencia y creación anterior al litigio del órgano jurisdiccional y a su implantación por norma legal, proscribiendo los tribunales y juzgados de excepción, especiales y ad hoc. Una inteligencia artificial que se crease con exclusividad para decidir un asunto (juez virtual) y con posterioridad a su judicialización incumpliría dicha exigencia, a mayores de la posible interpretación, literal, que al término «juez ordinario» se pueda ofrecer, en el sentido de que únicamente parece concebida para el caso de un juez humano. Distinta puede ser la respuesta en el caso de emplear una inteligencia artificial legal con fines asistenciales, sin atribución decisoria, al ser en este caso el juez quien, y en su condición previa de ordinario y predeterminado por la ley, resuelve el litigio, recurriendo de forma motivada y argumentada a esta herramienta para aquellas funciones asistenciales o auxiliares que en la resolución del pleito pueda considerar adecuadas y ajustadas a la legalidad.

VII. Conclusión: ¿superamos el test de control sobre la aplicación de derechos fundamentales y garantías constitucionales en una lectura en clave tecnológica?

Se entenderá superado este test de control siempre y cuando, haya normas legales de cobertura que adapten a la realidad disruptiva de la tecnología estas situaciones –normas que ya comenzamos a tener disponibles–; sí, siempre y cuando se observe escrupulosamente el principio de control y supervisión jurisdiccional, y sí, siempre y cuando sepamos adaptar a la evolución lógica del tiempo y progreso en que nos encontramos con el máximo respeto, provenientes de décadas –e incluso siglos– anteriores a la aparición y aplicación de estas tecnologías, que demandan los derechos fundamentales (procesales) y las garantías del proceso.

Con esas premisas superadas ha de ser bienvenido, y considerado de forma muy positiva, el binomio proceso judicial e inteligencia artificial mediante una lectura en clave tecnológica de los derechos fundamentales y las garantías del proceso. Más aún, cuando se trata de acomodar las estructuras procesales y la función jurisdiccional a la realidad de su tiempo; hoy, el tiempo de las tecnologías disruptivas que todo lo alcanzan.

Bibliografía

ALMAGRO NOSETE, J. (2021) Garantías constitucionales del proceso civil, La evolución del Derecho Procesal a la luz de JUSTICIA, 40 años de historia, J. Picó i Junoy (ed.), JM Bosch, 127-159

ÁLVAREZ BUJÁN, M.V. (2023) Inteligencia artificial y medidas cautelares en el proceso penal: tutela judicial efectiva y autodeterminación informativa en potencia riesgo, Revista Española de Derecho Constitucional, 127, 177-207. doi: https://doi.org/10.18042/cepc/redc.127.06

ANDRÉZ IBÁÑEZ, P. (2005) Las garantías del imputado en el proceso penal, Reforma judicial: Revista Mexicana de Justicia, 6, 3-34

ARRABAL PLATERO, P. (2022) Los objetivos de desarrollo sostenible y la inteligencia artificial en el proceso judicial, Tirant Lo Blanch

ASENCIO MELLADO, J.M. (2005) Presunción de inocencia y presunciones iuris tantum, Revista General de Derecho Procesal, 36

BAENA PEDROSA, M. (2023) Aplicación de inteligencia artificial por los tribunales europeos, Tirant Lo Blanch

BARYSÉ, D. y SAREL, R. (2024) Algorithms in the court; does it matter which parto f the judicial decisión-making is automated?. Artificial intelligence and Law, 32, 117-146

BINI, S. (2024), Reflexiones sobre justicia, humanidad y digitalización, Inteligencia artificial y Filosofía del Derecho, F.H. Llano Alonso (dir.), Ed. Laborum, 79-90

BONET NAVARRO, J. (2021) Valoración de la prueba y resolución mediante inteligencia artificial, Derecho Procesal: retos y transformaciones, L. Bujosa Vadel (dir.), Atelier, 315-338

BONET NAVARRO, J., (2018) La tutela judicial de los derechos no humanos. De la tramitación electrónica al proceso con robots autónomos, CEFLegal: Revista Práctica de Derecho, 208, 55-92

BORGES BLÁZQUEZ, R. (2020) El sesgo de la máquina en la toma de decisiones en el proceso penal, Ius et Scientia, 6 (2), 54-71

BORGES BLÁZQUEZ, R. (2021) Inteligencia artificial y proceso penal, Thomson Reuters Aranzadi

BUENO DE MATA, F. (2010) E-justicia: hacia una nueva forma de entender la justicia, Riedpa: Revista Internacional de Estudios de Derecho Procesal y Arbitraje, 1, 10-20

BUENO DE MATA, F. (2020), Macrodatos, Inteligencia Artificial y proceso: luces y sombras, Revista General de Derecho Procesal 51, 1-32

BUENO DE MATA, F. (2022) El impacto de las tecnologías disruptivas en el derecho procesal, Thomson Reuters Aranzadi

CALAZA LÓPEZ, S. (2024) «Contra todo pronóstico: tanta digitalización como desconexión de la mediación. Ni MASC ni menos», Revista La Ley. Mediación y Arbitraje, 18

CORVALÁN, J. (2018) Inteligencia artificial: retos, desafíos y oportunidades – Prometea: la primera inteligencia artificial de Latinoamérica al servicio de la Justicia, Revista de Investigações Constitucionais, 5 (1), 295-316

1, L. (2017) Big data e inteligencia artificial. Una aproximación a su tratamiento jurídico desde los derechos fundamentales, Dilemata, 24, 131-150

ENGEL, C.; LINHART, L. (2024) Schubert, M. Code is Law: how COMPAS affects the way the judiciary handles the risk of recidivism, Artificial Intelligence and Law, doi.org/10.1007/s10506-024-09389-8

FIGUERUELO BURRIEZA, A. (1990) El derecho a la tutela judicial efectiva, Tecnos

FONTESTAD PORTALÉS, L. (2023) Consideraciones acerca de la aplicación de la inteligencia artificial en la cooperación judicial penal internacional, Ius et Scientia, 9(2), 10-26

GARCÍA CANTERO, J. (2019) Deus ex machina. Suplemento Retina, Diario El País, https://elpais.com/retina/2019/08/13/tendencias/1565696336_176424.html

GARCÍA-VARELA IGLESIAS, R. (2022) La (futura) legislación sobre inteligencia artificial: cuestiones sobre la prueba y responsabilidad derivada de su uso, Diario La Ley

GIMENO SENDRA, V. (1981) Fundamentos del Derecho Procesal, Cívitas

GOLDSCHMIDT, J. (2020) Teoría General del Proceso, Ediciones Olejnik, reimpresión

GÓMEZ DE LIAÑO FONSECA-HERRERO, M. (2006) Los derechos fundamentales de naturaleza procesal en la Unión Europea: protección y contenido, Revista de Derecho de la Unión Europea, 11, 61-78

GONZÁLEZ GRANDA, P y ARIZA COLMENAREJO, M.J. (2021) Justicia y Proceso: una revisión procesal contemporánea bajo el prisma constitucional, Dykinson

GUZMÁN FLUJA, V. (2021) Proceso penal y justicia automatizada, Revista General de Derecho Procesal, 53, 1-40

LUPARIA, L. (2017) La presunción de inocencia en la Carta de los Derechos Fundamentales de la Unión Europea, Revista Vasca de Derecho Procesal y Arbitraje, 2, 199-213

MARTÍN DIZ, F. (2011) Presunción de inocencia como derecho fundamental en la Unión Europea, Revista Europea de Derechos Fundamentales, 18, 133-166

MARTÍN RIOS, P. (2022) El uso de big data y de inteligencia artificial en el ciberpatrullaje: de la tiranía del algorimo y otras zonas oscuras, IDP. Revista de Internet, Derecho y Política, 36, 1-13

MARTÍNEZ GARAY, L. (2018) Peligrosidad, algoritmos y due process: el caso State vs. Loomis, Revista de Derecho Penal y Criminología, 20, 485-502

MCKAY, C. (2020) Predicting risk in criminal procedure: actuarial tools, algorithms, AI and judicial decision-making, Current Issues in Criminal Justice, 32(1), 22-39

MIRÓ LLINARES, F. (2018) Inteligencia artificial y Justicia Penal: Más allá de los resultados lesivos causados por robots, Revista de Derecho Penal y Criminología, 20, 87-130

MORALES MORENO, A.M. (2021) Algoritmos en el estrado ¿realmente los aceptamos? Percepciones del uso de inteligencia artificial en la toma de decisiones jurídico-penales. Ius et Scientia, 7(2), 57-87

NIEVA FENOLL, J. (2018) Inteligencia artificial y proceso judicial, Marcial Pons

NOYA FERREIRO. L. (2022) Algunas consideraciones sobre inteligencia artificial, proceso penal y derechos fundamentales, Variaciones sobre un tema: el ejercicio procesal de los derechos, P. González Granda, J. Damián Moreno, M.J. Ariza Colmenarejo (dirs.), Colex, 685-702

ORTELLS RAMOS, M., y Bellido Penadés, R. (2017) El derecho fundamental a la tutela judicial efectiva, Introducción al Derecho Procesal, M. Ortells Ramos (coord.), Thomson-Reuters Aranzadi, 246-272

PÉREZ ESTRADA, M.J. (2019) El uso de algoritmos en el proceso penal y en el derecho a un proceso con todas las garantías, Claves de la justicia penal. Feminización, inteligencia artificial, supranacionalidad y seguridad, S. Barona Vilar (dir.), Tirant lo Blanch, 235-254

PÉREZ ESTRADA, M.J. (2022) Fundamentos jurídicos para el uso de la inteligencia artificial en los órganos judiciales, Tirant Lo Blanch

PICÓ I JUNOY, J. (2012) Las garantías constitucionales del proceso, JM Bosch

PIÑAR MAÑAS, J.L. (2018) «Derecho. Ética e innovación tecnológica», Revista Española de Derecho Administrativo, 195, 11-30

PRESNO LINERA, M.A. (2023) La propuesta de «Ley de inteligencia artificial» europea, Revista de las Cortes Generales, 116, 81-133

QUATTROCOLO, S. (2020). Artificial Intelligence, Computational Modelling and Criminal Proceedings. Springer.

RAMOS MÉNDEZ, F. (1979) Derecho y Proceso, Librería Bosch

RODRÍGUEZ-PIÑERO y BRAVO-FERRER, M. (2016) La Directiva (UE) 2016/343 y el derecho a la presunción de inocencia, Diario La Ley, 8750

ROIG, A. (2017) Safeguards for the right not to be subject to a decision based solely on automated processing (Article 22 GDPR), European Journal of Law and Technology, 8(3), 1-17

SAN MIGUEL CASO, C. (2021) La aplicación de la inteligencia artificial en el proceso: ¿un nuevo reto para las garantías procesales?, Ius et Scientia, 7(1), 286-303

SANCHIS CRESPO, C. (2023) Inteligencia artificial y decisiones judiciales: crónica de una transformación anunciada. Scire, 29:2, 65-84

SOLAR CAYÓN, J.I. (2020) Inteligencia artificial en la justicia penal: los sistemas algorítimicos de evaluación de riesgos, J.I. Solar Cayón (ed.), Dimensiones éticas y jurídicas de la inteligencia artificial en el marco del Estado de Derecho, Ed. Universidad de Alcalá, 125-172

SURDEN, H. (2019) Artificial intelligence and Law: an overview, Georgia State University Law Review, 35(4), 1305-1337

VAN DIJCK, J. (2014) Datafication, dataism and dataveillance: big data between scientific paradigm and ideology, Surveillance & Society, 12(2), 197-208

VELIZ, C. (2019) Inteligencia artificial: ¿proceso o retroceso? Suplemento Retina, Diario El País, https://elpais.com/elpais/2019/06/13/opinion/1560421249_824783.html

YEUNG, K, HOWES, A., Y POGREBNA, G. (2019) AI Governance by Human Rights-Centred Design, Deliberation and Oversight: An End to Ethics Washing, The Oxford Handbook of AI Ethics, M. Dubber y F. Pasquale (eds.), Oxford University Press


[1] El Real Decreto-ley 6/2023 de 19 de diciembre por el que se aprueban medidas urgentes para la ejecución del Plan de Recuperación, Transformación y Resiliencia en materia de servicio público de justicia, función pública, régimen local y mecenazgo, procede a reformar diversos preceptos de la vigente Ley de Enjuiciamiento Civil de cara a implementar y potenciar la realización de numerosas actuaciones procesales en sede telemática, estableciendo con carácter general que todos los actos procesales se lleven a cabo preferentemente mediante presencia telemática. Los arts. 129 bis y el nuevo art. 137 bis LEC contemplan la realización de las actuaciones judiciales por videoconferencia, o art. 152 dispone las pautas para el empleo de medios electrónicos en la práctica de actos de comunicación (conforme a las exigencias del art. 273 LEC), la remisión de comunicaciones por medios electrónicos (art. 160 LEC) y la implantación de la sede judicial electrónica (art. 161) junto al tenor del nuevo art. 268 LEC en relación a la presentación de documentos por medios electrónicos. Además, se generaliza la posibilidad de realizar las actuaciones judiciales preferentemente a través de medios telemáticos. En particular, se determina que las intervenciones mediante videoconferencia de los profesionales, partes, peritos y testigos habrán de hacerse desde la oficina judicial correspondiente al partido judicial de su domicilio o lugar de trabajo. No obstante, si el juez lo estima oportuno en atención a las circunstancias concurrentes, estas intervenciones podrán hacerse desde cualquier lugar, siempre que disponga de los medios que permitan asegurar la identidad del interviniente conforme a lo que se determine reglamentariamente. En esta misma línea se determina la posible celebración de la audiencia previa y de la vista en el juicio ordinario (arts. 414 y 432 LEC) mediante comparecencia de las partes y sus representantes procesales por videoconferencia u otro medio electrónico para la reproducción del sonido y, en su caso, de la imagen cuando el tribunal lo acuerde de oficio o lo solicite alguna de las partes.

[2] Art. 35 RDL 6/2023, estableciendo expresamente el principio general de orientación al dato, en cuanto que dispone que todos los sistemas de información y comunicación que se utilicen en el ámbito de la Administración de Justicia, incluso para finalidades de apoyo a las de carácter gubernativo, asegurarán la entrada, incorporación y tratamiento de la información en forma de metadatos, y con la finalidad, entre otras de aplicar (apartado k) «técnicas de inteligencia artificial para los fines anteriores u otros que sirvan de apoyo a la función jurisdiccional, a la tramitación, en su caso, de procedimientos judiciales, y a la definición y ejecución de políticas públicas relativas a la Administración de Justicia»

[3] Definición que se ofrece en el art. 3 del reciente Reglamento de la Unión Europea por el que se establecen normas armonizadas sobre la inteligencia artificial (Ley sobre Inteligencia Artificial), cuya aprobación definitiva por el Parlamento Europeo ha tenido lugar el 13 marzo de 2024

[4] Art. 56 RDL 6/2023 «1. Se entiende por actuación automatizada la actuación procesal producida por un sistema de información adecuadamente programado sin necesidad de intervención humana en cada caso singular. 2. Los sistemas informáticos utilizados en la Administración de Justicia posibilitarán la automatización de las actuaciones de trámite o resolutorias simples, que no requieren interpretación jurídica. Entre otras: a) El numerado o paginado de los expedientes; b) La remisión de asuntos al archivo cuando se den las condiciones procesales para ello; c) La generación de copias y certificados; d) La generación de libros; e) La comprobación de representaciones; f) La declaración de firmeza, de acuerdo con la ley procesal»

[5] Consejo de Europa, Código ético Europeo sobre el empleo de sistemas de inteligencia artificial en el ámbito de la justicia (pp. 47-48): «The use of technological means should not cause imbalances between parties, since the use of digital means could indeed facilitate proceedings for certain operators (institutions, companies with means, computer literate persons) and, on the contrary, pose difficulties for certain population types that are more uncertain or less familiar with computers. It is important that no individuals are left alone in front of their screens, and that they are informed that they can seek legal advice and are assisted where necessary».

[6] Código ético europeo…, cit., p. 48: «we mentioned the advantages derived from the application of predictive justice tools for lawyers and, in particular, the possibility of providing their clients with better informed advice by empirically and systematically assessing the chances of a procedure’s success. However, let us imagine a case where the chances of success for the litigant are extremely poor: could this affect the lawyer’s decision to assist his client? Professional practice should aim to minimise the risk that persons requiring legal advice may ultimately be deprived of it.»

[7] State v. Loomis, 881 N.W.2d 749 (Wis. 2016), consecuencia de la aplicación del sistema de inteligencia artificial (COMPAS) para la asistencia y evaluación de decisiones en un proceso penal. La defensa del acusado (Sr. Loomis) cuestionó el empleo de dicho sistema de inteligencia artificial por vulnerar el derecho al debido proceso al no haber permitido que el litigante conociese los algoritmos empleados por la inteligencia artificial, considerando que si la justicia utiliza dicha herramienta como elemento asistencial en la toma de una decisión que afecta a los derechos fundamentales del individuo, éste ha de conocer previamente sus algoritmos y modo de empleo. El asunto llegó al Tribunal Supremo de los Estados Unidos, en 2017, para anular el fallo anterior de la Corte Suprema de Wisconsin consecuencia de la impugnación respecto al uso por parte del Estado de Wisconsin en la sentencia de Eric Loomis, quien fue condenado a seis años de prisión, de un software de evaluación de riesgos de código cerrado de propiedad exclusiva, porque con ello se impedía que el acusado impugne la validez científica y la exactitud de dicha prueba así como la discriminación del sistema de inteligencia artificial, alegando asimismo que también el empleo de dicha inteligencia artificial era vulneradora del derecho al debido proceso, al tomar en cuenta el género y la raza. Aun así, el Tribunal Supremo de los Estados Unidos denegó el recurso de certiorari, declinando escuchar el caso, el 26 de junio de 2017. Véase un comentario de la sentencia en Harvard Law Review (https://harvardlawreview.org/2017/03/state-v-loomis/, última consulta: 17.04.2019)

[8] Previstos en el Anteproyecto de Ley de Enjuiciamiento Criminal de 20202, en su art. 485. Instrumentos de valoración del riesgo de violencia o reincidencia.

  1. Los instrumentos de valoración del riesgo de violencia o reincidencia deberán incluir todos los parámetros estadísticos que permitan evaluar tanto su fiabilidad como su capacidad predictiva.
  2. Dichos instrumentos especificarán el tamaño de la población con la que se han construido, las variables utilizadas como factores de riesgo, los criterios de medición empleados para ponderar dichos factores asignando puntuaciones, y el tiempo de validez de la predicción. También habrán de identificar los estudios de validación realizados.