Consideraciones acerca de la aplicación de la IA en la cooperación judicial penal internacional[*]

CONSIDERATIONS ON THE APPLICATION OF THE IA IN INTERNATIONAL JUDICIAL COOPERATION IN CRIMINAL MATTERS

Leticia Fontestad Portalés

Catedrática (A) Derecho Procesal

Universidad de Málaga

Consejera Académica GUERRERO ABOGADOS

lfp@uma.es 0000-0001-5382-7990

Recibido: 3 de noviembre de 2023 | Aceptado: 6 de diciembre de 2023

IUS ET SCIENTIA • 2023

Vol. 9 • Nº 2 • pp. ISSN 2444-8478 • 10-26

ISSN 2444-8478 • https://dx.doi.org/10.12795/IESTSCIENTIA.2023.i02.01

RESUMEN

PALABRAS CLAVE

El estudio acerca del impacto de los sistemas de inteligencia artificial en el ámbito de la Administración de Justicia no es, en absoluto, una cuestión novedosa. Como tampoco lo es hablar hoy en día de la digitalización de la cooperación judicial penal internacional. Es por ello por lo que, partiendo de la consolidación del uso de las nuevas tecnologías para el intercambio de información entre las autoridades judiciales y policiales en relación con investigaciones penales transfronterizas, nos adentramos en la incidencia de las nuevas soluciones de inteligencia artificial en este ámbito de la cooperación entre Estados.

Cooperación judicial penal internacional

Inteligencia artificial

Digitalización de la justicia

ABSTRACT

KEYWORDS

The study of the impact of artificial intelligence systems in the field of the administration of justice is by no means a new issue. Nor is talking about the digitisation of international judicial cooperation in criminal matters. This is why, based on the consolidation of the use of new technologies for the exchange of information between judicial and police authorities in relation to cross-border criminal investigations, we will examine the impact of new artificial intelligence solutions in this area of cooperation between States.

International judicial cooperation in criminal matters

Intelligence systems

Digitisation of justice

I. Introducción

Son muchas las reflexiones, críticas y estudios que a lo largo de los últimos años han realizado los expertos en torno a los beneficios y los inconvenientes del uso de las nuevas tecnologías y, concretamente, del uso de sistemas basados en la Inteligencia Artificial en el ámbito de la Administración de Justicia. Nos encontramos, por tanto, ante una cuestión que, sin ser ni mucho menos novedosa, genera y continuará generando polémica a lo largo de los próximos tiempos.

Las razones por las que el uso de sistemas de inteligencia artificial provoca rechazo desde un punto de vista jurídico, entre otras razones, como de todos es sabido, por la ausencia de una regulación normativa suficiente que garantice la protección de los Derechos humanos [1] y los Derechos Fundamentales [2] de los ciudadanos (Guerrero Palomares 2021: 151-186). En nuestro caso, además, la principal preocupación como procesalistas entre otras muchas cuestiones, es la protección de los derechos fundamentales en el ámbito procesal, esto es, el derecho fundamental a la tutela judicial efectiva que reconoce nuestra Constitución en el artículo 24. Derecho a la tutela judicial efectiva, por otra parte, que, como afirma MARTIN DIZ, desde hace casi una década “... evoluciona hacia una nueva versión, más integradora, del mismo: el derecho a la tutela efectiva de la Justicia” (Martín Diz 2014:161-176) [3].

La preocupación acerca de una normativa que regule el uso de la inteligencia artificial, en adelante IA, no es, lógicamente, exclusiva de nuestro país, ni de cada uno de los países desde un punto de vista nacional, esto es, individual, sino que a la vista de la evolución de este tipo de sistemas inteligentes en una sociedad moderna que se caracteriza, como todos sabemos, por la globalización y, en lo que a nosotros nos interesa, por la criminalidad transfronteriza, no cabe duda alguna, que se trata de una cuestión necesitada de regulación normativa en un contexto global.

El uso de sistemas de IA en el ámbito judicial y, concretamente, en el ámbito de la cooperación judicial penal, ha dejado de ser ciencia ficción hace años por lo que, qué duda cabe que, en este momento más que nunca, resulta patente la necesidad de marcos regulatorios que garanticen que estas tecnologías emergentes beneficiarán a la humanidad en su conjunto. Así, como primer instrumento normativo mundial sobre la materia, desde la UNESCO, el 23 de noviembre de 2021, se aprobó la Recomendación sobre la ética de la inteligencia artificial [4].

Que evoquemos en este momento la ausencia de regulación normativa que garantice tanto a nivel individual –en cada Estado– como europeo o internacional, no implica el desconocimiento de las diferentes normativas que a lo largo de estos años han visto la luz en un intento de garantizar un uso ético y responsable de la IA tanto en los sistemas judiciales de cada Estado como en lo que se refiere a sus relaciones con otros países, esto es, en relación con la cooperación judicial internacional. Así, baste recordar la Carta Europea sobre el Uso Ético de la Inteligencia Artificial en los Sistemas Judiciales y su Entorno [5] y, con una finalidad armonizadora, la Propuesta de Reglamento del Parlamento Europeo y del Consejo, por el que se establecen normas armonizadas en materia de inteligencia artificial (Ley de inteligencia artificial) y se modifican determinados actos legislativos de la Unión Europea cuyos objetivos, entre otros, persiguen garantizar la seguridad jurídica para facilitar la inversión e innovación en IA, así como mejorar la gobernanza y la aplicación efectiva de la legislación vigente en materia de derechos fundamentales y los requisitos de seguridad aplicables a los sistemas de IA [6]. Sin olvidarnos, por supuesto, del Libro Blanco de la UE sobre IA del año 2020 [7] (De Hoyos Sancho 2020:9-44) y de la Carta de los Derechos Fundamentales en el contexto de la inteligencia artificial y el cambio digital, también del año 2020 [8].

En España, debemos resaltar la más reciente Ley 15/2022, de 12 de julio, integral para la igualdad de trato y la no discriminación [9] que introduce la primera regulación positiva de la inteligencia artificial en España [10] y, cómo no, la Carta de Derechos Digitales, con la que se pretende situar a España “a la vanguardia internacional en la protección de derechos de la ciudadanía” [11].

Unos días antes de iniciar este trabajo de investigación, como consecuencia de la Ley 28/2022, de 21 de diciembre, de fomento del ecosistema de las empresas emergentes, así como en cumplimiento de lo previsto en el Plan de Recuperación, Transformación, y Resiliencia [12], se ha aprobado el Real Decreto 729/2023, de 22 de agosto, por el que se aprueba el Estatuto de la Agencia Española de Supervisión de Inteligencia Artificial [13] adscrita al Ministerio de Asuntos Económicos y Transformación Digital a través de la Secretaría de Estado de Digitalización e Inteligencia Artificial. Sin embargo, “La inteligencia artificial no está siendo desarrollada por los Gobiernos, sino sobre todo por las empresas privadas. Si finalmente esa tecnología, en esas condiciones, se acaba por introducir, como se espera, en el sector de los tribunales, existe el riesgo de que las instituciones democráticas pierdan, al menos en parte, el control sobre la jurisdicción en beneficio de alguna o algunas de esas empresas” (Nieva Fenoll, 2023:1).

Especial relevancia, en el contexto de este trabajo, presenta, como veremos a continuación, la Resolución del Parlamento Europeo, de 6 de octubre de 2021, sobre la inteligencia artificial en el Derecho penal y su utilización por las autoridades policiales y judiciales en asuntos penales [14].

Dado que no somos expertos en cuestiones tecnológicas y, por ello, no nos atreveremos a explorar, ni siquiera de forma somera, el funcionamiento en sí de estos sistemas de inteligencia artificial, partiremos de la definición que sobre sistemas de IA ofrece la propuesta de Ley de inteligencia artificial de la Unión Europea, según la cual, se entiende por Sistema de inteligencia artificial (sistema de IA) aquel “software que se desarrolla empleando una o varias de las técnicas y estrategias que figuran en el anexo I y que puede, para un conjunto determinado de objetivos definidos por seres humanos, generar información de salida como contenidos, predicciones, recomendaciones o decisiones que influyan en los entornos con los que interactúa” [15].

II. La investigación penal y la inteligencia artificial en el ámbito de la cooperación judicial penal internacional

Qué duda cabe que la armonización normativa sobre el uso de los sistemas de IA en el ámbito judicial deriva en una mayor eficacia de la cooperación policial y judicial transfronteriza (De Hoyos Sancho 2021). De ahí la relevancia de la mencionada propuesta de Reglamento del Parlamento europeo y del Consejo para establecer reglas armonizadas en materia de Inteligencia Artificial y, especialmente, en lo que a nosotros nos interesa, con relación al régimen relativo al uso de los sistemas de IA en la función tanto policial como jurisdiccional (Bujosa Vadell 2022a: 43-73).

La Unión Europea, tras las últimas enmiendas en el Parlamento, introduce un nuevo artículo 4 bis, que regula los Principios generales aplicables a todos los sistemas de IA [16] :

  1. Intervención y vigilancia humanas»: los sistemas de IA se desarrollarán y utilizarán como una herramienta al servicio de las personas, que respete la dignidad humana y la autonomía personal, y que funcione de manera que pueda ser controlada y vigilada adecuadamente por seres humanos.
  2. Solidez y seguridad técnicas»: los sistemas de IA se desarrollarán y utilizarán de manera que se minimicen los daños imprevistos e inesperados, así como para que sean sólidos en caso de problemas imprevistos y resistentes a los intentos de modificar el uso o el rendimiento del sistema de IA para permitir una utilización ilícita por parte de terceros malintencionados.
  3. Privacidad y gobernanza de datos»: los sistemas de IA se desarrollarán y utilizarán de conformidad con las normas vigentes en materia de privacidad y protección de datos, y tratarán datos que cumplan normas estrictas en términos de calidad e integridad.
  4. Transparencia»: los sistemas de IA se desarrollarán y utilizarán facilitando una trazabilidad y explicabilidad adecuadas, haciendo que las personas sean conscientes de que se comunican o interactúan con un sistema de IA, informando debidamente a los usuarios sobre las capacidades y limitaciones de dicho sistema de IA e informando a las personas afectadas de sus derechos.
  5. Diversidad, no discriminación y equidad»: los sistemas de IA se desarrollarán y utilizarán incluyendo a diversos agentes y promoviendo la igualdad de acceso, la igualdad de género y la diversidad cultural, evitando al mismo tiempo los efectos discriminatorios y los sesgos injustos prohibidos por el Derecho nacional o de la Unión.
  6. Bienestar social y medioambiental»: los sistemas de IA se desarrollarán y utilizarán de manera sostenible y respetuosa con el medio ambiente, así como en beneficio de todos los seres humanos, al tiempo que se supervisan y evalúan los efectos a largo plazo en las personas, la sociedad y la democracia”.

Asimismo, para los sistemas de IA de alto riesgo, los proveedores o implementadores, se prevé la aplicación y cumplimiento de los citados principios generales atendiendo a los requisitos establecidos en los artículos 8 a 15 del presente Reglamento junto a las obligaciones pertinentes a las que hace referencia el capítulo 3 del título III del mismo.

Igualmente, para los supuestos de los modelos fundacionales, los proveedores o implementadores de los sistemas de IA tendrán que aplicar y cumplir los mencionados principios generales en función de los requisitos a los que hace referencia los artículos 28 a 28 ter del mismo Reglamento.

Según el artículo 4 bis apartado 2, in fine, del Reglamento “Para todos los sistemas de IA, la aplicación de los principios a los que se hace referencia en el apartado 1 puede conseguirse, según proceda, a través de las disposiciones del artículo 28 o el artículo 52 o de la aplicación de las normas armonizadas, especificaciones técnicas y códigos de conducta a los que hace referencia el artículo 69, sin crear nuevas obligaciones en virtud del presente Reglamento”.

En este sentido, la doctrina –sin ser contrarios al uso de los sistemas de inteligencia artificial en el ámbito judicial y, concretamente, en el de la cooperación judicial penal internacional– son unánimes al afirmar que, en todo caso, el uso de la IA debe respetar las siguientes premisas a las que, expresamente, alude y analiza DE HOYOS SANCHO (De Hoyo Sancho 2020: 32-39):

2.1. De la digitalización al uso de la IA en la investigación penal: instrumentos de cooperación judicial internacional

Como afirmaba ya hace unos años la profesora CALAZA LÓPEZ, España se encuentra a la vanguardia europea en cuanto al uso de los nuevos métodos tecnológicos en el proceso penal (Calaza López 2021: 171-1; Dalia 2022: 251-275), sin embargo, y aunque todos somos conocedores del incremento en el uso de las nuevas tecnologías en apoyo a la investigación judicial y penal en el proceso penal (Lara López 2022: 277-307), así como en los diferentes instrumentos de cooperación judicial internacional, nos encontramos en un momento de tránsito desde la digitalización de la Justicia a la, en palabras de BARONA VILAR, “Justicia orientada al dato” (Barona Vilar 2023) [17].

Efectivamente, poca sorpresa causa ya la celebración de un juicio a través de la videoconferencia o el uso de otros muchos recursos digitales para el desarrollo de los procesos judiciales tanto nacionales como de carácter transfronterizo. [18]. Igualmente, en la actualidad, estos mismos recursos digitales están presente en la mayoría de los instrumentos de cooperación judicial entre los Estados [19] (Fontestad Portalés 2022a: 239-268; Jiménez López 2021:187-224. Así, para el intercambio de datos y material probatorio, en el ámbito de la Unión Europea, se utiliza el sistema e-Codex [20] que, como instrumento de comunicación de la justicia electrónica mediante el intercambio de datos en línea, se ha convertido en la piedra angular digital de la cooperación judicial de la UE. Sistema informatizado para el intercambio electrónico transfronterizo de datos que servía, incluso antes de la aprobación del Reglamento de la Unión Europea que lo regula, como soporte para el sistema digital de intercambio de pruebas electrónicas, así como para los intercambios en relación con las órdenes europeas de investigación y la asistencia judicial mutua en el ámbito de la cooperación judicial en materia penal [21].

Igualmente, en el ámbito iberoamericano de los países miembros de IberRed [22], se conforman nuevos sistemas electrónicos de transmisión con vistas, además, a su implantación desde un punto de vista internacional, como es la Plataforma Iber@ para la transmisión de solicitudes de cooperación jurídica internacional entre Autoridades Centrales [23] (Fontestad Portalés 2021: 109-150).

Se trata ahora, por tanto, de dar un paso más dedicando la inteligencia artificial a lograr una mayor eficacia en materia de cooperación judicial penal internacional, no ya usando plataformas electrónicas para la comunicación, notificación e, incluso, intercambio de material probatorio, sino para determinar mediante sistemas de inteligencia artificial, por ejemplo, cómputos temporales; redactar o, incluso, traducir documentos legales de forma automática por voz, remisión de Órdenes Europeas Detención o de protección, etc.

Obviamente, y aun cuando todavía no haya entrado en vigor, no podemos dejar de lado y, al menos, mencionar la clasificación que de los sistemas de inteligencia artificial prevé, con carácter general, la citada propuesta de Ley de inteligencia artificial en función, como todos sabemos, del riesgo, atendiendo a aquellos que denomina de riesgo inaceptable [24], alto riesgo[25], riesgo limitado y riesgo mínimo o nulo. Sin olvidar, la referencia expresa a la inteligencia artificial generativa 26.

Gráfico 1.

Fuente: Comisión Europea

2.2. Soluciones de inteligencia artificial en el ámbito de la cooperación judicial penal internacional

Las soluciones de IA en el ámbito de la cooperación judicial penal internacional podríamos sintetizarlas, por poner un ejemplo, atendiendo a su finalidad, en cuyo caso, encontramos, por un lado, sistemas de IA para la “automatización de determinadas medidas transnacionales”. Este sería el caso de DIGALAW-X [27], que se puede usar para la redacción/traducción automática por voz de una orden europea de detención; y, por otro lado, sistemas de IA con funciones asistenciales en la investigación y enjuiciamiento de la delincuencia organizada transfronteriza, por ejemplo.

Sin ánimo de llevar a cabo una enumeración taxativa ni un estudio detallado, entre los sistemas de inteligencia artificial de aplicación en el ámbito de la cooperación judicial penal internacional podemos destacar aquellos sistemas de identificación biométrica [28] a través de los cuales se puede identificar de forma unívoca a una persona basándose en algún rasgo físico que se considere único de cada persona [29], por ejemplo, el ADN, la huella dactilar o, incluso, el iris de los ojos [30]. En el ámbito de la cooperación judicial penal internacional, EUROPOL [31], para reforzar la seguridad de las fronteras, ha puesto en marcha la iniciativa HOTSPOT, basada en el uso de los datos biométricos (huellas dactilares e imágenes faciales, fundamentalmente) con el objetivo de detener a los terroristas que intentan huir de la acción de la justicia atravesando fronteras [32].

Especialmente útiles para las investigaciones penales son los sistemas de inteligencia artificial que permiten elaborar mapas criminales con identificación de los denominados hotspots, esto es, puntos geográficos en los que existe un elevado índice de delincuencia [33]. En esta línea, como instrumento de vigilancia predictiva, podemos hacer referencia a PredPol [34] como herramienta basada en inteligencia artificial que se utiliza, desde hace unos años, en Estados Unidos [35]. Asimismo, en relación con instrumentos para la evaluación y predicción delictiva en España, podemos destacar VeriPol [36], para detectar denuncias falsas, así como el Sistema de Seguimiento Integral en los casos de Violencia de Género de la Secretaría de Estado de Seguridad del Ministerio del Interior [37], esto es, el Sistema VioGén [38].

Lógicamente, muchas de estas soluciones de IA a disposición tanto de las autoridades policiales como judiciales inciden, sin duda alguna, en las relaciones de cooperación judicial entre los Estados. Pensemos, por ejemplo, en instrumentos de cooperación judicial penal internacional como la orden europea de detención y entrega o en la extradición. Cuando las autoridades judiciales de ejecución tengan que decidir sobre una solicitud de detención y entrega a otro Estado miembro o, igualmente, en el caso de que en el proceso de la extradición el Estado requerido tenga que decidir sobre la extradición de la persona requerida a un tercer Estado, en ambos casos, dichas autoridades deberán analizar si el uso de herramientas de inteligencia artificial en el Estado solicitante, o requirente, en su caso, pone en riesgo el derecho fundamental a un juicio justo como consecuencia de la falta de transparencia en cuanto a la forma en la que opera la inteligencia artificial.

Son múltiples las implicaciones de la inteligencia artificial en las herramientas de cooperación judicial penal internacional, razón por la que la citada Resolución del Parlamento Europeo sobre la inteligencia artificial en el Derecho penal y su utilización por las autoridades policiales y judiciales en asuntos penales reconociendo, no obstante, la contribución positiva de determinados tipos de aplicaciones de inteligencia artificial a la labor de las autoridades policiales y judiciales en la Unión Europea, “… considera que podrían estudiarse otros varios usos posibles de la IA para actuaciones de las autoridades policiales y judiciales teniendo en cuenta en el proceso los cinco principios de la Carta Ética sobre el uso de la inteligencia artificial en los sistemas judiciales y su entorno adoptados por la CEPEJ, y prestando especial atención a los «usos que han de estudiarse con la cautela más extrema», identificados por la CEPEJ”… [39].

Asimismo, la citada Recomendación afirma que todas las soluciones de IA para las autoridades policiales y judiciales “deben respetar plenamente los principios de dignidad humana, no discriminación, libertad de circulación, presunción de inocencia y derecho de defensa, incluido el derecho a guardar silencio, libertad de expresión e información, libertad de reunión y asociación, igualdad ante la ley, igualdad de armas y el derecho a una tutela judicial efectiva y a un juicio justo, de conformidad con la Carta y con el Convenio Europeo de Derechos Humanos; destaca que debe prohibirse todo uso de aplicaciones de la IA que sea incompatible con los derechos fundamentales” [40].

No cabe duda de que cualquier sistema judicial, con o sin el uso de sistemas de inteligencia artificial, debe garantizar y respetar los mencionados derechos y ello incluye, lógicamente, a las relaciones de cooperación judicial entre los Estados. Ningún instrumento de cooperación judicial penal internacional puede ser incompatible con los derechos fundamentales, ya sea con el derecho a un juicio justo, como acabamos de ver, o con el derecho a la protección de datos en atención a la cantidad de datos personales que a través de los sistemas de inteligencia artificial se pueden recopilar de forma automatizada y la posible transmisión de esos datos entre autoridades policiales y judiciales sin el requerido consentimiento de la persona afectada.

No obstante, a pesar de nuestra preocupación, como la de cualquier jurista, y casi me atrevería a decir, la de cualquier persona, acerca de las consecuencias del uso judicial –y policial– de la inteligencia artificial dada la incertidumbre que genera, en este ámbito, entre otras, la posible vulneración de los derechos fundamentales, nos planteamos si, en determinadas ocasiones, no estamos siendo más desconfiados y más exigentes con los sistemas judiciales de IA que con el juez-humano que, indudablemente, en el ejercicio de la función jurisdiccional, juzgando y haciendo ejecutar lo juzgado, también toma sus decisiones sesgado por sus principios, sus creencias y sus propios criterios. Es por ello que queremos por fin a este trabajo, a modo de reflexión, con la polémica afirmación de JAUME-PALASÍ acerca de que el derecho es un algoritmo que se aplica desde mucho antes de que existiera la informática de tal modo que cuando un juez juzga y condena en un juicio penal, también lo hace sesgado por sus propias convicciones, opiniones y aproximaciones a las diferentes teorías jurídicas [41].

Bibliografía

BARONA VILAR, S. (2023). “Resumen de Ecosistema digital de Justicia eficiente (De la Justicia digital orientada al documento a la Justicia orientada al dato)”, Actualidad civil, núm. 5.

BONET NAVARRO, J. (2023), “El juicio y el prejuicio por la máquina”, Revista General de Derecho Procesal, núm. 60.

BORGES BLÁZQUEZ, R. (2021). “Inteligencia artificial y perspectiva de género: programar, investigar y juzgar con filtro morado”, Revista General de Derecho Procesal, núm. 55.

BUENO DE MATA, F. (2021a). “Análisis de las medidas de cooperación judicial internacional para la obtención transfronteriza de pruebas en materia de cibercrimen”, en L. Fontestad Portalés, (dir.) y M. N. Jiménez López (coord.), La transformación digital de la cooperación jurídica penal internacional, Ed. Aranzadi.

BUENO DE MATA, F. (2021b) “Protección de datos, investigación de infracciones penales e inteligencia artificial: novedades y desafíos a nivel nacional y europeo en la era postcovid”, La ley penal: revista de derecho penal, procesal y penitenciario, núm. 150.

BUENO DE MATA, F. (2020). “Macrodatos, inteligencia artificial y proceso: luces y sombras”, Revista General de Derecho Procesal, 51.

BUENO JIMÉNEZ, M. (2022). “Los Planes Estratégicos como herramientas básicas para la transformación digital del futuro (y del presente)”, en A vueltas con la transformación digital de la cooperación jurídico penal internacional, Fontestad Portalés, L. (dir.); Jiménez López, M. N. (coord.), Ed. Aranzadi.

BUJOSA VADELL, L. (2022a). “Ética e inteligencia artificial: una mirada desde el proceso jurisdiccional”, en El impacto de las tecnologías disruptivas en el derecho procesal, Ed. Aranzadi.

BUJOSA VADELL, L. (2022b). “Cooperación judicial para la obtención y transmisión de pruebas electrónicas”, en A vueltas con la transformación digital de la cooperación jurídico penal internacional, Fontestad Portalés, L. (dir.); Jiménez López, M. N. (coord.), Ed. Aranzadi.

CALAZA LÓPEZ, S., y DE PRADA RODRIGUEZ, M. (2023). “Acción y Defensa en clave digital: «Dos caras de una misma moneda» y un «brindis al sol» en la inminente Ley de Derecho de Defensa”, Actualidad Civil, num. 4.

CALAZA LÓPEZ, S. (2021). “La investigación tecnológica en el proceso penal español a la vanguardia europea”, en Estudios procesales sobre el espacio europeo de justicia penal, J. A. Posada Pérez y M. Llorente Sánchez-Arjona (dirs.), Ed. Aranzadi.

COLOMER HERNÁNDEZ, I., (2023). “Limitaciones en el uso de la información y los datos personales en un proceso penal digital”, en El proceso penal ante una nueva realidad tecnológica europea, Pillado González, E. y Freitas, P.M. (dirs.), Ed. Aranzadi.

COLOMER HERNÁNDEZ, I. (2021). “Control y límites en el uso de los datos personales penales en la investigación y represión de delitos a la luz de la Directiva 2016/680”, en Nuevos postulados de la cooperación judicial en la Unión Europea, Moreno Catena, V. y Romero Pradas, M.A. (dir.), Ed. Tirant lo Blanch.

CORDON MORENO, F. (2004). “El derecho a obtener la tutela judicial efectiva”, Manuales de formación continuada, núm. 22 (Ejemplar dedicado a: Derechos procesales fundamentales).

DALIA, G. (2022). “El uso de la I.A. en el marco del proceso penal entre las exigencias de eficacia y las valoraciones judiciales”, en A vueltas con la transformación digital de la cooperación jurídico penal internacional, Fontestad Portalés, L. (dir.); Jiménez López, M. N. (coord.), Ed. Aranzadi.

DE LA OLIVA SANTOS, A. (1980). Sobre el derecho a la tutela jurisdiccional: la persona ante la administración de justicia: derechos básicos, J.M. Bosch Editor.

DÍEZ-PICAZO, L. (1987). “Notas sobre el derecho a la tutela judicial efectiva”, Poder Judicial, núm. 5.

DE HOYOS SANCHO, M. (2021). “El uso jurisdiccional de los sistemas de inteligencia artificial y la necesidad de su armonización en el contexto de la Unión Europea”, Revista General de Derecho Procesal, núm. 55.

DE HOYOS SANCHO, M. (2020). “El Libro Blanco Sobre Inteligencia Artificial de la Comisión Europea: reflexiones desde las garantías esenciales del proceso penal como “sector de riesgo””, Revista Española de Derecho Europeo, núm. 76.

DOLZ LAGO, M.J. (2022). “Una aproximación jurídica a la Inteligencia Artificial”, Diario La Ley, núm. 10096.

ESPARZA LEIBAR, I. (2022). “Derecho fundamental a la protección de datos de carácter personal en el ámbito jurisdiccional e inteligencia artificial. En especial la LO 7/2021, de protección de datos personales tratados para fines de prevención, detección, investigación y enjuiciamiento de infracciones penales y de ejecución de sanciones penales”, en Inteligencia artificial legal y administración de justicia, Calaza López, S. y Llorente Sánchez-Arjona, M. (dirs.), Ed. Aranzadi.

FIODOROVA, A. (2021). “Directiva 2016/680: hacia mayor coherencia de protección de datos personales en la cooperación policial y judicial penal”, en Nuevos postulados de la cooperación judicial en la Unión Europea, Moreno Catena, V. y Romero Pradas, M.A. (dir.), Ed. Tirant lo Blanch.

FONTESTAD PORTALÉS, L. (2022a). “Evolución y avances en materia de cooperación judicial internacional a través de las transmisiones electrónicas”, en Digitalización de la justicia: prevención, investigación y enjuiciamiento, J. C. Muinelo Cobo (coord.); Llorente Sánchez-Arjona, M. y Calaza López, S. (dirs.), Ed. Aranzadi.

FONTESTAD PORTALÉS, L. (2022b). “La digitalización de la cooperación judicial penal en la Unión Europea”, en A vueltas con la transformación digital de la cooperación jurídico penal internacional, Fontestad Portalés, L. (dir.), Jiménez López, M. N. (coord.), Ed. Aranzadi.

FONTESTAD PORTALÉS, L. (2021). “La digitalización de la cooperación jurídica internacional: la plataforma IBER@”, en La transformación digital de la cooperación jurídica penal internacional, Fontestad Portalés, L. (dir.); Jiménez López, M. N. (coord.), Editorial Aranzadi.

FLÓREZ ÁLVAREZ, L. A. (2021). “Reflexiones sobre la innovación del ámbito probatorio en el modelo europeo de cooperación judicial en materia penal”, en La transformación digital de la cooperación jurídica penal internaciónal, Fontestad Portalés, L. (dir.); Jiménez López, M.N., (coord.), Ed. Aranzadi.

GUERRERO PALOMARES, S. (2021). “La protección del derecho a la intimidad en el marco de la investigación tecnológica en el proceso penal”, en La transformación digital de la cooperación jurídica penal internacional, Fontestad Portalés, L. (dir.); Jiménez López, M.N., (coord.), Ed. Aranzadi.

HERNÁNDEZ GIMÉNEZ, M. (2019). “Inteligencia artificial y derecho penal”, Actualidad Jurídica Iberoamericana, núm. 10 bis.

JIMÉNEZ LÓPEZ, M. N. (2021). “Las medidas de investigación tecnológicas en la orden europea de investigación”, en La transformación digital de la cooperación jurídica penal internacional, Fontestad Portalés, L. (dir.); Jiménez López, M. N. (coord.), Editorial Aranzadi.

LARA LÓPEZ, A. M. (2022). “La captación y grabación de las comunicaciones orales mediante dispositivos electrónicos como medida de investigación tecnológica en el proceso penal”, en A vueltas con la transformación digital de la cooperación jurídico penal internacional, Fontestad Portalés, L. (dir.), Jiménez López, M. N. (coord.), Ed. Aranzadi.

LLORENTE SÁNCHEZ-ARJONA, M. (2022). “Hacia una justicia penal predictiva”, Cuadernos de política criminal, núm. 136.

LÓPEZ GIL, M. (2021). “La autenticidad de las comunicaciones interceptadas al amparo de la orden europea de investigación. SITEL versus otros sistemas”, Revista General de Derecho Procesal, núm. 55.

MARCOS GONZÁLEZ, M. (2021). “Cesión de datos personales generados en las comunicaciones electrónicas y cooperación penal internacional”, en La transformación digital de la cooperación jurídica penal internacional, Fontestad Portalés, L. (dir.); Jiménez López, M. N. (coord.), Editorial Aranzadi.

MARTIN DIZ, F. (2022). “Justicia predictiva: inteligencia artificial y algoritmos aplicados al proceso judicial en materia probatoria”, en El impacto de las tecnologías disruptivas en el derecho procesal, Ed. Aranzadi.

MARTIN DIZ, F. (2021). “Inteligencia artificial y derecho procesal: luces, sombras y cábalas en clave de derechos fundamentales”, en Nuevos postulados de la cooperación judicial en la Unión Europea, Moreno Catena, V. y Romero Pradas, M.A. (dir.), Ed. Tirant lo Blanch.

MARTÍN DIZ, F. (2014). “Del derecho a la tutela judicial efectiva hacia el derecho a una tutela efectiva de la justicia”, Revista europea de derechos fundamentales, núm. 23 (Ejemplar dedicado a: Tutela judicial efectiva en el siglo XXI: un análisis interdisciplinar).

MARTIN RÍOS, P. (2022). “Empleo de big data y de inteligencia artificial en el ciberpatrullaje de la tiranía del algoritmo y otras zonas oscuras”, en IDP: revista de Internet, derecho y política = revista d’Internet, dret i política, núm. 36.

MARTÍN RÍOS, P. (2022). “Relevancia de las nuevas tecnologías en la práctica de actos de comunicación judicial transfronterizos en materia civil o mercantil”, en A vueltas con la transformación digital de la cooperación jurídico penal internacional, Fontestad Portalés, L. (dir.), Editoiral Aranzadi.

MONTESINOS GARCÍA, A. (2021). “Los algoritmos que valoran el riesgo de reincidencia: En especial, el sistema Viogen”, Revista de derecho y proceso penal, núm. 64.

NIEVA FENOLL, J. (2023). “Perder el control digital: ¿hacia una distopía judicial?”, Actualidad civil, núm. 4.

PASCUAL GARCÍA, A. (2020). “Inteligencia artificial y Justicia: ¿condenados a entenderse?”, (disponible en https://www.unir.net/derecho/revista/inteligencia-artificial-justicia/).

PÉREZ GIL, J. (2019). “Exclusiones probatorias por vulneración del derecho a la protección de datos personales en el proceso penal”, en Justicia: ¿garantías versus eficiencia?, Jiménez Conde, F. y Bellido Penadés, R. (dirs.), Ed. Tirant lo Blanch.

PÉREZ TORTOSA, F. (2022). “La propuesta de implantación de las órdenes europeas de entrega y conservación de pruebas electrónicas como instrumentos complementarios a la orden europea de investigación”, en A vueltas con la transformación digital de la cooperación jurídico penal internacional, Fontestad Portalés, L. (dir.); Jiménez López, M. N. (coord.), Ed. Aranzadi.

PERLINGEIRO, R. y FAZA, G. (2022). “Cooperación judicial internacional sobre pruebas en el derecho brasileño”, en A vueltas con la transformación digital de la cooperación jurídico penal internacional, Fontestad Portalés, L. (dir.); Jiménez López, M. N. (coord.), Ed. Aranzadi.

PILLADO GONZÁLEZ, E. (2021). “Principios generales de protección de datos en la cesión de información en la persecución criminal a la vista de la Directiva 2016/680 del Parlamento Europeo y del Consejo, de 27 de abril de 2016, por la que se deroga la Decisión Marco 2008/977”, en Nuevos postulados de la cooperación judicial en la Unión Europea, Moreno Catena, V. y Romero Pradas, M.A. (dir.), Ed. Tirant lo Blanch.

ROA AVELLA, M.P., y SANABRIA-MOYANO, J.E. (2022). “Uso del algoritmo COMPAS en el proceso penal y los riesgos a los derechos humanos”, Revista Brasileña de Derecho Procesal Penal, v.8, núm. 1.

SUÁREZ XAVIER, P.R. (2023a). “Justicia digital, gobernanza y eficiencia procesal: algunos apuntes”, en Justicia en red para la Paz, Calaza López, S. y Fontestad Portalés, L. (dirs.), Ed. Dykinson.

SUÁREZ XAVIER, P. R. (2023b) Informe sobre aspectos bioéticos, legales y procesales del derecho a la identidad y el uso de procedimientos de reconocimiento facial por las fuerzas y cuerpos de seguridad, Ed. Colex.

SUÁREZ XAVIER, P.R. (2023c). Justicia predictiva: construyendo la justicia del siglo XXI, Ed. Aranzadi.

SUÁREZ XAVIER, P.R. (2021). Reconocimiento facial y policía predictiva: entre la seguridad y garantías procesales, Ed. Colex.

SUÁREZ XAVIER, P. R. (2022). “Policía predictiva en el combate al terrorismo: ¿seguridad sin garantías fundamentales?”, en Justicia proceso y tutela judicial efectiva en la sociedad postpandemia, Fontestad Portalés, L. y Jiménez López, M.N. (dirs.), Ed. Aranzadi.

VALLESPIN PÉREZ, D. (2023). “Robotización” de la valoración de la prueba en el proceso civil español”, en Inteligencia artificial y proceso: eficiencia vs. Garantías, Vallespín Pérez, D. (dir.), Ed. Juruá.

VILLAR FUENTES, I. (2019). “Datos personales al servicio de la investigación y detección de infracciones penales”, Revista General de Derecho Procesal, núm. 48.


[*] Vid. Declaración Universal de los Derechos Humanos adoptada por la Asamblea General de las Naciones Unidas, París, 10 de diciembre de 1948. Resolución 217 A (III). Disponible en https://www.ohchr.org/sites/default/files/UDHR/Documents/UDHR_Translations/spn.pdf (último acceso, 10.09.2023).

[1] Este trabajo de investigación es resultado del Proyecto de investigación “Algoritmización de la Justicia Penal” – convocatoria 2022 – Modalidad B – IDP – Observatorio de Derecho Público de la Universitat de Barcelona, siendo Investigador Principal el Dr. VALLESPÍN PÉREZ; así como de los Proyectos estratégicos “Transición Digital de la Justicia” orientado a la transición ecológica y a la transición digital del Plan Estatal de investigación científica, técnica y de innovación 2021-2023, en el marco del Plan de Recuperación, Transformación y Resiliencia, Ministerio de Ciencia e Innovación, financiado por la Unión Europea: Next Generation UE, con REF. RED 2021-130078B-100, siendo los IPs, la Dra. CALAZA LÓPEZ y el Dr. JOSÉ CARLOS MUINELO COBO y “Marco jurídico para la competencia dinámica en mercados digitales y para la innovación a través de Inteligencia Artificial” (REF. PID2021-122536OB-I00 MCIN/AEI/10.13039/501100011033. “NextGenerationEU”/PRTR), siendo el IP. el Dr. OLMEDO PERALTA.

[2] Vid. Título I de la Constitución Española, en adelante CE, rubricado De los derechos y deberes fundamentales, en cuya Sección 1º relativa a los derechos fundamentales y libertados públicas, se protegen, entre otros, y sin ánimo de exhaustividad, el derecho a la intimidad, a la inviolabilidad del domicilio, a la protección de datos, al secreto comunicaciones personales, etc. Específicamente, el artículo 18. 4 CE garantiza la limitación normativa en el uso de la informática para garantizar el honor y la intimidad personal y familiar de los ciudadanos y el pleno ejercicio de sus derechos.

[3] Sobre el derecho a la tutela judicial efectiva desde una perspectiva clásica, De la Oliva Santos 1980; Díez-Picazo 1987: 41-49; Cordon Moreno 2004: 213-244. En relación con la futura Ley orgánica de Derecho de Defensa, resulta de interés Calaza López y De Prada Rodríguez 2023.

[4] Disponible en https://unesdoc.unesco.org/ark:/48223/pf0000381137_spa (último acceso, 10.09.2023).

[5] Adoptada por el CEPEJ en Estrasburgo, 3–4 de diciembre de 2018 (CEPEJ (2018) 14). Disponible en https://protecciondata.es/wp-content/uploads/2021/12/Carta-Etica-Europea-sobre-el-uso-de-la-Inteligencia-Artificial-en-los-sistemas-judiciales-y-su-entorno.pdf (último acceso, 10.09.2023). Vid. anteriormente, en el ámbito de la Unión Europea, el Reglamento general de protección de datos (Reglamento 2016/679 del Parlamento Europeo y del Consejo de 27 de abril de 2016 relativo a la protección de las personas físicas en lo que respecta al tratamiento de datos personales y a la libre circulación de estos datos y por el que se deroga la Directiva 95/46/CE (DOUE L 119 de 4 de mayo de 2016).

[6] Bruselas, 21 de abril de 2021 (COM (2021) 206 final). Disponible en https://eur-lex.europa.eu/legal-content/ES/TXT/HTML/?uri=CELEX:52021PC0206 (último acceso, 10.09.2023). Sobre la propuesta de Ley de inteligencia artificial, Vid. Informe del Parlamento Europeo de junio de 2023, disponible en https://www.europarl.europa.eu/RegData/etudes/BRIE/2021/698792/EPRS_BRI(2021)698792_EN.pdf (último acceso, 29.10.2023).

[7] Libro Blanco sobre la inteligencia artificial: un enfoque europeo orientado a la excelencia y la confianza (Bruselas, 19 de febrero de 2020. COM (2020) 65 final). Disponible en https://op.europa.eu/es/publication-detail/-/publication/ac957f13-53c6-11ea-aece-01aa75ed71a1 (último acceso, 10.09.2023).

[8] Bruselas, 21 de octubre de 2020 (disponible en https://data.consilium.europa.eu/doc/document/ST-11481-2020-INIT/es/pdf, último acceso, 30.10.2023).

[9] BOE núm. 167, de 13 de julio de 2022.

[10] El Artículo 23 que regula la Inteligencia Artificial y mecanismos de toma de decisión automatizados establece que:

  1. En el marco de la Estrategia Nacional de Inteligencia Artificial, de la Carta de Derechos Digitales (LA LEY 16317/2021) y de las iniciativas europeas en torno a la Inteligencia Artificial, las administraciones públicas favorecerán la puesta en marcha de mecanismos para que los algoritmos involucrados en la toma de decisiones que se utilicen en las administraciones públicas tengan en cuenta criterios de minimización de sesgos, transparencia y rendición de cuentas, siempre que sea factible técnicamente. En estos mecanismos se incluirán su diseño y datos de entrenamiento, y abordarán su potencial impacto discriminatorio. Para lograr este fin, se promoverá la realización de evaluaciones de impacto que determinen el posible sesgo discriminatorio.
  2. Las administraciones públicas, en el marco de sus competencias en el ámbito de los algoritmos involucrados en procesos de toma de decisiones, priorizarán la transparencia en el diseño y la implementación y la capacidad de interpretación de las decisiones adoptadas por los mismos.
  3. Las administraciones públicas y las empresas promoverán el uso de una Inteligencia Artificial ética, confiable y respetuosa con los derechos fundamentales, siguiendo especialmente las recomendaciones de la Unión Europea en este sentido. Sobre el uso ético de la inteligencia artificial en el ámbito jurisdiccional.
  4. Se promoverá un sello de calidad de los algoritmos”.

[12] Disponible en https://planderecuperacion.gob.es/ (último acceso, 10.09.2023).

[13] BOE núm. 210, de 2 de septiembre de 2023.

[14] P9_TA (2021) 0405. Disponible en https://www.europarl.europa.eu/doceo/document/TA-9-2021-0405_ES.pdf (último acceso, 10.09.2023).

[15] Vid. artículo 3, 1) de la propuesta de Ley de inteligencia artificial. Sobre la necesidad de regular una definición de IA, el Comité Económico y Social Europeo, en año 2017, en el “Dictamen sobre la inteligencia artificial: las consecuencias de la inteligencia artificial para el mercado único (digital)”, declaraba, en la segunda conclusión, que no existía una definición concreta y aceptada de la inteligencia artificial. Cfr. Dictamen del Comité Económico y Social Europeo sobre la «Inteligencia artificial: las consecuencias de la inteligencia artificial para el mercado único (digital), la producción, el consumo, el empleo y la sociedad» (DOUE C 288 de 31 de agosto de 2017). Sobre la IA desde una perspectiva jurídica, Dolz Lago 2022.

[17] Sobre el “Big Data Judicial” se puede consultar la obra de Bueno de Mata 2020 y sobre la justicia digital y la eficiencia judicial, Suárez Xavier 2023a: 161-182.

[18] Sobre el proceso de digitalización en la cooperación judicial penal en el ámbito de la Unión Europea se puede consultar Fontestad Portalés 2022b: 29-56; Bueno Jiménez 2022: 57-68. Resulta de especial interés la lectura de la obra Martín Ríos 2022: 391-406.

[19] Sobre SITEL y otros sistemas en el ámbito de las comunicaciones interceptadas al amparo de la orden europea de investigación, Vid. López Gil 2021.

[20] E-Justice Communication via Online Data Exchange, regulado en el Reglamento (UE) 2022/850 del Parlamento Europeo y del Consejo de 30 de mayo de 2022 relativo a un sistema informatizado para el intercambio electrónico transfronterizo de datos en el ámbito de la cooperación judicial en materia civil y penal (sistema e-CODEX), y por el que se modifica el Reglamento (UE) 2018/1726 (DOUE L 150 de 1.6.2022).

[21] Sobre el uso de métodos tecnológicos en el ámbito de la cooperación judicial en materia penal, Vid. Bujosa Vadell 2022b: 69-97; Bueno De Mata 2021a: 19-48; Perlingeiro y Faza 2022: 99-122; Flórez Álvarez 2021: 83-108 y Pérez Tortosa 2022: 231-248. También resulta de interés la obra de Vallespin Pérez 2023:13-22.

[22] La propia institución iberoamericana de Cooperación Jurídica afirma que “La Red Iberoamericana de Cooperación Jurídica Internacional, IberRed, es una estructura formada por Autoridades Centrales y por puntos de contacto procedentes de los Ministerios de Justicia, Fiscalías y Ministerios Públicos, y Poderes Judiciales de los 22 países que componen la Comunidad Iberoamericana de Naciones, así como por el Tribunal Supremo de Puerto Rico. Está orientada a la optimización de los instrumentos de asistencia judicial civil y penal, y al reforzamiento de los lazos de cooperación entre nuestros países. Constituye, así, un paso fundamental en la conformación de un Espacio Judicial Iberoamericano, entendido como un escenario específico donde la actividad de cooperación jurídica sea objeto de mecanismos reforzados, dinámicas e instrumentos de simplificación y agilización en la consecución de una tutela judicial efectiva” (Disponible en https://www.iberred.org/ (último acceso, 10.09.2023).

[23] La Plataforma Iber@ se aprueba en el Tratado de Medellín, en la XXI Asamblea Plenaria de la Conferencia de Ministros de Justicia de los Países Iberoamericanos (COMJIB). A su vez, COMBIJ fue creada en 1992, por el Tratado de Madrid, para el estudio y promoción de formas de cooperación jurídica entre los Estados miembros y consiste en una organización internacional de carácter intergubernamental de la que forman parte los Ministerios de Justicia e instituciones homólogas de los 22 países de la Comunidad Iberoamericana. Para más información sobre esta organización internacional se puede consultar https://comjib.org/comjib/ (último acceso, 10.10.2023).

[24] Los Considerando número 10 y 14 de la propuesta de Ley de inteligencia artificial afirman, respectivamente, que “Con vistas a que la Unión permanezca fiel a sus valores fundamentales, los sistemas de IA destinados a utilizarse para prácticas consideradas inaceptables por el presente Reglamento también deben considerarse inaceptables fuera de la Unión debido a su efecto especialmente perjudicial para los derechos fundamentales consagrados en la Carta. Procede, por tanto, prohibir a los proveedores residentes en la Unión que exporten tales sistemas de IA a terceros países”.

Asimismo, “…es necesario prohibir determinadas prácticas de inteligencia artificial inaceptables, definir los requisitos que deben cumplir los sistemas de IA de alto riesgo y las obligaciones aplicables a los operadores pertinentes, e imponer obligaciones de transparencia a determinados sistemas de IA”. Vid. Título II de la citada propuesta de Ley de Inteligencia artificial que, en su único artículo 5, determina las prácticas de inteligencia artificial que se considerarán prohibidas.

[25] En el Considerando número 27 de la propuesta de Ley de inteligencia artificial se determina que “La calificación «de alto riesgo» debe limitarse a aquellos sistemas de IA que tengan consecuencias perjudiciales importantes para la salud, la seguridad y los derechos fundamentales de las personas de la Unión, y dicha limitación reduce al mínimo cualquier posible restricción del comercio internacional, si la hubiera. Habida cuenta del rápido ritmo del desarrollo tecnológico, así como de los posibles cambios en el uso de los sistemas de IA, la lista de ámbitos y casos de uso de alto riesgo que figura en el anexo III debe someterse, no obstante, a una revisión permanente mediante el ejercicio de evaluaciones periódicas”. No obstante, a su vez, debemos advertir que la propia propuesta de Ley establece cuáles son las reglas para la clasificación de los sistemas de inteligencia artificial de alto riesgo en el Capítulo I del Título III, concretamente en el artículo 6, según el cual, “Un sistema de IA se considerará de alto riesgo cuando reúna las dos condiciones que se indican a continuación, con independencia de si se ha introducido en el mercado o se ha puesto en servicio sin estar integrado en los productos que se mencionan en las letras a) y b):

  1. el sistema de IA está destinado a ser utilizado como componente de seguridad de uno de los productos contemplados en la legislación de armonización de la Unión que se indica en el anexo II, o es en sí mismo uno de dichos productos;
  2. conforme a la legislación de armonización de la Unión que se indica en el anexo II, el producto del que el sistema de IA es componente de seguridad, o el propio sistema de IA como producto, debe someterse a una evaluación de la conformidad realizada por un organismo independiente para su introducción en el mercado o puesta en servicio.

2. Además de los sistemas de IA de alto riesgo mencionados en el apartado 1, también se considerarán de alto riesgo los sistemas de IA que figuran en el anexo III”.

[26] Vid. Artículo 28 ter, apartado 4, dedicado a las obligaciones del proveedor de un modelo fundacional, según el cual, “Los proveedores de modelos fundacionales utilizados en sistemas de IA destinados específicamente a generar, con distintos niveles de autonomía, contenidos como texto, imágenes, audio o vídeo complejos («IA generativa») y los proveedores que especialicen un modelo fundacional en un sistema de IA generativo, además: a) cumplirán las obligaciones de transparencia establecidas en el artículo 52, apartado 1; b) formarán y, en su caso, diseñarán y desarrollarán el modelo fundacional de manera que se garanticen salvaguardias adecuadas contra la generación de contenidos que infrinjan el Derecho de la Unión, en consonancia con el estado de la técnica generalmente reconocido y sin perjuicio de los derechos fundamentales, incluida la libertad de expresión; c) sin perjuicio de la legislación de la Unión, nacional o de la Unión sobre derechos de autor, documentarán y pondrán a disposición del público un resumen suficientemente detallado del uso de los datos de formación protegidos por la legislación sobre derechos de autor”.

[27] Sobre DigaLaw–X como herramienta de reconocimiento vocal “Inteligente” o sistema de traducción automática, Vid. https://www.digalawx.com/ (último acceso, 10.09.2023).

[28] Cloudwalk, por ejemplo, es una plataforma de coordinación hombre-máquina que proporciona a los usuarios servicios de IA personalizados, multisectoriales y multiescena. Para más información acerca de Cloudwalk se puede consultar https://www.cloudwalk.com/en/ (último acceso, 29.10.2023).

[29] El Reglamento general de protección de datos, en su Considerando 53, determina que “…únicamente se encuentran comprendidas en la definición de datos biométricos cuando el hecho de ser tratadas con medios técnicos específicos permita la identificación o la autenticación unívocas de una persona física” y, en consecuencia, en su artículo 4, establece que debe entenderse por datos biométricos aquellos “datos personales obtenidos a partir de un tratamiento técnico específico, relativos a las características físicas, fisiológicas o conductuales de una persona física que permitan o confirmen la identificación única de dicha persona, como imágenes faciales o datos dactiloscópicos”. Asimismo, el artículo 9.1 del citado Reglamento, hace referencia a los datos biométricos cuando prohíbe el tratamiento de categorías especiales de datos personales, aunque en el apartado 4 del mismo precepto admite la posibilidad de que los Estados miembros puedan mantener o introducir condiciones adicionales, inclusive limitaciones, con respecto al tratamiento de datos genéticos, datos biométricos o datos relativos a la salud. Vid. Reglamento (UE) 2016/679 del Parlamento Europeo y del Consejo, de 27 de abril de 2016, relativo a la protección de las personas físicas en lo que respecta al tratamiento de datos personales y a la libre circulación de estos datos y por el que se deroga la Directiva 95/46/CE (DOUE núm. 119, de 4 de mayo de 2016). Vide. También la Directiva (UE) 2016/680 del Parlamento Europeo y del Consejo, de 27 de abril de 2016, relativa a la protección de las personas físicas en lo que respecta al tratamiento de datos personales por parte de las autoridades competentes para fines de prevención, investigación, detección o enjuiciamiento de infracciones penales o de ejecución de sanciones penales, y a la libre circulación de dichos datos y por la que se deroga la Decisión Marco 2008/977/JAI del Consejo la ley española de transposición (DOUE L 119 de 4 de mayo de 2016), así como la ley española de transposición, Ley Orgánica 7/2021, de 26 de mayo de protección de datos personales tratados para fines de prevención, detección, investigación y enjuiciamiento de infracciones penales y de ejecución de sanciones penales (BOE núm. 126, de 27 de mayo de 2021). Sobre la citada Directiva 2016/680, Vid. Colomer Hernández 2021: 737-782; Fiodorova 2021:709-736; Pillado González, E 2021: 783-820. En relación con la Ley 7/2021, Vid. Por todos, Esparza Leibar 2022: 181-210. Sobre la protección de datos en relación con los instrumentos de digitalización en el ámbito de la cooperación judicial penal internacional, así como en relación con el uso de sistemas de IA, Vid. Bueno De Mata 2021b; Sánchez Barrios 2022: 123-140 y Suárez Xavier 2023b: 65-72.

[30] Sobre la posible vulneración del derecho a la protección de datos personales que, como de todos es sabido, ha sido reconocido en el artículo 8 de la Carta de Derechos Fundamentales de la Unión Europea como un derecho independiente del derecho a la vida privada y familiar, así como para un exhaustivo estudio sobre el tratamiento de los datos personales en un proceso penal, Vid. Colomer Hernández 2023: 39-74. Igualmente, se puede consultar Martin Diz 2021: 969-1006; Villar Fuentes 2019: 399-441 y Marcos González 2021: 225-260.

[31] Vid. Reglamento (UE) 2016/794 del Parlamento Europeo y del Consejo, de 11 de mayo de 2016, relativo a la Agencia de la Unión Europea para la Cooperación Policial (Europol) y por el que se sustituyen y derogan las Decisiones 2009/371/JAI, 2009/934/JAI, 2009/935/JAI, 2009/936/JAI y 2009/968/JAI del Consejo (DOUE L 135 de 24 de mayo de 2016).

[32] Más información sobre la iniciativa HOTSPOT, así como de las diferentes operaciones que en este sentido ha venido desarrollando Europol desde 2019 a 2022, se pueden consultar en https://www.interpol.int/es/Delitos/Terrorismo/Proyectos-de-lucha-contra-el-terrorismo/HOTSPOT (último acceso, 29.10.2023).

[33] Sobre la aplicación de la inteligencia artificial al proceso penal en general, Vid. Hernández Giménez 2019: 792-843 y, en particular, sobre las nuevas tecnologías para la elaboración de mapas criminales: 816-817. En relación con la Justicia predictiva aplicada al proceso judicial en materia probatoria, Vid. Martin Diz 2022: 134-154 y Llorente Sánchez-Arjona 2022: 91-124. Sobre los riesgos que generan los sistemas de policía predictivas en el ámbito del terrorismo, Vid. Suárez Xavier 2022.

[34] Más información acerca del funcionamiento de Predpol se puede encontrar en su portal web: https://www.predpol.com/ (último acceso, 30.10.2023). En España, el primer programa español de crimen predictivo ha sido desarrollado por la empresa EuroCop Security Systems junto al Ayuntamiento y la Policía Local de Castellón, en colaboración con la Universidad Jaume I de Castellón. Se trata de un sistema para la Predicción y Prevención del Delito, denominado EuroCop Pred-Crime, que consiste en sistema integrado de tratamiento de datos masivos vinculados a delitos y faltas; se basa en un modelo espacio-temporal e información geográfica de mapas de calor que usa modelos y algoritmos matemáticos para la predicción y prevención de los delitos. Para más información, se puede visitar su página web, https://www.eurocop.com/sistemas-de-eurocop/analisis-y-prediccion-del-delito/ (último acceso, 30.10.2023). Otras herramientas de inteligencia artificial en el ámbito de la investigación penal, ya sean herramientas predictivas al servicio de la policía o herramientas de “evaluación de riesgo” al servicio de la autoridad judicial, serían –sin ánimo de exhaustividad– STEVIE; Pronóstico policial del lugar del crimen (PDLC) o, el más conocido y a la par controvertido, COMPAS, cuya guía práctica podemos encontrar en https://www.equivant.com/wp-content/uploads/Practitioners-Guide-to-COMPAS-Core-040419.pdf (último acceso, 30.10.2023). Sobre el uso de COMPAS en el proceso penal y sus riesgos, se puede consultar, entre otros, Roa Avella y Sanabria-Moyano 2022: 275-310. Especialmente de interés resulta la lectura de Suárez Xavier 2021y Suárez Xavier 2023c

[35] Como ponía de relieve hace unos años HERNÁNDEZ GIMÉNEZ, la problemática fundamental de este tipo de herramientas tecnológicas aplicadas a la construcción de mapas criminales, es que puede provocar “la estigmatización de determinadas zonas por tener estas un alto porcentaje de delincuencia, lo cual podría desembocar en prejuicios hacia los habitantes de esas zonas y consideramos que no se puede permitir que sea la propia policía la que contribuya a la discriminación de determinados grupos sociales”. Cfr. Hernández Giménez 2019: 817.

[36] Tal y como se recoge en el Portal web de la Policía Nacional, en octubre de 2018 se implementó VeriPol en todas las comisarías de España esta aplicación informática para la detección de las denuncias falsas interpuestas en casos de robos con violencia e intimidación o tirones (información disponible en https://www.policia.es/_es/comunicacion_prensa_detalle.php?ID=4433&idiomaActual=es. Último acceso, 30.10.2023).

[37] Un análisis sobre otras herramientas de inteligencia artificial a disposición de los Cuerpos y Fuerzas de Seguridad del Estado se puede encontrar en Martin Ríos 2022.

[38] El Sistema VioGén se puso en funcionamiento el 26 de julio del 2007, en cumplimiento de lo establecido en la Ley Orgánica 1/2004, de 28 de diciembre, de Medidas de Protección Integral contra la Violencia de Género, con los objetivos de agrupar a las diferentes instituciones públicas con competencias en materia de violencia de género, así como para, entre otras funciones, llevar a cabo una predicción del riesgo y, en función del nivel de riesgo, realizar un seguimiento y dar protección a las víctimas en todo el territorio nacional. Del mismo modo, con el sistema VioGén, se pretende realizar una labor preventiva mediante la emisión de avisos, alertas y alarmas, a través del “Subsistema de Notificaciones Automatizadas”, en el caso de que se detecte alguna incidencia o acontecimiento que pueda suponer un peligro para la integridad de la víctima. Información disponible en https://www.interior.gob.es/opencms/ca/servicios-al-ciudadano/violencia-contra-la-mujer/sistema-viogen/ (último acceso, 30.10.2023). En relación con el sistema VioGén, Vid. Por todos, Montesinos García 2021: 19-55; Borges Blázquez 2021; Magro Servet 2022: 397-415 y Llorente Sánchez-Arjona 2022: 371-396.

[39] Vid. Punto 4 de la Resolución del Parlamento Europeo sobre la inteligencia artificial en el Derecho penal y su utilización por las autoridades policiales y judiciales en asuntos penales.

[40] Vid. Punto 4 de la Resolución del Parlamento Europeo sobre la inteligencia artificial en el Derecho penal y su utilización por las autoridades policiales y judiciales en asuntos penales.

[41] Cfr. PASCUAL GARCÍA, A. (2020). “Inteligencia artificial y Justicia: ¿condenados a entenderse?”, (disponible en https://www.unir.net/derecho/revista/inteligencia-artificial-justicia/, último acceso, 31.10.2023). En este sentido, Vid. BONET NAVARRO, J. (2023). “El juicio y el prejuicio por la máquina”, Revista General de Derecho Procesal, núm. 60.