Acerca de la inteligencia artificial en el ámbito penal: especial referencia a la actividad de las fuerzas y cuerpos de seguridad

ARTIFICIAL INTELLIGENCE IN THE CRIMINAL FIELD: SPECIAL REFERENCE TO THE ACTIVITY OF THE STATE SECURITY FORCES AND BODIES

Cristina Alonso Salgado

Profesora Ayudante Doctor de Derecho Procesal

Departamento de Derecho Público Especial y de la Empresa

Universidad de Santiago de Compostela

cristina.alonso@usc.es 0000-0002-0383-3169

US ET SCIENTIA • 2021

Vol. 7 • Nº 1 • pp. 25 - 36

ISSN 2444-8478 • https://dx.doi.org/10.12795/IESTSCIENTIA.2021.i01.03

Recibido: 03 de enero 2021 | Aceptado: 31 de marzo 2021

RESUMEN

PALABRAS CLAVE

El binomio inteligencia artificial-ámbito penal ha llegado para quedarse. Las implicaciones de tal interacción son evidentes: tanto las potencialidades, como las dificultades. Sea como fuere, con independencia de los avances y retrocesos en el debate, lo cierto es que el estado del arte revela no pocos ejemplos de utilización de la inteligencia artificial en el ámbito penal: reconocimiento facial; herramientas predictivas; etc.

Algunos de los ejemplos más relevantes se circunscriben a la actividad de las fuerzas y cuerpos de seguridad. A ello dedicaremos las líneas que siguen, en el ánimo de efectuar un examen crítico acerca de las herramientas de inteligencia artificial hoy día empleadas en este ámbito; en el ánimo, en definitiva, de facilitar un aterrizaje garantista que permita optimizar todas sus virtualidades.

Inteligencia artificial

Ámbito penal

Policía

ABSTRACT

KEYWORDS

The artificial intelligence-criminal field pairing is here to stay. The implications of such an interaction are obvious: both the potentialities and the difficulties. Be that as it may, regardless of the advances and setbacks in the debate, the truth is that the state of the art reveals not a few examples of the use of artificial intelligence in the criminal sphere: facial recognition; predictive tools; etc.

Some of the most relevant examples are limited to the activity of the security forces and bodies. We will dedicate the following lines to this, in order to carry out a critical examination of the artificial intelligence tools used today in this field; in the spirit, in short, of facilitating a guaranteed landing that allows optimizing all its potentialities.

Artificial intelligence

Criminal field

Police

I. Con carácter premilinar

De un tiempo a esta parte, tanto en la Academia, como en el Foro no deja de resonar una idea cada vez con más fuerza: la irrupción de la Inteligencia Artificial en la Justicia española constituye un futuro muy presente.

No se trata de una cuestión menor, máxime si se tiene presente que aún hoy nuestros Juzgados y Tribunales distan mucho, desde una perspectiva estricta, de ser espacios tecnológicos. No nos podemos detener en ello, toda vez que excedería, con creces, el ámbito del presente estudio. Sirva lo apuntado para destacar que el punto de partida para la incorporación de la inteligencia artificial no es ni el más propicio, ni el más conveniente.

Así pues, instalados todavía en el tránsito transformador del siglo XX al XXI, irrumpe un nuevo desarrollo hijo de la nueva era, que tensiona nuestra tradición legal y nuestra cultura jurídica, que pone a prueba nuestra capacidad de adaptación y que evidencia resistencias, reparos y objeciones. Y ello, en muy buena medida, porque, lejos de lo que inicialmente pudiera parecer, ese nuevo desarrollo al que se hace referencia, constituye algo más que un giro meramente cuantitativo.

En efecto, no se debate aquí sobre un nuevo avance de las nuevas tecnologías[ 1 ], no, al menos en su formulación más tradicional. No se trata de un nuevo progreso de lo tecnológico, sino de algo más, de algo, en realidad, mucho mayor: la irrupción del algoritmo. Su interacción con el sistema de Justicia deja entrever, casi de manera intuitiva, un océano de posibilidades aparejado, al tiempo, con un mundo de dificultades.

Ni que decir tiene que, para una Justicia en crisis como la nuestra, la tentación de abrazar la irrupción es más que atractiva, casi, irresistible. Con todo, la realidad que, como es sabido, más que tozuna es pertinaz, se obstina en devolvernos una imagen de la inteligencia artificial árida, con no pocas aristas, pendiente, por tanto, de la oportuna reflexión.

Se trata de una empresa mayúscula a la que están convocados profesionales de orígenes heterogéneos, pero, sobre todo, juristas de diferentes áreas: filósofos del Derecho, civilistas, etc. El meteórico ascenso y la novedad del fenómeno exige que comencemos a plantear preguntas un tanto incómodas, nada triunfalistas. Urgen respuestas, cuando, infelizmente, no se han formulado todas las preguntas. A ello dedicaremos las líneas que a continuación siguen.

II. Notas de aproximación al concepto de “Inteligencia Artificial”

Comoquiera que buena parte del análisis orbita en torno al concepto “Inteligencia artificial”, no corresponde sino comenzar la reflexión delimitando los umbrales de lo que por tal expresión debe ser entendido[ 2 ]. De acuerdo con la Comunicación de la Comisión al Parlamento, al Consejo Europeo, al Consejo, al Comité Económico y Social Europeo y al Comité de las Regiones sobre “Inteligencia artificial”[ 3 ], con tal expresión se hace referencia a los sistemas que manifiestan un comportamiento inteligente, en tanto son capaces de examinar su entorno y proceder, con cierto grado de autonomía, con el horizonte de lograr unos determinados objetivos específicos. Los sistemas fundamentados en “Inteligencia artificial” pueden basarse en un programa informático, o también puede incorporarse en dispositivos de hardware[ 4 ]. Se trata de una combinación de tecnologías que aúna datos, algoritmos y capacidad informática.

No cabe duda de que la inteligencia artificial se está desarrollando con rapidez. Y sus implicaciones, como es fácil advertir, son más que relevantes. Está llamada a transformar nuestras vidas: incidirá en la atención sanitaria (prevención de enfermedades, precisión en los diagnósticos, etc.); en la eficiencia de la agricultura, en concreto en la eficiencia de los sistemas de producción; en la seguridad; etc[ 5 ]. En suma, “el término ‘inteligencia artificial’ (IA) se aplica a los sistemas que manifiestan un comportamiento inteligente, pues son capaces de analizar su entorno y pasar a la acción –con cierto grado de autonomía– con el fin de alcanzar objetivos específicos[ 6 ]. Ello no obstante, es obvio que implica “una serie de riesgos potenciales, como la opacidad en la toma de decisiones, la discriminación de género o de otro tipo, la intromisión en nuestras vidas privadas o su uso con fines delictivos[ 7 ].

III. Una interacción no exenta de dificultades: la Inteligencia Artificial en el ámbito penal. Especial referencia a la actividad de fuerzas y cuerpos de seguridad

Con base en los riesgos que se vienen de apuntar y habida cuenta del ámbito que a nosotros interesa, se hace preciso analizar la interacción de la inteligencia artificial y el ámbito penal, en la consideración de aprovechar sus inequívocas potencialidades, pero enfrentando de manera categórica, algunas de las aristas que hoy día plantea su incorporación.

Sin embargo, antes de adentrarnos en el debate anunciado, resulta imprescindible sentar una prevención de naturaleza preliminar: situar bajo el paraguas de la inteligencia artificial cualquier medida derivada del desarrollo tecnológico, puede resultar contraproducente a la hora de reflexionar sobre la irrupción que ahora interesa. Y ello porque en la sobredimensión se produce, sin duda, un desenfoque: en un océano de cuestiones, el riesgo de desatender los peligros técnico-jurídicos de lo que constituye inteligencia artificial stricto sensu es más que real[ 8 ].

Entrando ya en materia, son múltiples las posibilidades de interacción de la inteligencia artificial con el ámbito de actuación de las Fuerzas y Cuerpos de seguridad. Siguiendo a HERNÁNDEZ GIMÉNEZ (2019)[ 9 ] se pueden citar, de entre los más relevantes, en primer lugar, los mapas criminales, que sirven para examinar el espacio de los hechos delictivos perpetrados en un determinado ámbito geográfico a lo largo de un específico umbral temporal.

En opinión de Balcells (2020), “Varias han sido las causas del cambio que ha conducido a una policíaa eminentemente reactiva a una de predictiva, pero una fundamental ha sido el análisis geográfico de los delitos, dominio de la criminología medioambiental. La criminología medioambiental enmarca una serie de teorías con un nexo cormin: los hechos criminales y las circunstancias inmediatas donde los delitos ocurren. De acuerdo con Brantingham y Brantingham (1991), la criminología ambiental entiende los hechos delictivos ‘como la confluencia generada entre el delincuente, la víctima y las leyes que operan en entornos específicos en momentos y lugares particulares’. Los Brantingham son los creadores de la teoría de la geometría del crimen, que subraya la falta de uniformidad y la no aleatoriedad del delito en las ciudades. Los autores parten de la premisa que el delincuente, al igual que el resto de conciudadanos, debe desplazarse para cometer sus delitos. El delito sucede en espacios que pueden ser predichos porque las oportunidades delictivas coinciden en zonas conocidas por el delincuente. A su vez, hay determinados espacios que se convierten en puntos calientes (hot spots) porque el nivel de convergencia de delincuentes y víctimas es muy elevado, y por lo tanto, las oportunidades se disparan[ 10 ].

La evolución de esta herramienta desde las investigaciones primigenias hasta la actualidad ha sido notable. Su eficiencia inicial se resentía notablemente por la utilización de mapas físicos sobre los que se debía operar manualmente. Con la irrupción de los mapas tecnológicos la mejora fue más que significativa por la posibilidad de combinar los datos de manera casi automática[ 11 ]. La virtualidad de la herramienta resulta más que evidente, toda vez que, a su través, se pueden delimitar las zonas en las que se cometen determados hechos delictivos y, por tanto, adoptar las medidas oportunas para, al menos, mitigar el fenómeno delictivo. Con todo, el hándicap, también resulta más que diáfano: ¿acaso la inevitable estigmatización no conllevará devaluación de las propiedades y depauperación urbana con todo lo que ello implica?[ 12 ] A la vista de ello, ¿es un elemento pacificador desde una perspectiva penal?

En segundo lugar, cabe destacar, las denominadas “Gafas de identificación”. Con estos lentes, basados en operativa de inteligencia artificial, es posible identificar mediante reconocimiento facial a una persona que suscite interés policial. Dicho de otro modo: captan toda la información morfológica posible para transferirla a un dispositivo electrónico conectado con una base de datos.

De nuevo las potencialidades emergen sin dificultad: desde la identificación de determinadas personas entre multitudes urbanas, hasta la operada en aeropuertos por motivos de seguridad. Ello no obstante, esta herramienta tampoco se encuentra exenta de objeciones, pues, aun cuando su celeridad y alta capacidad de gestión de datos resulten más que atractivas desde una perspectiva policial, habría que preguntarse por elementos tales como la privacidad, la intimidad, la creación de una sociedad orweliana, etc.

Que esta herramienta funcione en China, no quiere decir necesariamente que su uso vaya ser fácilmente asumido por la ciudadanía de las democracias occidentales avanzadas[ 13 ]. No se trata de un supuesto de laboratorio. Buena prueba de ello es que frente al avance en la materia del país asiático, la ciudad de San Francisco, en los Estados Unidos de América, prohibió, en su momento, las cámaras de reconocimiento facial. En la decisión pesó, en particular, el derecho a la privacidad y a la protección de las minorías. Sin duda, que esta ciudad sea una de las más interseccionadas por identidades y diversidades del país norteamericano haya tenido mucho que ver con esa decisión. Y es que, no son pocas las voces que destacan elementos ciertamente preocupantes al respecto. Cabe destacar en este sentido, las críticas del Center on Privacy & Technology de la Georgetown Law que pone el dedo en la llaga al subrayar que la mayoría de los debates sobre privacidad no tocan la raza, la clase o el poder y que, por tanto, se hace preciso estudiar el impacto dispar de este tipo de vigilancia: problemas de proporcionalidad, ponderación de intereses en conflicto; etc. Más aún, insiste en un problema de orden mayor: los algoritmos de reconocimiento facial exhiben prejuicios raciales y resultan menos precisos en función de diferentes parámetros raciales, generacionales, etc.[ 14 ].

Sin ánimo de agotar nuestro objeto de debate, terminamos con la herramienta que más dudas nos genera: aquella que opera para la detección de denuncias falsas. Este programa denominado “VeriPol” procesa el texto empleando para ello métodos de procesamiento de lenguaje natural, infiriendo especificidades útiles que se transfieren a un modelo matemático que evalúa la probabilidad de falsedad de la denuncia. Asimismo, extrapola e identifica patrones de comportamiento con base en los datos, posibilitando la determinación de cuáles son las singularidades que más distinguen a las denuncias falsas[ 15 ]. En efecto, “El objetivo de este método es el desarrollo de estrategias efectivas de prevención del delito y el aumento de la efectividad de las investigaciones. Se podría definir como un método creado para predecir la veracidad de las declaraciones de las víctimas de delitos graves (...) A partir del análisis de las características y coeficientes de VeriPol, es posible sacar conclusiones sobre la veracidad de lo manifestado en una denuncia. De hecho, el modelo es capaz de discernir diferencias significativas en la narración de denuncias verdaderas y falsas que conducen a la mejor separación entre estas dos clases. De este análisis se puede concluir que las denuncias verdaderas y falsas difieren principalmente en tres aspectos principales: modus operandi de la agresión, morfosintaxis de la denuncia y cantidad de detalles[ 16 ].

Se han destacado en relación a esta herramienta, dos virtualidades de inequívoco interés: por un lado, VeriPol no exige más que la información proporcionada por la persona denunciante; y, por el otro, el diagnóstico valorativo es ofrecido con carácter inmediato, de modo que posibilita que las decisiones se adopten desde una fase incipiente que permite mejorar, al menos sobre el papel, la respuesta ante este tipo de delicuencia; la eficiencia en la distribución de recursos; etc[ 17 ].

Probablemente, aún sea pronto para extraer conclusiones definitivas en cuanto a la aplicación práctica de la herramienta. Ello no obstante, aun cuando sea a título muy preliminar, interesa traer a colación el análisis efectuado por Liberatore, Quijano-Sánchez y Camacho-Collados (2019) desarrollado en relación a la aplicación de VeriPol en las ciudades de Málaga y Murcia. El estudio evidencia un significativo aumento en la resolución de supuestos de denuncias falsas con un abrumador porcentaje de acierto y una más que notable aceptación por parte de los agentes de la Policía[ 18 ].

Ello no obstante, a nuestro juicio el actual diseño de VeriPol permite una serie de reparos en materia criminológica: desde el análisis –real, efectivo y convenientemente ponderado− del impacto de la victimación en el testimonio que es incorporado a la herramienta −contemplando las variables dependientes del tipo de hecho delictivo, comisión, etc.−, hasta las objeciones derivadas desde una perspectiva victimológica.

Asimismo, aun cuando, obviamente, la estimación de VeriPol no compromete la decisión de los Cuerpos y Fuerzas de Seguridad, no cabe duda de que establece un prejuicio de partida. Por tautológico que pueda resulta: los agentes no son máquinas y, por tanto, son susceptibles de ser influenciados por la decisión del programa.

Finalmente, ¿no parece evidente que el criterio en la mayor parte de las ocasiones será la ausencia del mismo, esto es, la asunción de lo señalado por la herramienta? Y en caso de separarse del criterio de VeriPol, ¿acabará por ser precisa una suerte de justificación? ¿Qué incidencia tendría ello en, por ejemplo, la responsabilidad derivada de una determinada actuación policial?

IV. Para acabar sin concluir

En el ánimo de cumplir con el formato del trabajo, únicamente se han puesto sobre la mesa algunos aspectos de interés sobre la materia, salpimentadas con poco entusiasmo y no pocas dudas. No podría ser de otro modo, realizar afirmaciones categóricas a estas alturas del estado de la ciencia, al menos en lo que respecto al ámbito penal, resultaría temerario.

En efecto, la relación de dificultades, objeciones y reparos no es pequeña: desde los interrogantes ya clásicos en relación a los derechos fundamentales de los ciudadanos, al eventual sesgo discriminador de unos algoritmos que tienden a reproducir y aumentar los prejuicios presentes en las personas que participan en el proceso de diseño y programación[ 19 ].

Pero, más allá de los reparos más evidentes, compartimos el temor que, justificadamente –a nuestro juicio−, manifiesta Barona Vilar (2019) cuando indica que “(…) emerge una enorme inquietud acerca de causa-efecto que puede llegar a producir esta transformación social digital en la igualdad social. Puede producir una suerte de desigualdad social creciente. No en vano, ‘los grandes beneficiarios de la cuarta revolución industrial son los proveedores de capital intelectual o físico (…), lo cual explica la creciente brecha de riqueza entre las personas que dependen de su trabajo y las que poseen el capital’, o dicho de otro modo, la algoritmización de la vida que arrastra esta revolución industrial del 4.0. está mostrando una cada vez mayor concentración de los beneficios y del valor en tan solo un pequeño porcentaje de personas, que generan lo que SCHWAB denomina ‘efecto de plataforma’, que dominan los mercados, concentrados fundamentalmente en unas pocas manos y que muestran un cada vez más ineficiente ascensor social[ 20 ].

Sin alarmismos[ 21 ], pero sí con cautelas, probablemente lo aconsejable es que el legislador opte por avanzar en el camino de la inteligencia artificial de manera progresiva, primero centrando sus esfuerzos en las herramientas predictivas de carácter complementario, para, más tarde −y veremos bajo qué condiciones−, avanzar en la sistematizacion de operaciones con cierto grado de autonomía.

Para todo ello, en definitiva, resulta imprescindible la reflexión conjunta de diferentes disciplinas y áreas de conocimiento de las Ciencias Jurídicas, Ciencias Sociales, Humanidades –entre otras−, para que, de manera absolutamente interdisciplinar, la Academia pueda proporcionar propuestas de lege ferenda que sirvan para vencer algunos de los obstáculos más notables.

Bibliografía

Andrés Segovia, B. (2020). Derecho e innovación en la Agenda España Digital 2025. Diario La Ley, 9743.

Balcells, M. (2020). Luces y sombras del uso de la inteligencia artificial en el sistema de Justicia penal. En A. Cerrillo I Martínez y M. Peguera Poch (Eds.). Retos jurídicos de la inteligencia artificial. Cizur Menor (Navarra): Aranzadi.

Barona Vilar, S. (2019). Inteligencia artificial o la algoritmización de la vida y de la justicia: ¿solución o problema? Revista Boliviana de Derecho, 28, 18-49.

Bueno de Mata, F. (2010). E-justicia: Hacia una nueva forma de entender la justicia. Riedpa: Revista Internacional de Estudios de Derecho Procesal y Arbitraje, 1, 1-10.

González-Álvarez, J. L., Santos-Hermoso, J. y Camacho-Collados, M. (2020). Policía predictiva en España. Aplicación y retos de futuro. Behavior & Law Journal, 6 (1), 26-41.

Hernández Giménez, M. (2019). Inteligencia artificial y Derecho penal. Actualidad Jurídica Iberoamericana, 10 bis, 792-843.

Liberatore, F., Quijano-Sánchez, L. y Camacho-Collados, M. (2019). Applications of Data Science in Policing: VeriPol as an Investigation Support Tool. European Law Enforcement Research Bulletin-Innovations in Law Enforcement, 4, 89-96.

López Baroni, M. J. (2019). Las narrativas de la inteligencia artificial. Revista Bioética y Derecho, 46, 5-28.

Martínez Martínez, R. (2019). Inteligencia artificial desde el diseño. Retos y estrategias para el cumplimiento normativo. Revista Catalana de Dret Públic, 58, 64-81.

Miró Llinares, F. (2018). Inteligencia artificial y justicia penal: más allá de los resultados lesivos causados por robots. Revista de Derecho penal y Criminología, 20, 87-130.

Merchán Murillo, A. (2019). Inteligencia artificial y blockchain: retos jurídicos en paralelo. Revista General de Derecho Administrativo, 50.

Sánchez Barrilao, J. F. (2016). El Derecho constitucional ante la era de ultrón: la informática y la inteligencia artificial como objeto constitucional. Estudios de Deusto, 64/2, 225-258.

Solar Cayón, J. I. (2018). La codificación predictiva: inteligencia artificial en la averiguación procesal de los hechos relevantes. Anuario Facultad de Derecho de la Universidad de Alcalá, 11, 75-105.

VV.AA. (2012). Face Recognition Performance: Role of Demographic Information. IEEE Transactions on information forensics and security, 7 (6), 1789-1801.

VV.AA. (2016). The perpetual line-up: unregulated police face recognition in america. Washington D. C.: Georgetown Law, Center on Privacy & Technology.

[ 1 ] De interés sobre el debate: Andrés Segovia, B. (2020). Derecho e innovación en la Agenda España Digital 2025. Diario La Ley, 9743.

De igual modo, véase: “La irrupción de las nuevas tecnologías en el siglo XXI afecta a todas las ramas de la sociedad, entre ellas, la Justicia. La digitalización e informatización de la Administración de Justicia es una realidad debido a las nuevas regulaciones existentes al respecto. A día de hoy, ya podemos hablar de un nuevo concepto de percepción de la justicia en España: la E-Justicia. Con esta figura se pretende llegar a obtener procedimientos informatizados, e incluso hablar de juicios virtuales. Al mismo tiempo la UE en su objetivo de crear un espacio judicial europeo, por ese motivo los proyectos que se están impulsando a nivel comunitario intentan favorecer la aplicación de nuevos instrumentos legales basados en la justicia en red, es un tema en plena ebullición que no deja de estar en constante cambio”, en Bueno de Mata, F. (2010). E-justicia: Hacia una nueva forma de entender la justicia. Riedpa: Revista Internacional de Estudios de Derecho Procesal y Arbitraje, 1, 1.

[ 2 ] Es una empresa no exenta de dificultades: “El término inteligencia artificial se aplica a los sistemas que manifiestan un comportamiento inteligente, pues son capaces de analizar su entorno y pasar a la acción, con cierto grado de autonomía, con el fin de alcanzar objetivos específicos. Los sistemas basados en la IA pueden consistir simplemente en un programa informático (p. ej. asistentes de voz, programas de análisis de imágenes, motores de búsqueda, sistemas de reconocimiento facial y de voz), pero la IA también puede estar incorporada en dispositivos de hardware (p. ej. robots avanzados, automóviles autónomos, drones o aplicaciones del internet de las cosas). Se utiliza la IA diariamente, por ejemplo, para traducir de un idioma a otro, generar subtítulos en los vídeos o bloquear el correo electrónico no solicitado (spam). Lejos de ser ciencia-ficción, la IA forma ya parte de nuestras vidas, en la utilización de un asistente personal para organizar nuestra jornada laboral, en el desplazamiento en un vehículo de conducción automática o en las canciones o restaurantes sugeridos por nuestros teléfonos. Con la IA se trata de elaborar sistemas capaces de resolver problemas y desempeñar tareas mediante la simulación de procesos intelectuales. Se puede enseñar a la IA a resolver un problema, pero ella también puede estudiar el problema y aprender la manera de resolverlo por sí misma sin intervención humana. Los diferentes sistemas pueden alcanzar distintos niveles de autonomía y pueden actuar de modo independiente. En ese sentido, su funcionamiento y sus resultados son imprevisibles, ya que esos sistemas funcionan como ‘cajas negras’. Hoy día existen diversas definiciones de inteligencia artificial. Sin embargo, ninguna de ellas ha sido aceptada universalmente (...)”, en Merchán Murillo, A. (2019). Inteligencia artificial y blockchain: retos jurídicos en paralelo. Revista General de Derecho Administrativo, 50, 3-4.

[ 3 ]En su estrategia sobre la IA para Europa, la Comisión propuso trabajar con los Estados miembros en un plan coordinado sobre IA para finales de 2018, con el objetivo de maximizar el impacto de las inversiones a nivel nacional y de la UE, fomentar las sinergias y la cooperación en toda la UE, intercambiar las mejores prácticas y definir colectivamente el camino a seguir para garantizar que la UE en su conjunto pueda competir globalmente. La propuesta de un plan coordinado basado en la Declaración de cooperación sobre IA se lanzó en abril de 2018 en el Día Digital y fue firmada por todos los Estados miembros y Noruega. Fue aprobada por el Consejo Europeo en junio de 2018”, en Comunicación de la Comisión al Parlamento Europeo, al Consejo Europeo, al Consejo, al Comité Económico y Social Europeo y al Comité de las Regiones, sobre el Plan coordinado sobre la inteligencia artificial. https://eur-lex.europa.eu/resource.html?uri=cellar:22ee84bb-fa04-11e8-a96d-01aa75ed71a1.0022.02/DOC_1&format=PDF (consulta a 30/11/2020).

[ 4 ] Comunicación de la Comisión al Parlamento, al Consejo Europeo, al Consejo, al Comité Económico y Social Europeo y al Comité de las Regiones sobre “Inteligencia artificial”. https://eur-lex.europa.eu/legal-content/ES/TXT/PDF/?uri=CELEX:52018DC0237&from=es (consulta a 30/11/2020).

[ 5 ]La inteligencia artificial (IA) nos puede ayudar a hacer frente a algunos de los mayores desafíos del mundo. Puede permitir a los médicos mejorar los diagnósticos y desarrollar tratamientos para enfermedades para las cuales aún no existen; puede reducir el consumo de energía optimizando los recursos; puede contribuir a un medio ambiente más limpio al disminuir la necesidad de pesticidas; puede ayudar a mejorar la predicción del tiempo y anticipar desastres; y así sucesivamente. La lista es prácticamente interminable. La inteligencia artificial será el principal impulsor del crecimiento económico y productivo y contribuirá a la sostenibilidad y viabilidad de la base industrial en Europa. Al igual que la máquina de vapor o la electricidad en el pasado, la IA está transformando el mundo”, en Comunicación de la Comisión al Parlamento Europeo, al Consejo Europeo, al Consejo, al Comité Económico y Social Europeo y al Comité de las Regiones, Anexo al Plan coordinado sobre la inteligencia artificial. https://eur-lex.europa.eu/resource.html?uri=cellar:22ee84bb-fa04-11e8-a96d-01aa75ed71a1.0022.02/DOC_2&format=PDF (consulta a 30/11/2020).

[ 6 ] Comunicación de la Comisión al Parlamento, al Consejo Europeo, al Consejo, al Comité Económico y Social Europeo y al Comité de las Regiones sobre el Plan coordinado sobre la inteligencia artificial, en https://eur-lex.europa.eu/resource.html?uri=cellar:22ee84bb-fa04-11e8-a96d-01aa75ed71a1.0022.02/DOC_1&format=PDF (consulta a 30/11/2020).

[ 7 ] Libro blanco sobre la inteligencia artificial - un enfoque europeo orientado a la excelencia y la confianza. https://ec.europa.eu/info/sites/info/files/commission-white-paper-artificial-intelligence-feb2020_es.pdf (consulta a 30/11/2020).

De igual modo, “Los cambios introducidos por la IA también suscitan inquietudes. Los trabajadores temen perder su trabajo debido a la automatización, los consumidores se preguntan quién es el responsable en caso de que un sistema basado en IA tome una decisión errónea, las pequeñas empresas no saben cómo aplicar la IA a su negocio, las empresas emergentes (startups) de IA no encuentran los recursos y el talento que necesitan en Europa, y la competencia internacional es más feroz que nunca con inversiones masivas en los EE.UU. y China”, en Comunicación de la Comisión al Parlamento Europeo, al Consejo Europeo, al Consejo, al Comité Económico y Social Europeo y al Comité de las Regiones, sobre el Plan coordinado sobre la inteligencia artificial. https://eur-lex.europa.eu/resource.html?uri=cellar:22ee84bb-fa04-11e8-a96d-01aa75ed71a1.0022.02/DOC_1&format=PDF (consulta a 30/11/2020).

Sobre los señalados riesgos: “Hace poco Stephen Hawking advertía públicamente en una entrevista del riesgo que para la humanidad supondría, al tiempo, la inteligencia artificial; no es realmente un juicio original, pues en gran medida el físico británico venía a amplificar y publicitar las tesis de Nick Bostrom (Director del Future of Humanity Institute, Universidad de Oxford), quien considera la inteligencia artificial como uno de los principales riesgos para la supervivencia de la especie humana al no resultar garantizado que ésta sea capaz de controlar las máquinas inteligentes que a buen seguro se harán en el futuro a fin de propiciar (paradójicamente) un mejor mañana para los humanos . La imagen, entre otras, de un HAL-9000 (2001 A Space Odyssey), de Skynet (The Terminator), de VIKI (I, Robot) o, cómo no, de la misma Matrix (The Matrix) , toma cuerpo intelectual así en el corazón mismo de una sociedad tecnificada, globalizada y del riesgo , y en la que el desarrollo de la informática ha venido, precisamente, a catalizar aquélla dado que motor del avance científico (en cualquiera de sus ramas), de la aparición de nuevos y artificiales peligros, y de la intercomunicación mundial (sociedad de la información, o digital) (...) Por tanto, no es que estemos realmente ante un problema nuevo; si acaso ante una muy peculiar manifestación del desarrollo tecnológico, en su conjunto (sociedad de la información, nuevamente), y al hilo del actual mundo globalizado y del riesgo en el que vivimos (según se acaba de señalar). Y con esto que la tecnología, y a su vera o vanguardia la informática, entronquen con las misiones que al Derecho constitucional se le reconoce ya en estos tiempos, dado que ambivalentes factores de riesgo y de progreso: de esta forma, y desde hace bastantes años, por ejemplo, la protección de la intimidad y de los datos personales ante la informática (art. 18.4 CE); o más recientemente, y en Derecho constitucional comparado, el reconocimiento de cierto derecho de las personas a participar en el progreso informático (así, arts. 16.2 y 17.2 Constitución de 2008 de la República de Ecuador; art. 63 Constitución de la República Dominicana de 2010; o art. 6 Constitución Mexicana, tras su reforma de 2013) . Entonces, ¿en dónde residiría lo auténticamente novedoso que plantea la señalada desconfianza sobre la inteligencia artificial hoy? Tal vez no sea sino una vuelta de tuerca más en nuestra toma de consciencia de la dificultad misma (o el propio grado de dificultad) sobre cómo decidir al respecto del progreso humano y del riesgo que con carácter general éste supone, sin embargo, para la humanidad, así como del progreso y del riesgo informático en particular y especialmente”, en Sánchez Barrilao, J. F. (2016). El Derecho constitucional ante la era de ultrón: la informática y la inteligencia artificial como objeto constitucional. Estudios de Deusto, 64/2, 225 y siguientes.

[ 8 ] A nuestro juicio, el desafío más abrupto es el representado por aquellas tecnologías que aportan más grado de autonomía en la toma de decisiones. De interés: “La inteligencia artificial está ganando una presencia creciente en el trabajo jurídico, impulsando la automatización de una serie de tareas de carácter cognitivo que, hasta hace menos de una década, estaban reservadas a la inteligencia humana”, en Solar Cayón, J. I. (2018). La codificación predictiva: inteligencia artificial en la averiguación procesal de los hechos relevantes. Anuario Facultad de Derecho de la Universidad de Alcalá, 11, 75.

De igual modo, nótese al respecto, lo que señala Miró Llinares: “Existen (...) dos aspectos esenciales que van a determinar el alcance potencial de cada IA, tanto de las que ya existen como de las que se podrían crear virtualmente en el futuro: (1) su capacidad para ejecutar un mayor o menor abanico de instrucciones, y (2) el grado de autonomía con el que las ejecute frente a la influencia del ser humano (...) La IA actual, la que nos ocupa en este trabajo, aquella que consiste esencialmente en algoritmos de predicción utilizados para la realización de acciones o recomendaciones para actuar a partir de un conjunto de datos existente y de la identificación en ellos de patrones y probabilidades 23, y en la que, por tanto, todo el contexto es otorgado por los seres humanos quienes, con la información que le brindan (por acción y por omisión) y los algoritmos que crean para relacionar las variables, determinan completamente el actuar de la máquina, no requiere, a mi parecer, de ningún tipo de cambio en el sistema de atribución de responsabilidad pensado para los seres humanos como sí podría requerir en el futuro algún sistema de IA que tuviera rasgos de autonomía 24. Pero la utilización de estos algoritmos de IA en relación con el sistema de justicia penal, por un lado, y la constatación de la posibilidad de que las máquinas, físicas o no, conformadas por IA puedan causar daños a intereses dignos de tutela penal como la vida o el orden económico, al igual que hicieron que se levantaran voces sobre la necesidad de incorporar la ética a la construcción de tales herramientas 25, nos obligan ahora a nosotros a tomar en consideración sus implicaciones penales”, Miró Llinares, F. (2018). Inteligencia artificial y justicia penal: más allá de los resultados lesivos causados por robots. Revista de Derecho penal y Criminología, 20, 92.

[ 9 ] Hernández Giménez, M. (2019). Inteligencia artificial y Derecho penal. Actualidad Jurídica Iberoamericana, 10 bis, 792-843.

[ 10 ] Balcells, M. (2020). Luces y sombras del uso de la inteligencia artificial en el sistema de Justicia penal. En A. Cerrillo I Martínez y M. Peguera Poch (Eds.). Retos jurídicos de la inteligencia artificial. Cizur Menor (Navarra): Aranzadi, 149. Y sigue el autor destacando: “La labor de los Brantingham permitió establecer las bases para predecir patrones delictivos que se extenderían gracias al sistema GIS (Geographic Information System) de mapeado: cuando los puntos calientes de la delincuencia se pueden establecer de forma mas fácil, estos devienen la principal prioridad policial y permiten una mejor localización de recursos y de esfuerzos por parte de las fuerzas policiales. La investigación en criminología medioambiental ha permitido la aparición de otros aspectos que han ayudado en la prevención y detección de delitos, como la perfilación geográfica, la victimización repetitiva, o el estudio de la distancia recorrida por el delincuente para cometer sus delitos. En el primer caso, la perfilación geográfica busca hallar patrones de movilidad de delincuentes para hacer estimaciones sobre dónde es probable que el delincuente viva, trabaje y se mueva (ROSSMO, 2000); en el segundo caso, la victimización repetitiva busca el identificar aquellos lugares dónde las personas son víctimas en múltiples ocasiones (FARRELL & PEASE, 1993); finalmente, el estudio de la movilidad de los delincuentes demostró que los mismos tienden a cometer sus crímenes cerca de su hogar y a lo largo de caminos familiares, disminuyendo sus zonas de operación a medida que se alejan de su domicilio (RENGERT & WASILCHICK, 2000). Lo importante de estos descubrimientos de la criminología medioambiental es su aplicabilidad: cuantos más casos existen y más datos generan, un algoritmo dispone de mas informacián, generando una imagen detallada de las áreas más peligrosas de una ciudad desde un punto de vista delictivo (...) Todos estos descubrimientos acabaron desembocando en la llamada policía predictiva, o en su acronimo estadounidense, PredPol. El predictive policing va más alla de la mera detección de puntos calientes puesto que permite predecir el riesgo de la comisión de futuros delitos o resolver delitos ya cometidos a través de inferencias estadisticas (RUDIN, 2013; ISAAC, 2018). PredPol identifica cuadrantes en un mapa en los que el riesgo delictivo es mayor: de esta forma, la IA informa y organiza la labor policial” (149-150).

[ 11 ] En cuanto a la geografía del delito, véase también: “(...) además de la predominante intervención policial basada en lugares, se están comenzando a implantar modelos predictivos que permiten hacer prevención policial en individuos. Quizá el ejemplo más conocido sea el algoritmo de ROSSMO, cuya formulación permite estimar el área geográfica donde, con mayor probabilidad, reside un presunto agresor serial en función de la ubicación de los delitos que previamente se le atribuyen. Gracias a tal estimación, es posible priorizar sospechosos de una larga lista y concentrar los recursos policiales (...)”, Miró Llinares, F. (2018). Inteligencia artificial y justicia penal: más allá de los resultados lesivos causados por robots. Revista de Derecho penal y Criminología, 20, 102.

[ 12 ] Cuestión diferente sería en “lugares” no físicos, esto es ciberespacio. En este sentido se pronuncia Miró Llinares, F. (2018). Inteligencia artificial y justicia penal: más allá de los resultados lesivos causados por robots. Revista de Derecho penal y Criminología, 20, 16 y siguientes.

[ 13 ] Hernández Giménez, M. (2019). Inteligencia artificial y Derecho penal. Actualidad Jurídica Iberoamericana, 10 bis, 792-843.

[ 14 ] VV.AA. (2016). The perpetual line-up: unregulated police face recognition in america. Washington D. C.: Georgetown Law, Center on Privacy & Technology.

Se trata de un “Grupo de expertos centrado en las leyes y políticas de privacidad y vigilancia, y las comunidades a las que afectan”. https://www.law.georgetown.edu/privacy-technology-center/ (consulta a 10/05/2021).

Asimismo, de interés sobre el debate, vid., VV.AA. (2012). Face Recognition Performance: Role of Demographic Information. IEEE Transactions on information forensics and security, 7 (6), 1789-1801.

[ 15 ]Es la primera herramienta de este tipo a nivel mundial y representa una verdadera novedad tanto a nivel policial como a nivel académico. De hecho, la investigación en detección de mentiras sobre texto está dando sus primeros pasos y VeriPol es el primer modelo que se ha estimado y validado sobre documentos reales y no sobre textos ficticios o redactados específicamente para la investigación”, en Ministerio del Interior del Gobierno de España. (2018). La Policía Nacional pone en funcionamiento la aplicación informática VeriPol para detectar denuncias falsas. http://www.interior.gob.es/prensa/noticias/-/asset_publisher/GHU8Ap6ztgsg/content/id/9496864 (consulta a 30/11/2020).

[ 16 ] Ministerio del Interior del Gobierno de España. (2018). La Policía Nacional pone en funcionamiento la aplicación informática VeriPol para detectar denuncias falsas. http://www.interior.gob.es/prensa/noticias/-/asset_publisher/GHU8Ap6ztgsg/content/id/9496864 (consulta a 30/11/2020).

[ 17 ] González-Álvarez, J. L., Santos-Hermoso, J. y Camacho-Collados, M. (2020). Policía predictiva en España. Aplicación y retos de futuro. Behavior & Law Journal, 6 (1), 30.

[ 18 ]To test the efficacy and effectiveness of VeriPol, a pilot study has been undertaken in the urban areas of Murcia and Málaga, Spain. More in detail, the pilot study was run in Murcia (four police departments involved) from the 5th to the 9th of June 2017, while it took place in Málaga (six police department involved) from the 12th to the 16th of June 2017. In each destination, two agents, experts in false report detection and in VeriPol, were sent to install the software, give a short course on its use to the local agents and investigators, and supervise all the activity. After that, all the new violent robbery reports as well as all the open violent robbery cases of 2017, were analysed by VeriPol”, en Liberatore, F., Quijano-Sánchez, L. y Camacho-Collados, M. (2019). Applications of Data Science in Policing: VeriPol as an Investigation Support Tool. European Law Enforcement Research Bulletin-Innovations in Law Enforcement, 4, 92 y siguientes.

[ 19 ] Tal y como destaca López Baroni: “(...) la cuestión clave en este caso es cómo programar con sentido ético, esto es, cómo conseguir que el conjunto de reglas que permiten ejecutar un programa no sean discriminatorias. Sin embargo, este objetivo es mucho más complejo de lo que pueda parecer a simple vista. En efecto, a un programa se le exige que carezca de ‘sesgos’. Sin embargo, ¿cómo evitar los sesgos de los programadores? Sostenía Gadamer que la Ilustración trajo consigo el prejuicio del ‘no prejuicio’, esto es, la creencia de que, en efecto, era posible no tener prejuicios. Este problema explica que se trate de resolver la cuestión de los sesgos con conceptos ad hoc, como la ‘transparencia’ que debe inspirar la programación de las IA (...); la ‘comprensibilidad’ (...), esto es, que los seres humanos afectados por una decisión basada en la Inteligencia Artificial puedan comprender, en un lenguaje inteligible, por qué el algoritmo toma esa decisión y no otra; o la ‘reversibilidad’, es decir, la posibilidad de poder cambiar dicha decisión (el algoritmo, en suma), con argumentos razonados (...)”, en López Baroni, M. J. (2019). Las narrativas de la inteligencia artificial. Revista Bioética y Derecho, 46, 12-13.

[ 20 ] Barona Vilar, S. (2019). Inteligencia artificial o la algoritmización de la vida y de la justicia: ¿solución o problema? Revista Boliviana de Derecho, 28, 18-49.

[ 21 ] Frente a visiones negativas, reactivas o catastrofistas, véase: Martínez Martínez, R. (2019). Inteligencia artificial desde el diseño. Retos y estrategias para el cumplimiento normativo. Revista Catalana de Dret Públic, 58, 64-81.