Carlos Hernán Robles Macaya
Abogado – LARA LEGAL CORP. Costa Rica
Máster en Derecho Penal Económico
Universidad Internacional de La Rioja
carlos@laralegalcorp.com
0009-0009-0139-6784
Recibido: 24 de junio de 2025 | Aceptado: 10 de diciembre de 2025
IUS ET SCIENTIA • 2025 • ISSN 2444-8478
Vol. 11 • Nº 2 · pp. 196-208
|
RESUMEN |
PALABRAS CLAVE |
|
|
La inteligencia artificial ha evolucionado a niveles donde ya los Robots forman su propia data y toman decisiones autónomas e impredecibles, no ligadas al algoritmo que les dio participación activa en muchos campos. Parece ser que los Robots son participantes en conductas que, penalmente son relevantes por violar bienes jurídicos protegidos en materia penal. Esa participación obliga a valorar los actos del Robot dentro de los alcances de la teoría del delito. Cabe averiguar si es posible atribuir a un Robot una conducta típica, antijurídica y culpable. Ese es el reto que enfrenta el Derecho penal del siglo XXI. |
Ley Robot Derecho Penal Responsabilidad Penal Delito |
|
|
ABSTRACT |
KEYWORDS |
|
|
Artificial intelligence has evolved to levels that robots now form their own data and make autonomous and unpredictable decisions, not linked to the algorithm that gave them active participation in many fields. Robots are participants in conduct that is criminally relevant for violating legal rights protected in criminal matters. This participation forces us to evaluate the robot’s acts within the scope of the theory of the crime. Typical, illegal and guilty behavior can be attributed to a robot. That is the challenge facing criminal law in this XXI. |
Law Robot Criminal Law Criminal Liability Crime |
El muy conocido científico Stephen Hawking señaló hace más de una década que, “ El día que la inteligencia artificial se desarrolle por completo podría significar el fin de la raza humana. Funcionará por sí sola y se rediseñará cada vez más rápido. Los seres humanos, limitados por la lenta evolución biológica, no podrán competir con ella y serán superados” (BBC, 2014).
Por su parte, el conocido Elon Musk, en el año 2017 manifestó que la competencia por la superioridad en la inteligencia artificial (IA) es la causa más probable de una guerra mundial, asimismo predice la llegada de una IA superhumana en 2025 (Ugalde, 2024).
Por otro lado, en los Foros Internacionales se hacen la siguiente pregunta, ¿ El diseño y puesta en marcha de armas autónomas en conflictos armados resulta compatible con el derecho internacional humanitario? En este sentido, advierte Pérez Luño (1991, 289), que, “en la situación tecnológica propia de la sociedad contemporánea todos los ciudadanos, desde su nacimiento, se hallan expuestos a violaciones de su intimidad perpetradas por determinados abusos de la informática y la telemática. La injerencia del ordenador en las diversas esferas y en el tejido de relaciones que conforman la vida cotidiana se hace cada vez más extendida, más difusa, más implacable”.
La propia Comisión de la Unión Europea impulsa un enfoque ético y regulado para la IA, promoviendo innovación, protección de derechos fundamentales y transparencia. Su estrategia integra investigación, seguridad digital y cooperación internacional, garantizando desarrollo tecnológico que equilibre progreso económico y respeto a los valores sociales en la era digital (Comisión Europea 2018).
El avance acelerado de la tecnología ha llevado al desarrollo de sistemas de armas cada vez más sofisticadas y autónomas. Entre estas, según expone Madrid Moreno, “se encuentran las armas letales autónomas (SALA) o ‘robots asesinos’, que son capaces de operar y tomar decisiones sin la intervención humana directa. Estas armas plantean numerosos desafíos legales y éticos, especialmente en el contexto del Derecho Internacional Humanitario, como cuerpo de leyes que regula el comportamiento de los actores en conflictos armados” (Madrid Moreno, 2023).
La Unión Europea (UE), el 24 de mayo de 2024 aprobó el AI act, primera ley en el mundo para regular la IA y que modifica determinados actos legislativos de la UE [1] . Entre sus objetivos se encuentra el controlar las capacidades avanzadas de la IA, sus riesgos sistémicos, entre otros, obligando a fin de garantizar que los sistemas de IA sean altamente fiables. En cuanto a sistemas de IA de alto riesgo deben llevar el marcado certificado de ciberseguridad (CE) en físico o digital, para poder circular libremente en el mercado libre [2] . De igual forma se regula el uso de material protegido por derechos de autor.
Y cabe referirse en este punto a la Machine learning (ML), “ (…) una aplicación actual de la IA basada en la idea de dar a las máquinas acceso a los datos y dejarles aprender por sí mismos, es decir, algoritmos que reconocen patrones específicos, organizan datos o información determinada y permiten así que las máquinas aprendan a realizar sus funciones de forma “más inteligente” [3] . Estos aprenden a no repetir errores o superan dificultades emergentes. En este, suelen usarse redes neuronales artificiales [4] para facilitar el aprendizaje y proceso de razonamiento de las máquinas, de la manera que lo hacemos los humanos, de ahí que se considere al aprendizaje automático como el detonador de su eventual responsabilidad penal.
El deep learning, es más reciente que la ML. Surge en 2010 y tiene como objetivo imitar una red neuronal humana a través de la inteligencia artificial. El “aprendizaje profundo” como también se le conoce, se basa en el diseño de capas individuales de conexiones que mantiene una comunicación con otras capas de información sometidas a una cantidad ilimitada de datos que es usada primero, de forma individual, y luego general, para una tarea específica (al igual que una red neuronal humana); es una vertiente de la machine learning que se diseñó para ampliar los contextos en que éste era aplicado.
En sentido amplio, a continuación, cabe referirse a los Robots, cada vez más incorporados a la vida cotidiana, pero que en más de una ocasión han causado problemas afectando incluso la vida humana de no pocos. Recuerda Verdugo Guzmán que, “una gran interrogante que se plantea, es la posibilidad de atribuir responsabilidad penal por ejemplo a un robot que ‘destruya’ un ser humano por un fallo en su sistema o porque lo detecte como un error (como ya sucedió con un robot que rompió el dedo a un niño mientras jugaban ajedrez en un torneo de Moscú en julio de 2022), pues por ahora no se puede aplicar la teoría del delito a la I.A, ni siquiera se puede hablar de persona jurídica o robótica” (Verdugo Guzmán, 2023, 151). Así entonces, cabe discutir si es posible que tengan una responsabilidad penal y promover una cultura de prevención de delitos por parte de éstos.
En el sentido expuesto, Morán Espinoza, señala la disyuntiva y obligación profesional del Derecho Penal Económico para abordar la realidad de la IA, y por ello, se refiere a la necesidad de, “ (…) proponer su regulación especial a través de dos vertientes principales: 1.La creación de un tercer tipo de persona jurídica–“la persona artificial”-, y 2. La probable responsabilidad penal (IA) –frente a irresolubles y variados casos cometidos por ésta–, como la próxima, apremiante y urgente frontera jurídica a regular” (Morán Espinoza, 2021, 289).
En la actualidad, la inclusión de la robótica se encuentra en la gobernanza en materia de responsabilidad penal de las personas jurídicas (RPPJ), pero cabe ampliarla a la nueva realidad que nos acompaña en este siglo: los robots y otras formas de IA. Intentaremos dilucidar algunas cuestiones problemáticas, a continuación.
En este texto se utilizará indistintamente el término IA, persona artificial y Robot, aunque se citará con mayor frecuencia este último. El Robot evoca algo tangible, no un concepto tan etéreo como la IA, o la persona artificial, última que, siendo realistas, dista mucho de su creación jurídica. Por su parte, la Real Academia Española, define Robot como “ m. Máquina o ingenio electrónico programable que es capaz de manipular objetos y realizar diversas operaciones ” (RAE 2025).
La ciencia más calificada sobre la materia confirma que un Robot se desliga del algoritmo que le dio existencia jurídica y despliega en su actuar, según el Informe del Parlamento Europeo (2017) [5] :
La descripción científica de un Robot da pleno fundamento a la existencia de personas artificiales, y como tales, han de ser reguladas y, por ende, debe ser valorado penalmente su grado de participación en una conducta delictual. No se puede dejar de compartir el criterio de Crespo (2024), quien señala que los Robots podrán llegar a ser sujetos, más nunca agentes a efectos de sentar una responsabilidad penal, porque falta el elemento culpabilidad. Advierte Verdugo Guzmán que, “quizás, se puede pensar en una imprudencia por parte del responsable del robot que está a cargo de él o directamente imputar la responsabilidad al fabricante de este, siguiendo el ejemplo descrito, por lo que sería el responsable final de las muertes o daños que se produzcan” (2023, 151).
Por su parte, agrega Miró Llinares que, “(…) resulta esencial monitorizar la evolución de la IA desde una perspectiva de atribución de responsabilidad para evitar llegar a situaciones en las que el aprendizaje de las máquinas no permita decir que nadie haya tomado una decisión negligente pese a que existan daños” (2018, 96).
En otro sentido, Gutiérrez Palacio (2023), señala que durante siglos el Derecho penal ha sido fiel creyente de que las acciones penales sólo son humanas y, por ende, sólo se estudian esta clase de conductas en esta área del derecho. No obstante, recientemente a partir del desarrollo de las teorías neurocientíficas aplicadas al derecho, y, en definitiva, existe un sinfín de conceptos, pareciera que deberían llevar a replantearse los conceptos tradicionales.
Un ejemplo de lo expuesto es traído a colación por Demetrio Crespo, quien argumenta que, a partir de lo postulado por Roth, la concepción de acción voluntaria, una conducta dirigida por un “yo consciente”, es ahora una ilusión. Lo referido en razón a que, conforme a la concatenación de la amígdala, el hipocampo y el nudo ventral y dorsal, la memoria emocional de la experiencia de las personas tiene la última palabra sobre nuestras actuaciones. Bajo este entendido, nuestras decisiones conductuales no son más que ideas que ya fueron ejecutadas segundos antes por nuestro sistema límbico (Demetrio, 2013, 240).
Las conductas o actos de los Robots, dígase los efectos jurídicos de sus decisiones autónomas e impredecibles, son tema de discusión en Estados Unidos y la propia Unión Europea. Por ejemplo, ésta se refiere en distintos documentos a los ejes fundamentales para el desarrollo de su política en materia tecnológica y de datos, o también, sobre el “Régimen de responsabilidad civil de la inteligencia artificial 2020/2014”, (2020), iniciativa en desarrollo que propone la regulación de áreas como los carros autómatas, las armas de destrucción masiva basadas en inteligencia artificial o el reconocimiento facial [6] .
Es ineludible abordar la responsabilidad penal de los Robots que existe también en los delitos económicos-empresariales pues, muestran rasgos significativamente alejados del delito paradigmático, y su estudio práctico nos retrotrae al análisis de ataques producidos contra bienes jurídicos de naturaleza patrimonial individual, o supraindividual – sociales o estatales–, en los que aparecen de forma recurrente problemas interpretativos, derivados de la pluralidad de intervinientes, cuando no relativos a aspectos subjetivos –dolo directo o del dolo eventual– o a cuestiones de autoría y participación, la –comisión por omisión u omisión impropia, actuar en lugar de otro y, también, el delito colegial–.
Lo anterior nos recuerdan que, además de los problemas concretos anteriormente comentados, el delito económico es esencia un delito cometido en el seno de una organización de personas, la empresa, y su crecimiento exponencial en términos cuantitativos y cualitativos es también fiel reflejo de los cambios y transformaciones que las más modernas tecnologías han producido estas últimas décadas en nuestra sociedad, ahora organizada en una red hiperconectada, con unos estados en declive y cuyas fronteras se difuminan fruto de la imparable globalización.
Es imperativo el valorar los hechos, y por qué no, la participación de los Robots en un iter criminis que tiene como resultado la violación de un bien jurídico protegido en el Derecho Penal Económico.
Está claro que la penalidad del Robot va a requerir actualizaciones legales que así lo establezcan, cuestión que en la mayoría de los sistemas latinoamericanos se han venido pronunciando en los últimos años, en cuanto a la RPPJ. Realizaremos un análisis a continuación.
Es importante resaltar, primeramente, como lo desarrolla el ilustre tratadista Roxin (2021, 174-175), que la tendencia predominante en el derecho vigente es un Derecho penal del hecho, no del autor. El propio Roxin señala, “Por Derecho penal del hecho se entiende una regulación legal, en virtud de la cual la punibilidad se vincula a una acción concreta descrita típicamente (o a lo sumo a varias acciones de ese tipo) y la sanción representa sólo la respuesta al hecho individual, y no a toda la conducción de la vida del autor o a los peligros que en el futuro se esperan del mismo ”. Y en este sentido, señala el autor, “Está claro que el principio constitucional nullum crimen, nulla poena sine lege favorece más el desarrollo de un Derecho penal del hecho que el de un Derecho penal de autor; pues las descripciones de acciones y las penas por el hecho se acomodan más al principio de precisión o determinación que unos preceptos penales que atiendan a “un elemento criminógeno permanente” en la persona del autor o “al ser-así humano de la personalidad que hay que castigar” y que midan por ese baremo la clase y cuantía de la sanción. Así pues, un ordenamiento jurídico que se base en principios propios de un Estado de Derecho liberal se inclinará siempre hacia un Derecho penal del hecho” .
Ahora bien, décadas después de la exposición de las teorías de Roxin, encontramos que el profesor Miró Llinares (2022), ha señalado que la irrupción de la inteligencia artificial en ámbitos tradicionalmente regulados por el Derecho penal genera retos conceptuales y prácticos. Según sus análisis, la creciente autonomía y complejidad de los sistemas algorítmicos plantean interrogantes sobre la atribución de responsabilidad penal, ya que la imputación de intencionalidad y el control sobre las decisiones automatizadas se vuelven cada vez más difusos. En este contexto, destaca la necesidad de revisar y actualizar los marcos normativos penales, de modo que se integren nuevos criterios que permitan abordar los riesgos y desafíos que implica la incorporación de la IA en actividades delictivas y en la administración de justicia. Su enfoque insiste en que, si bien la tecnología puede aportar eficiencia y precisión, también se deben establecer mecanismos de supervisión y salvaguardas jurídicas que eviten la erosión de garantías fundamentales.
En el ámbito de la IA este paradigma invita a cuestionar la responsabilidad penal de sistemas de inteligencia artificial autónomos, pues sus decisiones integradas en conductas delictivas podrían ser sometidas a evaluaciones jurídicas estrictas, análogas a las aplicadas a enemigos estatales. Esta visión propone un replanteamiento radical de la imputabilidad penal en el contexto tecnológico actual.
En la era digital, los robots emergen como instrumentos activos en la delincuencia económica, colaborando en actividades complejas de lavado de activos y fraudes cibernéticos. Estas máquinas automatizadas facilitan operaciones sofisticadas que permiten a las clases poderosas perpetrar delitos económicos con mínima intervención humana. Así, los llamados delitos de cuello blanco se transforman, incorporando tecnología avanzada que oculta huellas y amplifica riesgos financieros. La automatización y la IA incrementan la eficiencia criminal, desafiando marcos legales tradicionales. Este fenómeno demanda respuestas innovadoras, fortaleciendo la cooperación internacional y regulaciones tecnológicas para combatir eficazmente este creciente reto. El futuro requiere acción inmediata.
Por lo anterior, cabe afirmar que el Derecho penal moderno se inclina por un derecho penal del hecho, tal como lo desarrolla Roxin. Como ejemplos de legislaciones latinoamericanas en ese sentido, se transcribe el artículo 45 del Código Penal de Costa Rica:
Artículo 45. Autor y coautores. Es autor del hecho punible tipificado como tal, quien lo realizare por sí o sirviéndose de otro u otros, y coautores los que lo realizaren conjuntamente con el autor.
Por otra parte, el artículo 45 del Código Penal de Argentina establece como coautores de un delito a todos, “ los que tomasen parte en la ejecución del hecho”, lo que consiste en realizar una conducta requerida por el tipo delictivo pertinente.
En definitiva, Latinoamérica sigue la corriente del Derecho penal del hecho, y uno de sus mejores ejemplos ha sido la promulgación de la ley de RPPJ. En el caso de Costa Rica, no se tuvo que reformar el artículo 45 del CP para tener como autor o coautor a una persona jurídica [7] .
Es claro que la PJ es una ficción jurídica que se establece como una creación del legislador como un ente jurídico que tiene su propia autonomía de responsabilidades y obligaciones. Esta construcción permite asignar derechos y deberes a entidades sin existencia física, pero con capacidad de obrar en el ámbito jurídico. Sin embargo, la irrupción de la IA y los robots en diversos sectores evidencia que estos últimos carecen del estatus jurídico necesario para asumir responsabilidades penales. A pesar de su capacidad de análisis y toma de decisiones, los robots operan como herramientas sin personalidad legal. Por ello, se requiere una reforma legislativa que contemple la creación de una figura de persona artificial o digital, capaz de integrar las particularidades de la tecnología avanzada y asignarle una regulación adecuada en el Derecho penal. Esta transformación normativa es esencial para afrontar los nuevos desafíos que impone la era digital.
En la actualidad el Robot, pese a tomar decisiones autónomas e impredecibles y provocar esas decisiones actos, o una conducta típica, antijurídica y culpable, su participación o responsabilidad se limita, a efectos penales, como herramienta tecnológica de la que se sirve el autor para la comisión de un delito.
No obstante, el Robot es un participante activo en esta realidad de los delitos económicos, por ejemplo. Y cabe la pregunta: ¿es su participación per se relevante en el ámbito penal? Para responder, debemos verificar la participación causal del robot en la toma de decisiones que van a ser parte de una conducta que viola un bien jurídico protegido o tutelado.
Como ejercicio académico parece prima facie señalar que, de conformidad con la “Teoría de la participación”, lo determinante en los delitos es la causalidad. En este sentido, el Robot debe haber agregado un eslabón al resultado, como uno más de esta pluralidad de participantes activos. La amplitud del concepto de partícipe permite reconocer la intervención de agentes que, aunque carentes de subjetividad, influyen decisivamente en el resultado del hecho punible. Este enfoque podría implicar que el robot, al operar como herramienta de toma de decisiones autónoma, sea equiparado a un actor penal, similar a los coautores o cómplices humanos, por su contribución en el proceso criminal.
No obstante lo anterior, surgen desafíos esenciales: ¿cómo asignar responsabilidades y sanciones a un ente sin conciencia ni voluntad propia? ¿Es necesaria una reforma legal que contemple la creación de una figura de “persona artificial” o similar para abordar esta problemática?
La respuesta a estas interrogantes requiere una actualización del marco normativo penal, incorporando conceptos propios de la era digital. Así, el criterio de la Sala Tercera de la Corte Suprema de Costa Rica invita a repensar la participación penal en función de la efectividad y el control en la acción delictiva, trascendiendo los límites tradicionales y adaptándose a la realidad tecnológica emergente. En este sentido, la Sala define al partícipe con base en la gran amplitud del criterio utilizado en el Código Penal costarricense, señalando: “ (…) nuestro Código Penal utiliza la terminología “partícipes” en un sentido amplio, referida a todos los que hubieren intervenido en la realización del hecho punible, ya sea como coautores, cómplices o instigadores (…)” [8] .
Por lo anterior, se intuye que la Corte Suprema de Justicia de Costa Rica ha establecido un criterio amplio para definir al partícipe en la comisión de un hecho punible, considerando a todos aquellos que intervienen en la realización del delito, ya sea como coautores, cómplices o instigadores.
Bajo la óptica expuesta, la integración de la IA en el ámbito delictivo plantea un debate crucial en el Derecho penal moderno. Si un robot, dotado de algoritmos avanzados, toma decisiones a lo largo del iter criminis y participa activamente en la ejecución de un delito, el cuestionamiento jurídico se centra en si dicho ente puede ser considerado partícipe, a pesar de no ser una persona jurídica ni física.
Cabe tomar como base en este tema, la teoría de la participación, y veremos si es posible aplicar la penalidad del robot como coautor.
En este sentido, a diferencia de las personas jurídicas que, bajo la doctrina de la autorresponsabilidad por defectos de organización (Feijoo Sánchez, 2016, 87), pueden ser castigadas sin requerir del castigo a su vez de una persona física. El Robot, en aplicación de la teoría de “El riesgo permitido en Derecho Penal Económico”, desarrollada por el ilustre profesor Silva Sánchez (2024), con su participación en la causalidad del delito, está atribuida a quien o quienes pusieron en marcha ese algoritmo que le da al Robot, como vimos, la posibilidad de desarrollar una base de datos propia, y con apoyo en ella, tomar decisiones autónomas e impredecibles que se traducen en conductas de relevancia penal si lesionan bienes jurídicos protegidos. Interpretando al propio autor, ese “quien o quienes”, son garantes de los resultados lesivos en cuanto a los delitos económicos. Ese estatus jurídico de garante, por su conducta los enmarca como autores o coautores, según sea el caso.
La decisión de un Robot no es un acto neutro, por el contrario, el mismo Silva Sánchez (2023), señala que es común afirmar que las conductas denominadas neutrales (mejor, neutras o “comportamientos estándar”) no constituyen un riesgo penalmente desaprobado. En todo caso, se diría que el concepto de neutralidad de las conductas de intervención es un producto de la academia jurídico-penal alemana. Pero en el caso de la IA, ciertamente, admite que la cooperación logística con una organización criminal puede dar lugar a responsabilidad por un hecho concreto cometido por aquélla, aun cuando este no haya sido favorecido de modo directo. Sin embargo, exige que se trate de una cooperación sistemática e intensa.
Como se desarrolló supra , la teoría de la participación requiere de pluralidad de sujetos a efectos de la causalidad del resultado que lesiona bienes jurídicos tutelados o protegidos con la consecuente relevancia penal.
Una vez que se cree legalmente la persona artificial (PA), dígase el Robot, no obstante, se requiere de un análisis caso por caso. En principio me decanto por la coautoría y no complicidad u otro calificativo jurídico de la participación del Robot. Por el nivel de participación y dominio del hecho que tiene en la toma de la decisión el Robot, su conducta es de alta participación en la mayoría de los casos. Eso no limita a que pueda tener una participación y determinación menos grave en el ámbito penal, reitero, según el cuadro fáctico a valorar por el juzgador.
Finalmente, dentro de las regulaciones penales que se deberán emitir, creo que cabe la eximente penal si existiesen programas de cumplimiento eficaces ( Compliance ) en los diversos algoritmos que, sean la causalidad de las decisiones del Robot y que, enmarquen las mismas dentro de una cultura de prevención de delitos. Cabe resaltar lo señalado por Morán Espinoza (2021), porque es posible que el Robot desarrolle principios de honestidad a la hora de la toma de su decisión. Es imperiosa la necesidad de regular la participación del Robot en los delitos económicos y exigir los programas de cumplimiento en su configuración, entre otras áreas que es necesario desarrollar a la brevedad, especialmente producto del acelerado crecimiento y expansión de la IA y otras tantas tecnologías.
La teoría de la participación exige una pluralidad de sujetos penalmente imputables. Para poder establecer el nivel de participación de éstos, hemos de valorar la causalidad de sus conductas en el resultado penalmente relevante para establecer el nivel de reproche y su castigo. Marvin Minsky (pionero en el tema de la IA) señaló, “la inteligencia artificial es la ciencia de construir máquinas para que hagan cosas que, si las hicieran los humanos, requerirían inteligencia” (Minsky, 2021, 42).
Si la inteligencia humana debe considerarse como la capacidad de un sujeto que en la vida cotidiana dirige su comportamiento usando la información conforme a sus conocimientos, capacidades y razonamientos, podemos actualmente interrelacionar ambos conceptos ya que se entiende que la IA es la ciencia dedicada a construir máquinas capaces de realizar acciones que, si fueran ejecutadas por seres humanos requerirían inteligencia. Esto subraya la intención de imitar procesos cognitivos humanos a través de algoritmos y sistemas automatizados (ML).
En otras palabras, la inteligencia humana se caracteriza por la capacidad del individuo para dirigir su comportamiento basándose en la información que ha captado, aprendido y elaborado. Equiparar ambos conceptos implica reconocer que pese a sus diferencias fundamentales, ambos sistemas buscan la resolución de problemas y la optimización de decisiones. Mientras la inteligencia humana opera en un contexto subjetivo y emocional, adaptándose a situaciones complejas con creatividad, la IA reproduce de manera mecánica procesos de aprendizaje y análisis. Así, se establece una analogía en la que ambos tipos de inteligencia persiguen la eficiencia en la toma de decisiones, aunque a través de mecanismos distintos pero complementarios.
Por ello, la humanidad evoluciona y el Derecho penal con ella. El dejar de lado conceptos que se consideraban pétreos, como lo era el concepto de que “las sociedades no pueden delinquir”, ha abierto una nueva puerta para analizar otros conceptos, entre ellos, la responsabilidad penal de los robots.
Así pues, la pregunta es, ¿los Robots pueden delinquir?
Una respuesta respaldada por la teoría del delito, se refiere a conductas típicas, antijurídicas y culpables. Aquí, la pregunta que cabe hacerse gira en torno a que, si bien las sociedades son una ficción jurídica, una creación del hombre, ¿cabrá un silogismo que llegue a castigar decisiones autónomas e impredecibles de un Robot, de una persona artificial?
Ya se ha expuesto la opinión de varios autores en páginas anteriores, y la respuesta parece encontrarse en cuanta distancia debe darse entre la persona y su voluntad de creación de herramientas tecnológicas sumadas a las personas jurídicas ya existentes y que actualmente pueden, en algunos regímenes penales, ser responsables penalmente.
Personalmente, me limito a la IA autónoma, su capacidad es la toma de decisiones sin intervención humana, decisiones que no sólo son autónomas, sino a su vez impredecibles y tomando como fuente de conocimiento, datos producidos, creados, generados, como los queramos denominar, pero que son nuevos, tienen una propiedad intelectual autónoma del robot (elemento cognitivo) y, ante diferentes escenarios, decide (elemento volitivo), y materializa su decisión en una conducta típica y antijurídica. No menciono el tercer elemento “culpable” ya que requiere un análisis más profundo, que procuraré hacer en otra ocasión.
Como un precedente para hacer una especulación jurídica más seria en cuanto al posible calificativo de coautoría de un Robot, es el tema de la responsabilidad penal de las personas jurídicas. Para ello, es importante tener presente que la persona jurídica puede ser autora de un delito. En el caso de los robots, claro que es necesaria la participación de otro sujeto activo como participante, y para ello me apoyo en la teoría de la participación anteriormente citada.
El Robot desarrolla su IA teniendo como base, o siendo su causa un algoritmo que lleva al desarrollo de una base de datos propia que le permite tomar decisiones autónomas e impredecibles. Un último concepto es la imprevisibilidad, que desliga al Robot del elemento subjetivo volitivo de quien (la persona física) le dio relevancia jurídica al Robot con el algoritmo inicial y que, para efectos de tener como participante en ese eslabón de hechos de relevancia penal al Robot por su resultado, no desvinculan a su programador inicial que, como indicamos, es garante por asumir un riesgo, si bien permitido no eximente de culpabilidad. Por ello su autoría penal.
En el campo de los Robots, o de la IA dentro de la teoría del delito, se encuentra el mayor escollo en la “culpabilidad”. Y cabe recordar a Roxin en este punto, quien nos señala que, “ la responsabilidad (penal) depende de dos datos que deben añadirse al injusto: de la culpabilidad del sujeto y de la necesidad preventiva de sanción penal, que hay que deducir de la ley. El sujeto actúa culpablemente cuando realiza un injusto jurídico penal pese a que (todavía) le podía alcanzar el efecto de llamada de atención de la norma en la situación concreta y poseía una capacidad suficiente de autocontrol, de modo que le era psíquicamente asequible una alternativa de conducta conforme a derecho”.
Al ser, según la ciencia, las decisiones de los Robots impredecibles y que las toma en base a un banco de información propia del Robot, muy desligada de la alimentada por su programador, toma gran relevancia los programas de cumplimiento informático, para prevenir que las decisiones en la IA encierren conductas típicas, antijurídicas y culpables.
Nada más cabe dejar apuntado (ya que no es el objeto de este aporte), que se nos presenta el tema de la autoría intelectual con la información autónoma del Robot. Esa autoría tiene relevancia, como fuente de prueba en su utilización para valorar esa conducta típica, antijurídica y culpable que, creada la persona artificial, adquiera una participación autónoma en la jurisdicción penal. En materia de derecho probatorio penal, torna gran relevancia la inquietud de quien es el titular de esa información, quien tiene la legitimidad de los derechos de autor: ¿el programador o el Robot?
Las convenciones internacionales sobre la materia, entre las que cabe citar las de la UE que dieron como resultado el AI Act, en mayo 2024, nos dan una respuesta clara, quien produce, quien crea esa información que antes no existía es el titular. Agrego que, en terminología popular, “será quien le pone su yo al resultado calificado como obra, apoyados en la ciencia, es el Robot”.
A efectos de estas ocurrencias existe una línea muy sutil entre las decisiones de un Robot, si estas toman como base de su decisión (conducta) información suministrada por su programador, o la de forma autónoma creada por el Robot.
El Robot tiene participación relevante para el Derecho penal en el iter criminis de los delitos en que pueda haber influido . La disyuntiva es, si su participación es sancionable penalmente. El Robot toma decisiones autónomas e impredecibles con fundamento en una base de datos propia. Decisiones que, si bien tienen un grado de comunicabilidad con el algoritmo que le dio presencia jurídica al Robot, no son predecibles para argumentar que el creador del algoritmo es el autor de las mismas.
Los actos del Robot, cuando violan bienes jurídicos protegidos, son reprochables penalmente. El Derecho penal valora hechos, no autores, puede separarse por sus actos en la relación causal de su creador, persona física, que le dio presencia jurídica a través de un algoritmo.
Partiendo de un Derecho penal de “hechos”, y no de “autor”, la pregunta gira en torno a la posibilidad de que un Robot sí sea responsable penalmente. La participación penal requiere de una pluralidad de sujetos activos, en los que la causalidad de cada uno de estos participantes es valorada para su castigo. El Robot es un enemigo potencial de la sociedad y su existencia jurídica debe regularse a través de programas de cumplimiento que eviten decisiones delictivas a cargo del Robot.
El creador del algoritmo que le da presencia jurídica al Robot es coautor junto con el Robot de cualquier acto que se enmarque en una conducta típica, antijurídica y culpable. La coautoría del programador descansa en la programación sin mantener el riesgo permitido dentro de controles no delictivos. Y el Robot es coautor por decisiones autónomas e impredecibles, no ligadas directamente al algoritmo que le dio presencia jurídica en el campo penal.
Es crucial la regulación de programas de cumplimiento para la creación de Robots. De igual forma, la creación jurídica del Robot como persona artificial, como sujeto activo, sea como coautor o cómplice, dependiendo de su nivel de participación. Así, el Robot siempre será coautor o cómplice, nunca autor de un delito, por su comunicación con el creador del algoritmo, a diferencia de la persona jurídica que sí puede ser autor sin que exista una persona física identificable penalmente.
BBC.News.mundo.com. “Stephen Hawking: “la inteligencia artificial augura el fin de la raza humana”, 2 de diciembre de 2014. Disponible en: https://www.bbc.com/mundo/ultimas_noticias/2014/12/141202_ultnot_hawking_inteligencia_artificial_riesgo_humanidad_egn Última consulta: 11.04.2025.
Crespo, E. (2024). Jornada Latinoamericana, Derecho Penal Económico. Legal Tech y Teoría del Delito , Universidad Castilla de la Mancha, enero 2024.
Feijoo Sánchez, B. (2016). “El delito corporativo en el Código Penal español”, Cumplimiento normativo y fundamento de la responsabilidad penal de las empresas , Thomson Reuters, Cizur Menor (Navarra).
Gutiérrez Palacio, J. (2023). “Concepto jurídico-penal de acción a partir de la inteligencia artificial”, Estudios de Derecho penal, neurociencia e inteligencia artificial , en E. Demetrio Crespo; D. Caro Coria; M. Escobar Bravo (Eds.), ediciones de la Universidad de Castilla-La Mancha.
Madrid Moreno, M. (2023). “Las Armas Autónomas desafían los Principios del Derecho Internacional Humanitario”, 2023. https://agendaestadodederecho.com/las-armas-autonomas-desafian-los-principios-del-derecho-internacional-humanitario/
Minsky, M. (2021). “Marvin Lee Minsky: pionero en la investigación de la inteligencia artificial”, Publicaciones en Ciencia y Tecnología , vol. 15, núm. 1, Universidad Nacional Experimental Politécnica Antonio José de Sucre, Barquisimeto.
Miró Llinares, F. (2022). El progreso de la dogmática penal (y sus problemas), Tirant Lo Blanch, Valencia.
Miró Llinares, F. (2018). “Inteligencia artificial y Justicia Penal. Más allá de los resultados lesivos causados por robots”, Revista de Derecho Penal y Criminología , núm. 20.
Morán Espinoza, A. (2021). “Responsabilidad penal de la Inteligencia Artificial (IA)”, Ius Revista del Instituto de Ciencias Jurídicas de Puebla , Nueva época, vol. 15, núm. 48, julio – diciembre 2021. https://doi.org/10.35487/rius.v15i48.2021.706
Pérez Luño, A. (1991). “Las generaciones de derechos humanos”, Revista del Centro de Estudios Constitucionales, núm. 10, septiembre-diciembre.
Silva Sánchez, J. (2024). El riesgo permitido en Derecho penal económico , Atelier, Libros Jurídicos, Madrid.
Silva Sánchez, J. (2024). ¿Hasta qué punto son conductas neutras los servicios de Google, Facebook o Twitter? InDret Penal , núm. 1. Disponible en: https://indret.com/hasta-que-punto-son-conductas-neutras-los-servicios-de-google-facebook-o-twitter/ .
Roxin, C. (2021). Derecho Penal, Parte General. Fundamentos. La Estructura de la teoría del delito , toma I, Civitas, Madrid.
Ugalde, R. “Inteligencia artificial provocará guerra mundial. Elon Musk”, 03.IX.2017. Disponible en: https://mundocontact.com/inteligencia-artificial-provocara-guerra-mundial-elon-musk/ Última consulta: 11.04.2025.
Verdugo Guzmán, S. (2023). Ciberespacio, metaverso y nuevos delitos que gravitan sobre los derechos humanos, Tirant lo Blanch, Valencia.
[1] (COM (2021)0266-C9-0146/2021-2021/0106 (COD)). Para ello, se establecen criterios de clasificación de riesgo que permiten diferenciar entre aplicaciones de alto, medio y bajo riesgo, asignando obligaciones específicas a cada una. Entre las medidas adoptadas se destacan la exigencia de transparencia en los procesos algorítmicos, la obligatoriedad de proporcionar explicaciones comprensibles sobre el funcionamiento de los sistemas automatizados y la implementación de mecanismos de supervisión humana.
[2] Reglamento (UE) 2019/881 del Parlamento Europeo y del Consejo, de 17 de abril de 2019, relativo a ENISA (Agencia de la Unión Europea para la Ciberseguridad) y a la certificación de la ciberseguridad de las tecnologías de la información y la comunicación y por el que se deroga el Reglamento (UE) n.º 526/2013 («Reglamento sobre la Ciberseguridad». DO L 151 de 7.6.2019, 15).
[3] Definición de “redes neuronales”. Disponible en: https://www.analytics10.com/blog/cual-es-la-diferencia-entre-inteligencia-artificial-ai-y-machine-learning-ml/
[4] En otros términos, “Una red neuronal es un sistema informático diseñado para trabajar clasificando la información de la misma manera que un cerebro humano (…)”, Analitics10. Definición de “redes neuronales”. Disponible en: https://www.analytics10.com/blog/cual-es-la-diferencia-entre-inteligencia-artificial-ai-y-machine-learning-ml/
[5] Véase el Informe Parlamento Europeo, disponible en: http://www. europarl.europa.eu/doceo/document/A-8-2017-0005_ES.html .
[6] Comisión Europea. “Libro Blanco sobre la Inteligencia Artificial (White Paper on Artificial Intelligence–A European approach to excellence and trust)”, 2020. Disponible en: https://ec.europa.eu/info/sites/info/files/ commission-white-paper-artificial-intelligence-feb2020_es.pdf.: establece los ejes fundamentales para el desarrollo de su política en materia tecnológica y de datos. Parlamento Europeo. “Recomendaciones destinadas a la Comisión sobre normas de Derecho civil sobre robótica”, (2017). Disponible en: http://www .europarl.europa.eu/doceo/document/A-8-2017-0005_ES.html). Unión Europea “Régimen de responsabilidad civil de la inteligencia artificial 2020/2014”, (2020), iniciativa en desarrollo que propone la regulación de áreas como los carros autómatas, las armas de destrucción masiva basadas en inteligencia artificial o el reconocimiento facial. Disponible en: https://oeil.secure.europarl.europa.eu/oeil/popups/ficheprocedure.do?lang=&reference=2020/2014(INL ).
[7] Responsabilidad de las personas jurídicas sobre cohechos domésticos, soborno transnacional y otros delitos Ley núm. 9699. Publicado en el Alcance N. 130 a la Gaceta núm. 108, del 11 de junio del 2019.
[8] Sala Tercera de la Corte Suprema de Justicia, Costa Rica. Resolución núm. 565-F-94, del 12 de diciembre de 1994.