Aspectos laborales del Reglamento (UE) 2024/1689 de 23 de junio de 2024 sobre inteligencia artificial*

Labour aspects of Regulation (EU) 2024/1689 of 23 June 2024 on artificial intelligence

Francisco Pérez Amorós

Catedrático de Derecho del Trabajo y de la Seguridad Social de la Universitat Autónoma de Barcelona (jubilado)

Vocal Junta Directiva de la Asociación Iberoamericana de Derecho del Trabajo y de la Seguridad Social “Guillermo Cabanellas”

perez_amoros@hotmail.com 0000-0003-0803-9578

e-Revista Internacional de la Protección Social 2025

Vol. X Nº 1 pp. 11-37

ISSN 2445-3269 https://doi.org/10.12795/e-RIPS.2025.i01.01

Recibido: 21.04.2025 | Aceptado: 19.05.2025

RESUMEN

PALABRAS CLAVE

Este ensayo glosa, desde una óptica laboral, el Reglamento de la Unión Europea sobre la inteligencia artificial (RIA,2024). Y, en especial, comenta la regulación de los sistemas y modelos de IA, prestando especial atención a las obligaciones de los empresarios que los utilizan, y a los derechos individuales y colectivos de los trabajadores afectados.

Unión Europea

Inteligencia artificial

Derecho del trabajo

Sistemas de alto riesgo de IA

Derechos y obligaciones laborales digitales

ABSTRACT

KEYWORDS

This essay examines, from a labor perspective, the European Union Regulation on Artificial Intelligence (RIA, 2024). It specifically discusses the regulation of AI systems and models, paying special attention to the obligations of employers who use them and the individual and collective rights of affected workers.

European Union

Artificial intelligence

Labor law

High-risk AI systems

Digital labor rights and obligations

Human rights

Sumario

I. Introducción

II. CUESTIONES GENERALES SOBRE EL RIA

A. A modo de recordatorio

B. El perfil laboral de los objetivos del RIA y alto nivel de protección

C. Dimensión laboral del ámbito del RIA

D. Alfabetización sobre IA en la empresa: formación y educación

III. LA CONCEPTUACIÓN DE LOS “SISTEMAS DE IA” Y DE LOS MODELOS DE IA

A. Sistema de IA: Concepto y clases. Especial consideración del sistema de IA de alto riesgo

1. Concepto

2. Sujetos laborales: poder empresarial y subordinación digital

a) Autonomía ilimitada ante las decisiones humanas

b) Una nota sobre el concepto de sistema de uso o propósito general

3. Clases de sistemas de IA según su riesgo: el RIA como norma de gestión de riesgos

B. Concepto de modelo de IA, Especial consideración del modelo de IA de uso general con riesgo sistémico

IV. SISTEMAS DE IA DE ALTO RIESGO EX ANEXO III RIA

A. Configuración por ámbitos materiales

B. Ámbitos afectados: contractual, sindical y otros

1. Los sistemas de IA de alto riesgo operativos en la relación laboral contractual individual: sistemas con riesgo altísimo

2. Sistemas IA de alto riesgo operativos en las relaciones colectivas y sindicales

3. Sistemas IA de alto riesgo operativos en otros ámbitos laborales, alguno de doble filo

V. OBLIGACIONES DEL EMPRESARIO Y DERECHOS DE LAS PERSONA QUE TRABAJAN EN U ENTORNO DIGITAL (IA) DE ALTO RIESGO

A. Requisitos con perfil laboral de los sistemas de alto riesgo

B. Obligaciones de los proveedores versus obligaciones de los empresarios

C. De las obligaciones empresariales a los derechos laborales de los trabajadores: deber versus derecho. Especial consideración de los derechos fundamentales y derechos humanos

1. Obligaciones empresariales

2. Derechos de los trabajadores: individuales y colectivos

3. Especial referencia a los derechos fundamentales y un apunte sobre los derechos humanos

Bibliografía

I. Introducción  ^ 

Este ensayo glosa las principales aportaciones de contenido laboral, que el Reglamento (UE) 2024/1689 de 23 de junio de 2024 sobre inteligencia artificial[1] (RIA, en adelante) efectúa sobre los sistemas de IA; no es pues, un comentario sobre la totalidad de dicho texto, ni mucho menos, un estudio sobre el perfil laboral de la IA.

A dicho fin, se comentará el articulado del RIA con una mirada laboral, teniendo en cuenta –con la brevedad propia de caso– normas del acervo comunitario (UE), y otras fuentes concordantes, regionales e internacionales (cits., nota pie página). Así mismo, se tomará en consideración una breve y actual selección de opiniones doctrinales sobre el tema, acotada a 2024 y 2025 (cits. nota pie página y en referencia final).

El orden del comentario, seguirá –en líneas generales– el del propio RIA, aunque, sea un texto mejorable conceptual y estructuralmente, según opiniones autorizadas.

Para cerrar esta introducción, avanzando y contextualizando la exposición, ya se apunta aquí, que el Reglamento de referencia, tiene como última finalidad, cohonestar los intereses economicistas de un mercado interior de la UE en constante avance tecnológico, con el respeto de los derechos fundamentales: es un empeño colmado de interrogantes y retos de presente y futuro, que requiere de la participación de empresarios y trabajadores implicados para superarlos, según se desprende del RIA.

II. CUESTIONES GENERALES SOBRE EL RIA  ^ 

A. A modo de recordatorio  ^ 

El RIA, tras un largo período de negociación y tramitación (2021-2024) que se da por comentado[2], se publicó en el Diario Oficial de la Unión Europea el 12.7.2024 y entró en vigor el 1 de agosto de 2024, y, su aplicación, se ha escalonado por temas, desde el 2 de febrero de 2025 hasta el 2 de agosto de 2027 (ex art. 113 RIA y Consideración 179)[3]. Así pues, al momento de actualizar estas páginas, ya se aplican desde el recién pasado 2 febrero 2025 las “disposiciones generales” y las referencias a las “Prácticas e IA prohibidas”.

Es un texto extenso, farragoso y algo indeterminado en ciertos casos: contiene 180 Considerandos, 113 artículos y XIII Anexos (144 págs. DOUE cit) [4]. A recordar, que los Considerandos del Reglamento, aun careciendo de valor vinculante, tienen –a modo y manera de una Exposición de Motivos– un reconocido potencial interpretativo en sentido auténtico (STJUE de 22 de enero de 2022, asunto C-165/20, y, STJUE 22 de diciembre de 2022, asunto C-61/21).

El Reglamento, para lograr sus objetivos, crea un marco uniforme para la puesta en servicio y la utilización de “sistemas de IA” y “modelos de IA” en la UE, (arts. 1.1 y 1.2, y, Consideración 63), a cuyo fin, armoniza los actos legislativos de la UE dictados en la materia[5].

EL RIA es un acto legislativo de la UE[6], que tiene como objetos de regulación los sistemas de IA y los modelos de IA, y, que, debido a su condición de derecho derivado reglamentario, tiene alcance general y es obligatorio en todos sus elementos y directamente aplicable a todas las personas, y, estados miembros e instituciones de la UE, sin necesidad de transposición (arts. 1, 2 y 3 RIA; ex art. 16, 144 y 288 TFUE). El Reglamento de referencia, debe “aplicarse en todos los sectores” sin perjuicio de la legislación vigente de la Unión, “en particular” (sic) en materias de “...empleo, protección de los trabajadores”, de las que el Reglamento “es complementario” (Considerando 9 RIA)[7].

El texto comentado, es la primera – y, posiblemente la única– norma supraestatal con tal jerarquía y con proyección internacional que ordena la utilización de la IA. Ninguno de los textos existentes sobre la materia, con el que pudiera guardar algún parecido, reúne las características –ni jurídicas ni materiales– del Reglamento en cuestión.

Para el estudio del RIA, y tomando siempre como referencias las aportaciones de Naciones Unidas[8], se deben atender ciertas fuentes del acervo comunitario (UE) y de otras instituciones[9] y regiones, y, se debe tener en cuenta, que algunos estados europeos o de otros continentes, que han aprobado o aprobarán normas sobre la cuestión, deben tener en cuenta Reglamento de referencia, en mayor o menor grado, según el caso[10].

Por razones obvias, para comentar el RIA, se requiere tener presentes: los Tratados de la UE (en los que se debe incluir la Carta de los Derechos Fundamentales de la UE, que merecerá especial atención); otros Reglamentos UE[11] y ciertas las Directivas UE[12]; las Declaraciones y Resoluciones de la propia UE; y, se debe recordar alguno de los tratados internacionales suscritos por la UE (acción exterior de la UE), que inciden en una materia como la comentada, cuya “extra territorialidad” es manifiesta.

El RIA, no es una fuente laboral en sentido estricto, aunque, una de sus principales características sea su vasto contenido sociolaboral tal y como –sintomáticamente– se pone de manifiesto desde el principio del texto (arts. 1 y 2 RIA, y Considerando 9 RIA) y forma reiterada: no podría ser de otra manera, si se conviene que el ámbito laboral es uno de los hábitats por excelencia de los sistemas de IA[13], y, precisamente, es uno de alto riesgo acreditado[14].

B. El perfil laboral de los objetivos del RIA y alto nivel de protección  ^ 

Según el propio texto reglamentario, sus objetivos inmediatos son, mejorar el funcionamiento del mercado interior y promover la adopción de una inteligencia artificial (IA) en apoyo de la innovación, y garantizar al mismo tiempo los derechos fundamentales (art. 1 RIA), siendo pues sus fines mediatos, cohonestar intereses económicos (mercado interior y libre circulación de servicios) y derechos laborales en la UE Son pues, propósitos multidimensionales o polifacéticos, que no siempre son fáciles de alcanzar plenamente, tal y como se ha adelantado.

El RIA, tras reconocer –desde buen principio y de forma reiterada–, que los sistemas de IA pueden provocar “efectos perjudiciales” (art. 1 RIA), previene que la IA debe estar centrada en el ser humano y ser fiable, a cuyo fin, persigue el objetivo de lograr la protección de la salud, la seguridad y de los derechos fundamentales consagrados en la Carta de los Derechos Fundamentales de la Unión Europea[15], incluidos la democracia, el Estado de Derecho y la protección del medio ambiente (art. 1.1 RIA); y, a la vista que la peligrosidad de los sistemas de IA potencialmente es alta, el RIA, postula que la protección de las personas afectadas en general –incluidos los trabajadores– alcance un elevado nivel (art. 1 RIA), que todavía es mayor, si se anticipa y convienen que los referidos derechos fundamentales, se pueden asemejar o asimilar a los derechos humanos, hipótesis que será objeto de posterior atención al tratar de los derechos de los trabajadores afectados por sistemas de IA (infra, V.C.3).

Advertida la relevancia de dichos objetivos y subrayado el nivel protección perseguido, ahora se añade, que tales objetivos tienen un marcado perfil laboral, tal y como se deduce del hecho, que los temas de salud y seguridad precitados están estrechamente relacionados –tanto histórica como actualmente– con el ordenamiento laboral, y, se desprende del hecho, que, entre los mencionados derechos fundamentales ex Carta de los Derechos Fundamentales de la UE, muchos operan en favor de las personas que trabajan, individual y colectivamente consideradas. Abunda en dicha laboralidad, el hecho, que entre los objetivos del RIA también se incluya “prestar apoyo a la innovación”, en favor, especialmente, de “las pymes, incluidas las empresas emergentes” (art. 1.1 in fine y 1.2g RIA).

El RIA, al tratar de sus objetivos, todavía aporta más datos que ponen de manifiesto su laboralidad, tal y como se desprende de los datos, que, o modo de ejemplo, aquí simplemente se anotan, y, posteriormente se explicitarán. La protección –ni más ni menos– de “la democracia, el Estado de Derecho”, como un objetivo más del RIA, (art. 1.1 RIA), además, de elevar el tomo político del debate sobre la IA, permite plantear que la democracia empresarial (participación y negociación colectiva) deber tenerse presente para ordenar el funcionamiento de los sistemas de IA en la empresa. Y, en estos tiempos, en los que la IA opera habitualmente en el mundo del trabajo, y en los que, a la vez, el trabajo estrecha sus relaciones con el medio ambiente[16], resulta lógico y necesario, que la protección del medio ambiente, se incluya, de forma expresa como uno más de los objetivos el RIA (art. 1.1 RIA): circunstancia ambiental, que, aunque se menciona aquí, simplemente a mayor abundamiento, quiere dejar constancia, que hoy día, al trabajo, para ser trabajo decente (OIT), también se le exige, que no deje huella ambiental, ni en la empresa ni en el entorno de del misma; pues, aceptado que la IA puede generar brechas ambientales, la diligencia debida por el empresario en materia de sostenibilidad[17], también le reclama que los sistemas de IA que utilice sean respetuosos con el medio ambiente[18], para asegurar así el buen fin de la doble transición (ambiental y digital) que está en curso.

C. Dimensión laboral del ámbito del RIA  ^ 

El Reglamento, fija su ámbito de proyección tomando en consideración cuatro referentes– material, subjetivo, territorial y aplicativo–, que, por razones de exposición, se pergeñan aquí y se comentarán posteriormente.

El ámbito material objeto de regulación por el RIA, es la introducción en el mercado -“la puesta en servicio y la utilización”- de los denominados “sistemas de IA” y “modelos de IA” en ciertos entornos, como, por ejemplo, en las empresas (arts. 1.1 y 1.2 RIA). Se trata pues, de una operación, que, como se ha advertido, combina prácticas mercantiles y laborales con objetivos sociales, es pues un ejemplo –ejemplar– de las políticas que caracterizan la Unión Europea.

Desde un punto de vista subjetivo, el Reglamento afecta a muchas personas porque muchas son las que operan con los sistemas de IA, tales como los proveedores, fabricantes, representantes autorizados, importadores o distribuidores de los mismos (arts. 1, 2 y 3 RIA), y, en concreto, interesa señalar, que entre dichos operadores se incluyen de forma expresa y repetida: el empresario, como “responsable del despliegue” de un sistema que se utiliza “bajo su propia autoridad” (por todos, arts. 2.1b y 3.4 RIA); y, los trabajadores, como personas “afectadas” por tales sistemas (por todos, arts. 2,1g, 2.11, 3.56 y 4 RIA).

Desde una visión territorial, el RIA, es un texto de origen europeo, que proyecta parte de sus efectos prácticos a nivel extraterritorial, incluso internacional (art. 2 RIA). La IA, a pesar de no tener fronteras geográficas en un mundo laboral globalizado, levanta barreras socioeconómicas entre personas y colectivos de un mismo o distintos territorios, y, también las levanta entre regiones (Norte y Sur digitales); y, el RIA, de acuerdo con sus objetivos y su proyección, quiere corregir, tales brechas digitales territoriales, evitando –por ejemplo– que en centros de trabajo ubicados en países del Sur Digital, se fabriquen –en condiciones laborales deficitarias– productos indispensables para que las empresas del Norte Digital utilicen sistemas de IA en beneficio propio, ya sea causando o no ciertos perjuicios sociales o ambientales en el Norte y/o en el Sur[19].

Y, por último, el propio RIA –para completar su ámbito de aplicación dando pruebas de su acusada laboralidad– establece, que sus previsiones, no impiden, que las disposiciones derivadas de la Unión Europeas o los estados miembros –incluidas en los convenio colectivos–, establezcan “disposiciones más favorables a los trabajadores en lo que atañe a la protección de sus derechos respecto al uso de sistemas de IA” (art. 2.11, y Considerandos 9 y 20).

Todas estas consideraciones sobre el ámbito y los objetivos del RIA, como “cuestiones –disposiciones– generales” que son, tienen un plus de relevancia porque precisan las previsiones de dicho Reglamento, que, en razón de su naturaleza y debido a la complejidad de su elaboración, se presentan de forma algo genérica o indeterminada en no pocas ocasiones.

D. Alfabetización sobre IA en la empresa: formación y educación  ^ 

Sin valorar lo acertado o desacertado que pueda ser, ubicar la “alfabetización” entre las disposiciones generales del RIA se aprovecha la circunstancia para resaltar, que tal “formación” de los empresarios (“responsables del despliegue”) y del “personal” trabajador en materia de IA, es un dato más que pone de relieve la laboralidad de la misma (arts. 3.56 y 4 RIA[20] y Considerando 56 RIA) por la relación que tiene con el derecho a la promoción y formación profesional de las personas que trabajan

Tal formación, no solo es indispensable por razones de pura prevención de los riesgos que conlleva tal tecnología, y, por razones de productividad, competitividad y empleabilidad, que ya son razones de importancia, sino, que –junto con la información– es un deber-derecho de promoción y formación, que en tiempos digitales adquiere un sentido especial, entre otras razones porque actúa a modo y manera de una condición necesaria para el disfrute de varios derechos laborales (infra V).

III. LA CONCEPTUACIÓN DE LOS “SISTEMAS DE IA” Y DE LOS MODELOS DE IA  ^ 

Partiendo de la idea que “sistemas de IA” y modelos de IA”, son los objetos de regulación del RIA, en este apartado, se comentará el concepto de uno y de otro desde una óptica laboral, y, en los siguientes apartados, se tratará del régimen de gobernanza de ambos y de la protección que ofrecen a las personas afectadas.

El Reglamento, aun reconociendo la dificultad de conceptuar la IA debido a la imposibilidad de poder identificarla y abarcarla plenamente[21], mantiene la necesidad de hacerlo[22], a cuyo fin, abre el foco, y se refiriere a los “sistemas de IA” y a los “modelos de IA”, y, disponiendo un régimen de gobernanza y un sistema de protección integrales, aunque con diferencias en cada uno de los supuestos referidos, con el objetivo de cubrir todas las manifestaciones posibles de una realidad tan difusa, variable y evolutiva como lo es la IA, y, respetando asimismo la seguridad jurídica especialmente debida en una operación de tanto calado –tecnológico, económico, social y jurídico[23]- como lo es la puesta en práctica de IA en las empresa.

Tal esfuerzo del legislador de la UE es manifiesto, aunque no siempre logra distinguir con total nitidez entre sistema de IA y modelo de IA, dando lugar así a un cierto solapamiento entre ambos, que suscita dudas y podría, menoscabar la referida seguridad jurídica, hándicaps que la propia Comisión (UE) asume e intenta superar[24].

Pese a todas las dificultades conceptuales, se puede sostener, que el sistema de IA –especialmente el de uso general– es la bóveda de clave del RIA, dicho sea, salvo mejor opinión.

A. Sistema de IA: Concepto y clases. Especial consideración del sistema de IA de alto riesgo  ^ 

1. Concepto  ^ 

Según el RIA[25], el denominado “sistema de IA” se puede definir, tomando en consideración los siguientes referentes (art. 3.1, Considerandos 12 y 97 RIA): 1º) es un sistema de tecnologías digitales (IA); 2º) pretende alcanzar unos objetivos finales –“explícitos o implícitos”- prefijados por quien corresponda; 3º) su funcionamiento tiene “autonomía”, aunque “limitada”, pues requiere el concurso humano (supervisión humana) en momentos claves; y 4º) su puesta en práctica tiene tres fases: en la primera, se determinan y se proporcionan al sistema una multiplicidad de “datos de entrada” –unos por parte de quien corresponda y otros por parte del propio sistema resultado de su aprendizaje autónomo (incluidos, los resultantes de autoaprendizaje, los de entrenamiento, de prueba y de validación, ex. art. 3 RIA); en la segunda, el sistema somete a la totalidad de datos a un tratamiento de datos programado por medio de algoritmos (con capacidad de aprendizaje propio), ideados bajo la responsabilidad de quien corresponda; y en la tercera fase, el sistema genera –infiere– los “datos de salida” de distinto grado (observaciones, opiniones, y decisiones) que utilizará quien corresponda, para decidir sobre una pluralidad de cuestiones, con miras a alcanzar los objetivos perseguidos, en el entorno determinado.

En atención al objeto de comentario de estas páginas, dos de los referentes básicos del concepto de sistema de IA referido, merecen un tratamiento particular: sus sujetos y su autonomía.

2. Sujetos laborales: poder empresarial y subordinación digital  ^ 

Cierto es, que dicha definición general del sistema de IA, no menciona de forma expresa a los empresarios y trabajadores, pero, una interpretación sistemática de la misma, permite incluirlos entre los actores u operadores que intervienen en el funcionamiento de tales sistemas de IA, y/o en la supervisión humana a la que se deben someter los mismos.

Con la utilización de sistemas de IA en la empresa, el protagonismo del empresario se renueva y se refuerza (art. 3.18 RIA). Se renueva porque a sus facultades más tradicionales se suman otras, como las siguientes: implementa (“desplegador”) el sistema IA y lo utiliza (“operador” (art. 3.1 y 3.8 RIA); prefija los objetivos empresariales que pretende alcanzar con el sistema de IA; y, controla directa o indirectamente los referidos datos de entrada de los que se alimenta el sistema y los datos de salida que le ofrece el mismo para ayudarle a adoptar “sus decisiones” en su empresa; y, se renueva también, porque el empresario –junto con los proveedores– es uno de los actores más activos de la cadena de valor de la IA, y, como último eslabón de la misma que es, sus actuaciones laborales están, más o menos, impregnadas o condicionadas por las mantenidas por de las personas que el anteceden en cadena, especialmente por las actuaciones de quien le provee del sistema de IA que utiliza (infra V, art 25 RIA). Es más, el poder empresarial no solo se renueva por dichas razones técnicas coyunturales, sino que se refuerza estructuralmente, pues los sistemas de IA dan lugar a una subordinación digital (IA) de los trabajadores, que –real, operativa y prácticamente–, es más efectiva que la subordinación clásica o tradicional[26]. Tal es el nuevo protagonismo del empresario, que el RIA, al considerarlo “responsable del despliegue” de un sistema que se utiliza “bajo su propia autoridad” (por todos, arts. 2.1b y 3.4 RIA), previene que los repetidos empresarios “desempeñan un papel fundamental a la hora de garantizar la protección de los derechos fundamentales” (Considerando 93 RIA) de las personas afectadas en el ámbito empresarial, y, considera, que el empresario “se encuentra(n) en una posición óptima para comprender el uso concreto que se le dará al sistema de IA de alto riesgo…” (Considerando 93 RIA),

Y, por otra parte, el rol y el estatus de quienes laboran en un entorno empresarial digitalizado, también se recomponen así: al ser “personas afectadas” (arts. 1 y 2 RIA), tanto por los riesgos generales que conllevan los sistemas de IA, como por los efectos de la referida subordinación digital en particular, y siendo unas personas más vulnerables que otras[27], el RIA reestablece el equilibrio disponiendo que se deben beneficiar de “un elevado nivel de protección” (arts. 1 y 2 RIA), mediante unos derechos que se infieren de tales obligaciones y se recogen en el RIA, según se dirá (infra V).

Otorgar tal protagonismo de los empresarios y trabajadores (art. 26 RIA) en el funcionamiento de los sistemas de IA, otorga laboralidad del RIA, hecho que se certificará, definitivamente, al tratar de las obligaciones laborales de unos y de los derechos laborales de otros (infra V).

a) Autonomía ilimitada ante las decisiones humanas  ^ 

Según se ha avanzado, la autonomía del sistema de IA para tratar unos datos e inferir otros, es uno de sus referentes básicos: este es el rostro artificial del sistema de referencia.

Importa subrayar, que se trata de una autonomía del sistema limitada por los propios empresarios y trabajadores–, hecho cierto, que abona la laboralidad de dichos sistemas de manera convincente. Según el RIA, tal autonomía está limitada, tanto por la supervisión humana que los empresarios ejercen sobre el sistema de IA cuando lo despliegan y utilizan, como por la supervisión que realizan los trabajadores cuando participan y negocian colectivamente con el empresario ciertos aspectos del funcionamiento del sistema en cuestión. Y, si se advierte, que las previsiones artificiales ceden ante las decisiones humanas, y se conviene, que la independencia del sistema de IA ante a la actuación humana solo es posible en ciertas ocasiones (Considerando 12 RIA), se puede concluir, que tales limitaciones de la autonomía artificial debidas al protagonismo de los sujetos laborales, laboralizan los sistemas de IA. Es en este sentido, en el que el RIA, establece un principio estableciendo, que la IA debe operar “centrada en el ser humano” (art. 1.1. RIA)[28].

b) Una nota sobre el concepto de sistema de uso o propósito general  ^ 

Y para concluir este punto, dedicado a cuestiones conceptuales, se plantea, que junto al ya comentado concepto de “sistema de IA” (ex art. 3.1 RIA), se contempla el concepto del “sistema de IA de uso general” formulado en los siguientes términos: es “un sistema de IA que se basa en un modelo de IA de propósito general y que tiene la capacidad de servir para una variedad de propósitos, tanto para uso directo como para integración en otros sistemas de IA” (art. 3.66 RIA), en el que –como se advierte– se entrecruzan los sistemas con modelos de IA, pudiendo dar lugar así, a posibles confusiones conceptuales, problemática, que ya se ha anticipado, y, que será objeto de comentario al tratar de los modelos de IA en concreto (infra V.B y V.C).

La creciente utilización de sistemas de IA de uso general, explica que el RIA les dedique una particular atención, que todavía es mayor en el caso de sistemas de IA de alto riesgo.

3. Clases de sistemas de IA según su riesgo: el RIA como norma de gestión de riesgos  ^ 

Los sistemas de IA, en razón del riesgo que comportan, se clasifican así: prohibidos (“prácticas de IA prohibidas”), sistemas de “alto riesgo”, sistemas de riesgo limitado, y, sistemas de riesgo mínimo[29].

Tal pirámide de riesgos ya hace suponer que el Reglamento dedicará mayor atención y extensión a los “Sistemas de IA de alto riesgo” (arts. 6 a 49 RIA) que, a los prohibidos (art. 5 RIA), y mucha más, que, a los de menor riesgo[30].

Desde una óptica laboral, se comprueba, que entre las prácticas de IA prohibidas[31], se incluye: la introducción en el mercado, la puesta en servicio o el uso de sistemas de IA para inferir las emociones de una persona física (trabajadores) “en los lugares de trabajo” (art. 5.1f RIA); y, también se prohíbe, la categorización biométrica que clasifique individualmente a las personas físicas (trabajadores) sobre la base de sus datos, para deducir o inferir “su raza, opiniones políticas, afiliación sindical, convicciones religiosas o filosóficas, vida sexual u orientación sexual” (art. 5.1g RIA). Esta retahíla de supuestos laborales que están prohibidos debido a que generan un riesgo inaceptable en razón de materia o derecho lesionado, es ejemplificativa, y por lo demás, evidencia que los derechos lesionados son fundamentales, desde el de privacidad y no discriminación, hasta el de libertad sindical, dicho sea, por ahora, sin mayor precisión.

El RIA, también trata de algunas modalidades particulares de sistemas de IA caracterizadas por una mayor intensidad de sus riesgos, como, por ejemplo, los denominados “determinados sistemas de IA” (arts. 50 RIA y art. 26.11 RIA), y, a los que nos referiremos al tratar de las obligaciones de los empresarios y a los derechos de los trabajadores que prestan sus servicios en entornos digitales (infra V).

Es por todo ello, que el RIA es una norma de gestión de riesgos, o mejor, es una norma de gestión de altos riesgos existentes en entornos empresariales digitalizados (IA). Esta circunstancia, explica, que el Reglamento en cuestión, –que “está a la defensiva” o en “estado de prevención (de riesgos)” permanente– extreme el celo para fijar las obligaciones de los proveedores de IA y de los empresarios que los utilizan.

B. Concepto de modelo de IA, Especial consideración del modelo de IA de uso general con riesgo sistémico

El modelo IA, en sentido teórico, se puede concebir como una aplicación tecnológica más simplificada estructural y/o funcionalmente que el sistema de IA: en esta línea, se considera, que “Aunque los modelos de IA son componentes esenciales de los sistemas de IA, no constituyen por sí mismos sistemas de IA. Los modelos de IA requieren que se les añadan otros componentes, como, por ejemplo, una interfaz de usuario, para convertirse en sistemas de IA” (Considerando 97).

Aunque, en teoría, pueden existir modelos de IA de distinto tipo, el RIA –siempre preocupado por los riesgos de más nivel–, mayormente, se refiere a los “modelos de IA de uso general” (ex art. 1.2e RIA), entre los que incluye los “…modelos de IA de uso general con riesgo sistémico[32]. Y, aunque los distintos modelos de IA se podrían implementar en las empresas individuamente considerados, en la práctica, suelen estar integrados en los sistemas de IA implantados en las mismas, produciéndose así un cierto solapamiento entre modelos y sistemas, que puede generar algunas dudas conceptuales y dificultar la elección de las normas aplicables (art.3.63 RIA).

Según el propio RIA, por modelo de uso general –como los grandes modelos de IA generativa–, se entiende, el “…entrenado con un gran volumen de datos utilizando autosupervisión a gran escala, que presenta un grado considerable de generalidad y es capaz de realizar de manera competente una gran variedad de tareas distintas…” (ex art. 3.63 RIA[33]), y, desde este plano, se enfatiza, que estos modelos no obedecen a una finalidad específica, sino que se caracterizan por su general y amplia capacidad funcional. Y, el riesgo sistémico, se debe a que tiene “capacidades de gran impacto” (ex art. 51 1a y 1b, y 51.2 RIA[34], y Considerando 110 RIA), y, a que es un riesgo “específico”, “considerable”, y de “gran impacto”, puesto que los perjuicios subsiguientes son “negativos, reales o razonablemente previsibles”, en materias tales como “….la salud pública, la seguridad, la seguridad pública, los derechos fundamentales…” (ex art. 3.65 RIA y 3.64 idem), previsiones preocupantes y materias sensibles todas ellas, cuya laboralidad cualificada ya ha sido vastamente constatada en estas páginas.

Ante tales combinaciones –integraciones– entre sistemas y modelos, el RIA, establece “…normas específicas para los modelos de IA de uso general y para los modelos de IA de uso general que entrañan riesgos sistémicos, que deben aplicarse también cuando estos modelos estén integrados en un sistema de IA o formen parte de un sistema de IA” (Considerando 97 RIA), y, considera que, “… los modelos de IA de uso general con riesgo sistémico deben estar siempre sujetos a las obligaciones pertinentes establecidas en el presente Reglamento” que son más rígidas en atención al riesgo que conllevan (Considerando 97 RIA).

IV. SISTEMAS DE IA DE ALTO RIESGO EX ANEXO III RIA  ^ 

El Capítulo III RIA (“sistemas de IA de alto riesgo”)[35], previene, que un sistema de IA, se considerará de alto riesgo, si se ajusta a uno de los dos casos siguientes (art. 6.1 RIA y art. 6.2 RIA).

En el primer caso (art. 6.1 RIA), se consideran de alto riesgo, los sistemas de IA destinados a ser utilizados como componentes de seguridad de los productos referenciados en el Anexo I RIA (v.gr.: máquinas, juguetes, ascensores…etc.), o bien, que el propio sistema de IA sea uno de dichos productos (ex art. 6.1a RIA): estos sistemas tienen un perfil laboral indirecto, que justifica no comentarlos aquí. Y, en el segundo caso, (art. 6.2 RIA), se califican como sistemas de alto riesgo, “los sistemas de IA contemplados en el anexo III” del RIA: se trata de sistemas, cuya alta laboralidad, obliga a dedicarles un espacio propio en estas páginas.

A. Configuración por ámbitos materiales  ^ 

El Anexo III RIA (ex art. 6.2 RIA), califica de sistema de alto riesgo, a los que operen en cualquiera de los 8 ámbitos –por razón de materia–, que enumera y rubrica con amplitud de miras y describe con más o menos detalle[36].

A la vista, que tal calificación se hace por medio de un listado –amplio, pero no cerrado– se pueden generar dudas, que el legislador intenta minimizar desde buen principio (art. 6.3 RIA), utilizando inclusiones y exclusiones, y estableciendo las siguientes previsiones: tales sistemas de IA, “no se considerará(n) de alto riesgo” cuando “no plantee un riesgo importante de causar un perjuicio a la salud, la seguridad o los derechos fundamentales de las personas físicas, ni cuando “… no influya (influir) sustancialmente en el resultado de la toma de decisiones” (art. 6.3 RIA, primer párrafo); y, se establece que los sistemas de IA a que se refiere el anexo III “…siempre se considerarán de alto riesgo cuando el sistema de IA efectúe la elaboración de perfiles de personas físicas” (art. 6.3, último párrafo). Algunas de las dudas, que el legislador quiso superar con dichas reglas, siguen hoy día dando pie a discutir, si un sistema IA en concreto (de los muchos que surgen periódicamente), queda o no sometido a dicho Reglamento.

La laboralidad de los sistemas de IA de alto riesgo - tanto como la del RIA– es manifiesta, tanto cuantitativa como cualitativamente, pues: 7 de los 8 ámbitos enumerados se pueden calificar de laborales (algunos más expresamente que otros); y, entre todos, afectan a todas las relaciones laborales, es decir, a la relación laboral contractual, a las relaciones laborales colectivas o sindicales, y, a otras relaciones de trabajo.

B. Ámbitos afectados: contractual, sindical y otros  ^ 

1. Los sistemas de IA de alto riesgo operativos en la relación laboral contractual individual: sistemas con riesgo altísimo  ^ 

El RIA, previene, que los sistemas de referencia operan, antes de formalizarse el contrato de trabajo, y, en los momentos claves de las tres fases del ciclo vital contractual (Considerando 57 y Anexo III RIA), tal y como se detalla.

EL RIA, partiendo de su Considerando 57[37], contempla, que los repetidos sistemas de IA, ya actúan en la fase precontractual, afectando al ámbito del “Empleo” (Anexo III.4 IA), y concreta tan amplio término, apuntando que se utilizan, tanto, para seleccionar personal en general (Anexo III.4 IA), como para seleccionar al personal laboral con “biometría” en particular (Anexo III.1 RIA). En el primer caso, se trata de “sistemas de IA”, que se utilizan en múltiples ocasiones, “...para la selección de personas físicas”, para … publicar anuncios de empleo específicos…”, y, para “…analizar y filtrar las solicitudes de empleo y evaluar a los candidatos” (Anexo III.4 RIA)[38]; y, en el segundo caso, se trata de sistemas de IA, denominados “sistemas de identificación biométrica remota”, que están permitidos, principalmente, para seleccionar personal (Anexo III.1 RIA; y, arts. 3.38 y 3.39 RIA) [39].

Los sistemas de IA de alto riesgo, inciden en “la gestión de los trabajadores” (Anexo III.4 RIA) operando en los tres momentos cruciales del desarrollo del contrato de trabajo:

1º) gestionan “la contratación” inicial, a resultas de los sistemas de IA utilizados para hacer la previa selección del personal (ex Anexo III.4a RIA); 2º) gestionan, durante el desarrollo de la relación contractual, la “toma(r) de decisiones que afecten a las condiciones de las relaciones de índole laboral” en general, y, hacen lo propio con “la promoción” de los trabajadores, con “la asignación de tareas a partir de comportamientos individuales o rasgos o características personales” (modificación de condiciones), y, “la supervisión y evaluación del rendimiento y el comportamiento de las personas” trabajadoras (Anexo III.4b RIA); y, 3º) tales sistemas IA, pueden condicionar o decidir sobre la “rescisión de relaciones contractuales de índole laboral” (Anexo III.4b RIA), ya sea mediante extinciones o despidos tanto individuales como colectivos. El listado de ámbitos y derechos es generoso, tanto por utilizar expresiones omnicomprensivas (“condiciones de las relaciones de índole laboral”), como por ser ejemplificativo.

Los sistemas de IA también afectan la “educación y formación profesional” de los trabajadores, pues pueden utilizarse para determinar, por ejemplo, “el acceso o la admisión …” de los trabajadores a los cursos, y, la “evaluación de los resultados…” de tales estudios (Anexo III. 3RIA). Esta previsión alcanza mayor valor, si se concuerda con la comentada obligación del empresario de garantizar, que su personal tenga un nivel suficiente de alfabetización en materia de IA (art. 4 RIA).

La posibilidad que los sistemas de IA repercutan en las relaciones laborales individuales es pues manifiestamente alta: escasísimas son las vicisitudes laborales que tiene vida propia sin injerencias de la IA; hecho que todavía merece mayor atención desde el punto de vista laboral, si se conviene, que es –precisamente– en tal ámbito individual, en el que el poder del empresario se manifiesta con mayor intensidad, y, en el que mayor es la consiguiente subordinación laboral de la persona que trabaja. Realmente, se trata de sistemas con un riesgo altísimo.

2. Sistemas IA de alto riesgo operativos en las relaciones colectivas y sindicales  ^ 

Un primera lectura del literal del RIA, podría dar a entender que los sistemas de IA no inciden –expresamente– en las relaciones laborales colectivas y sindicales, tanto como en las relaciones individuales, no obstante, dichos sistemas tienen su perfil sindical[40]: así es, porque, participan de los objetivos generales del RIA, entre los que se incluyen algunos con contenido sindical (art. 1 RIA)[41]; porque así se puede inferir de los tratados de la UE (incluida la ya citada Carta Derechos Fundamentales de la UE citada en el RIA) y de otras normas europeas conexas y concordantes con el RIA, que auspician la libertad sindical; y, porque el propio RIA así lo dispone en aspectos concretos, cuando, por ejemplo, se refiere o remite a la negociación colectiva in genere, tal y como se comentará (infra, V. C).

A recordar aquí, que entre las prácticas de IA prohibidas, se incluyen expresamente, la categorización que clasifique individualmente a las personas físicas (trabajadores) sobre la base de sus datos biométricos para deducir o inferir su “…afiliación sindical…” (art. 5.1f RIA), cuestión, que permite constatar vía ejemplificativa la mencionada relación de los sistemas de IA con la libertad sindical entendida como un derecho de derechos, y a su vez permite comprobar la protección de los derechos fundamentales laborales en entornos laborales digitalizados mediante sistema de IA (por todos, art. 3 de la Carta de los Derechos Fundamentales de la UE).

3. Sistemas IA de alto riesgo operativos en otros ámbitos laborales, alguno de doble filo  ^ 

Según el RIA, los sistemas de IA de alto riesgo, también operan en el ámbito de la rubricada “Migración, asilo y gestión del control fronterizo, en la medida en que su uso esté permitido por el Derecho de la Unión o nacional aplicable” (Anexo III.7 RIA): este es un supuesto con concomitancias laborales, pues tales sistemas pueden incidir en las decisiones de las autoridades competentes sobre el asilo, visado o permiso de residencia y trabajo de personas, que, generalmente, han perdido su trabajo y/o lo demandan (Anexo III.8b RIA). El estilo de la rúbrica transcrita –extensa y zigzagueante–, y su contenido, dejan entrever la posibilidad indeseada ,que la IA pudiera utilizarse en algún caso para practicar controles indebidos de las migraciones más que para ordenarlas -¿es la IA una herramienta de doble filo para las personas migrantes que demandan trabajo?-: recuérdese aquí, que la negociación y aprobación del RIA (2024), coincidió en el tiempo con las recientes reformas sobre migración producidas en la UE (2024)[42] –precisamente– en tiempos de crisis migratorias.

Los sistemas de IA, también se utilizan en otros ámbitos laborales, así, por ejemplo, pueden incidir en materia de protección social, con ocasión, por ejemplo, de reconocer o denegar el “Acceso a… servicios y prestaciones públicos esenciales y disfrute de estos servicios y prestaciones” (Anexo III. 5 RIA).

Igualmente, merece cita propia, la referencia del Reglamento sobre la utilización de los sistemas de IA por parte de la autoridad judicial. Las funciones jurisdiccionales se pueden considerar de “alto riesgo” (arts. 6.2 y 6.3 y Anexo III.6 y III.8 RIA), siendo así, que la IA solo se puede utilizar para apoyar sus decisiones, sin menoscabar la independencia judicial (Considerando 61); planteamiento este, que coincide con la doctrina jurisprudencial del Tribunal Europeo de Derechos Humanos, que postula que la tecnología debe respeto a la potestad jurisdiccional de juzgar y hacer ejecutar lo juzgado, a cuyo servicio ha de adaptarse necesariamente.

Queda comprobado que el RIA y sus sistemas de IA, actúan durante todas las fases de los sistemas de IA en general, desde que se fabrican hasta que se despliegan en las empresas; y, queda comprobado, que, en concreto, afectan a todas las personas que participan en tal ciclo, incluidos, los empresarios que los utilizan en sus empresas y los trabajadores a quienes afectan. Y, queda a la vista, que el RIA y los sistemas de IA, inciden en todas las fases del ciclo vital del contrato de trabajo, desde antes de formalizarse, hasta después de su extinción, al igual que afectan aspectos de las relaciones laborales colectivas. Por todo ello, se cabe cerrar este apartado IV, augurando o presumiendo, que el RIA configura con cierta concreción las obligaciones del empresario implicado y los derechos de los trabajadores afectados.

V. OBLIGACIONES DEL EMPRESARIO Y DERECHOS DE LAS PERSONA QUE TRABAJAN EN U ENTORNO DIGITAL (IA) DE ALTO RIESGO  ^ 

Las obligaciones de los responsables del despliegue de sistema de IA de alto riesgo (los empresarios) contempladas en el RIA, y los subsiguientes derechos de los trabajadores afectados, son las categorías que mejor muestran y particularizan los aspectos laborales del RIA anunciados desde el principio de estas páginas, y, paulatinamente identificados en términos generales hasta aquí[43].

Para examinar los aspectos laborales de tales obligaciones y derechos (infra V.C), conviene, previamente, mostrar la dimensión laboral que tienen los requisitos exigidos a los sistemas de IA (infra V.A) y, las obligaciones de las personas que proveen al empresario de tales sistemas (infra V. B).

A. Requisitos con perfil laboral de los sistemas de alto riesgo  ^ 

Los sistemas de IA de alto riesgo deben cumplir los siete requisitos siguientes (art. 8.1 RIA, con remisión a arts. 9 a 15 idem [44]).

Los dos primeros requisitos (arts. 9 y 10 RIA), son de tono general, y exigen que los sistemas de IA de alto riesgo: 1) deben disponer de un “sistema de gestión de riesgos” (“salud, la seguridad o los derechos fundamentales”, art. 9 RIA), que permita determinarlos y evaluarlos durante “todo el ciclo de vida” de los mismos, y, que haga posible adoptar medidas adecuadas y específicas para hacerles frente, todo, de acuerdo con la “información y formación” de la que disponen los empresarios como “responsables del despliegue” del sistema que son (arts. 9 y 13 RIA); y, 2) deben desarrollarse a partir de una “gobernanza y gestión de datos adecuadas”, basadas en un tratamiento conjunto de “datos” de entrenamiento, validación y prueba, que cumplan los criterios de “calidad”, que sean “pertinentes” y “suficientemente representativos y, en la mayor medida posible, carecerán de errores y sesgos” (art. 10 RIA).

Y los cinco requisitos restantes, más operativos, que deben cumplir los sistemas de IA de alto riesgo (arts. 11 a 15 RIA) son: 1) deben disponer de una “documentación técnica”, que se elaborará “antes de su introducción en el mercado o puesta en servicio”, y “se mantendrá actualizada” (art.11 RIA) durante todo su ciclo de vida; 2) permitirán “registrar automáticamente” los acontecimientos («archivos de registro») a lo largo de “todo el ciclo de vida del sistema”, facilitando así conocer la “trazabilidad” de los sistemas IA de alto riesgo (art. 12 RIA); 3) se diseñarán y desarrollarán con la “información” debida, con un “nivel de transparencia suficiente”, “pertinente, accesible y comprensible”, y, con “precisión solidez y ciberseguridad) para que los “responsables del despliegue” (art. 3.4 RIA), interpreten y usen correctamente sus resultados de salida (art. 13. RIA y sus remisiones a los arts. 16 a 27 idem); 4) los sistemas de IA de alto riesgo, se “diseñarán y aplicarán” (art. 14 RIA), “vigilados de manera efectiva por personas físicas durante el período que estén en uso” (art. 14 RIA), a cuyo fin, se establecerán medidas pertinentes, y, se facilitará, la “debida información” a quienes vigilen (art.14.4 RIA), todo ello, teniendo presente, que “el objetivo de la supervisión humana será prevenir o reducir al mínimo los riesgos…” que pueden surgir cuando se utiliza un sistema de IA de alto riesgo (art.14.2 RIA); y, 5) los sistemas de IA de alto riesgo, se diseñarán y desarrollarán de modo que alcancen un “nivel adecuado de precisión, solidez y ciberseguridad” y funcionen de manera uniforme en esos sentidos “durante todo su ciclo de vida” (art. 15 RIA y art. 10 RIA).

Si se tiene presente, que los empresarios y trabajadores están implicados en el manejo de los sistemas de IA caracterizados por reunir tales requisitos, se puede convenir, que tienen una dimensión laboral más que evidente, y, por lógica, se puede anticipar, que los sistemas de IA que los deben cumplir, también tienen tal rasgo y perfil.

B Obligaciones de los proveedores versus obligaciones de los empresarios  ^ 

Los proveedores de sistemas de IA de alto riesgo (arts. 3.3 a 3.8 RIA, 16 a 22, 25, 47 a 55 y 77 RIA), deben “velar (velarán) por que sus sistemas cumplan los requisitos…“ precitados (art. 16a RIA remitiéndose arts. 8 a 15 idem), y, asumen las siguientes obligaciones: contarán con un “sistema de gestión de la calidad” (art. 17 RIA); conservarán la “documentación” (art. 18 RIA); conservarán los “archivos de registrar” (art. 19 RIA, y, art49 idem); asegurarán que los sistemas de IA de alto riesgo sean sometidos al “procedimiento pertinente de evaluación”; y, facilitarán “la información” debida, también, a los “responsables del despliegue“ (art. 20 RIA), obligación esta última que se subraya en atención al objeto de comentario en estas páginas.

En ciertos supuestos particulares contemplados en el RIA, las obligaciones de los proveedores son más exigentes. Tal es el caso del proveedor de “determinados sistemas de IA” que conllevan más riesgos, la información que debe transmitir, por ejemplo, al responsable de desplegarlos (empresario) será, mayor (arts. 50.1 y 50.2 RIA). Y, en el supuesto particular de proveedores de “modelos de IA de uso general” (modelos de IA que sustentan sistemas de IA capaces de llevar a cabo una amplia gama de tareas, según supra III.2B), el RIA les atribuye un plus de obligaciones adicionales sobre evaluación, vigilancia, documentación y comunicación, como, por ejemplo, la de informar a otros proveedores “que tengan la intención de integrar el modelo de IA de uso general sus sistema de IA” (arts. 51, 52 y 53 RIA), y, en el caso del proveedor de modelos calificados “uso general con riesgo sistémico” porque sus capacidades de gran impacto generan un mayor riesgo potencial (arts. 55 RIA, según supra III.2B)[45].

Por lo que aquí interesa, se subraya, que la obligación que tienen los proveedores, de facilitar información a los empresarios sobre la incidencia que los sistemas o modelos IA facilitados pudieran tener en materia ambiental y cambio climático, ayuda a perfilar la obligación que tienen dichos empresarios (además de archivar tal información recibida) de informar a los trabajadores o a de sus representantes sobre tales materias (por todos, art. 25 RIA, y su Considerandos 92 y 93), según se expondrá.

C De las obligaciones empresariales a los derechos laborales de los trabajadores: deber versus derecho. Especial consideración de los derechos fundamentales y derechos humanos  ^ 

A modo de premisa general, el artículo 26 RIA –temáticamente monográfico y uno de los más extensos del texto–, ordena las “Obligaciones de los responsables del despliegue de sistemas de IA de alto riesgo” de tal manera, que se pueden colegir los derechos laborales de los trabajadores afectados.

1 Obligaciones empresariales  ^ 

En tal sentido, y en términos generales, los empresarios responsables del despliegue de sistemas de IA de alto riesgo, están obligados, a “adoptar medidas técnicas y organizativas adecuadas para garantizar que utilizan dichos sistemas con arreglo a las instrucciones de uso” (art. 26.1 RIA), que dan cabida a los derechos que protejan a los trabajadores afectados por los repetidos sistemas de IA.

El Reglamento de referencia, profundizando su planteamiento, concreta ciertas obligaciones empresariales en particular, tales, como, por ejemplo, las siguientes. Una de las “disposiciones generales” del RIA, bajo la rúbrica “Alfabetización en materia de IA” (art. 4 RIA, ver supra II.D), dispone, con tono imperativo, que “… los responsables del despliegue de sistemas de IA adoptarán” medidas para garantizar “en la mayor medida posible”, que “su personal” –sus trabajadores en general– y otras “personas” tengan un nivel suficiente de alfabetización en materia de IA; (arts. 3.56 y 4 RIA y Considerando 56 RIA). Entre otras obligaciones del empresario, también se establecen las siguientes: debe “encomendar la supervisión humana (del sistema IA) a personas físicas que tengan la competencia, la formación y la autoridad necesarias” (art. 26.2 RIA); debe “asegurar…que los datos de entrada sean pertinentes y suficientemente representativos en vista de la finalidad prevista del sistema de IA de alto riesgo, en la medida en que ejerza el control sobre dichos datos (art. 26.4 RIA); debe documentar y “conservar los archivos de registro” (26.5 RIA); y, los empresarios de referencia, “vigilarán el funcionamiento del sistema de IA de alto riesgo basándose en las instrucciones de uso y, cuando proceda, informarán a… representantes de los trabajadores” (art. 26.5 RIA y 25.7 RIA). Y, por último, se acentúa, que los responsables del despliegue de sistemas de IA de alto riesgo a que se refiere el anexo III, punto 5, letras b) y c), llevarán a cabo una evaluación del impacto que la utilización de dichos sistemas puede tener en los derechos fundamentales (art. 27.1 RIA. Tal abreviada síntesis de las obligaciones empresariales, se puede complementar con las que se deducen de la colaboración y apoyo que el empleador debe prestar para favorecer la “innovación” en las PYME y en las nuevas –emergentes– empresas (art. 1.1g RIA[46]).

A las anteriores obligaciones que deben atender los responsables del despliegue de sistemas de IA de alto riesgo previstas con carácter general (ex art. 26 RIA), se suman otras específicas exigibles en supuestos particulares. Los empresarios que utilicen “determinados sistemas de IA” que tienen un mayor riesgo potencial, asumen otras obligaciones más exigentes sobre la “transparencia” del uso y funcionamiento de tales sistemas, y así, y por ejemplo, cuando utilicen un sistema de reconocimiento de emociones o de un sistema de categorización biométrica, informarán a las personas físicas –los trabajadores– expuestas a él y tratarán sus datos personales de conformidad con los Reglamentos de la UE aplicables (art. 50.3 RIA), información, que se facilitará a las personas físicas de “manera clara y distinguible a más tardar con ocasión de la primera interacción o exposición” (art. 50.5 RIA).

Las obligaciones del empresario no son pocas pues, cuestión distinta, es que la forma y manera de establecerlas sea mejorable formal y sustancialmente; en todo caso, tales obligaciones permiten inferir o deducir aspectos concretos de los derechos individuales y colectivos de los trabajadores en materia de IA: unas obligaciones y unos derechos, que, efectos de debate, se podrían, adjetivar de rígidas y generosos, respectivamente.

2. Derechos de los trabajadores: individuales y colectivos  ^ 

Según tales obligaciones empresariales, los derechos laborales individuales más vulnerables en entornos digitales (IA)[47], resultarían ser los derechos a la “salud”, “seguridad”, “formación” e “información” (por todos, arts. 26.11, 1.1, 4, 6, 50 y Anexo III RIA), y permite inferir otros como el derecho a la dignidad, privacidad, y a lo no discriminación; y, en la misma línea, dicho Reglamento también menciona de forma expresa y repetida a los “derechos fundamentales” (por todos, arts. 1 y 27 RIA)[48]. El derecho de formación disfruta de una atención especial por parte del RIA, pues al estar estrechamente vinculado con una “disposición general” del RIA como lo es la “alfabetización” digital (ex art. 4 RIA, supra II), es un derecho que opera en múltiples momentos del funcionamiento de los sistemas de IA, actuando así a modo y manera de una condición necesaria para el disfrute de otros derechos laborales individuales y colectivos (supra II.D)[49].

Según tales obligaciones del empresario, los derechos colectivos y sindicales –participación, negociación e información[50]- también operan y son vulnerables en tal entorno digital (art. 26 RIA)[51]. Desde un punto de vista general, dichas obligaciones: 1) ayudan a identificar cuáles son los derechos colectivos afectados, refiriéndose, con mayor o menor precisión, a los de participación, información colectiva, y control o vigilancia, atribuidos, de forma expresa a los “representantes de los trabajadores”, derechos que en parte son de rango fundamental –entre otras razones posibles– por su pertenencia a la libertad sindical, entendida como un derecho de derechos (ver art. 12 Carta Derechos Fundamentales UE); 2) precisan el objeto de tales derechos colectivos, concretando, que comprende los datos (de “entrada”, “salida” y “de entrenamiento, validación y prueba, que cumplan los criterios de “calidad”), y, la programación algorítmica utilizada para tratar dichos datos; así, por ejemplo, tales materias son objeto de la negociación y de la información entre empresarios y representantes de los trabajadores; y, 3) las obligaciones del empresario en punto a elaborar y guardar cierta “documentación” y ciertos “archivos de registro”, las de efectuar algunas “evaluaciones” y respetar las “instrucciones de uso”, resultan ser medios que facilitan el ejercicio de los referidos derechos colectivos por parte de los representantes de los trabajadores (art. 26 RIA).

Y, entre tales derechos colectivos, el derecho de información de los representantes trabajadores sobre los sistemas de IA, recibe especial atención por parte del RIA[52], debido quizás, a que es necesario para el buen disfrute de otros de idéntica condición[53]. Al respecto, el RIA: 1) previene, que “Antes de poner en servicio o utilizar un sistema de IA de alto riesgo en el lugar de trabajo, los responsables del despliegue que sean empleadores informarán a los representantes de los trabajadores y a los trabajadores afectados de que estarán expuestos a la utilización del sistema de IA de alto riesgo. Esta información se facilitará, cuando proceda, con arreglo a las normas y procedimientos establecidos en el Derecho de la Unión y nacional y conforme a las prácticas en materia de información a los trabajadores y sus representantes” (art. 26.7 RIA); 2) establece, que “…los responsables del despliegue de los sistemas de IA de alto riesgo a que se refiere el anexo III que tomen decisiones o ayuden a tomar decisiones relacionadas con personas físicas, informarán a las personas físicas (por ejemplo, los trabajadores afectados) de que están expuestas a la utilización de los sistemas de IA de alto riesgo…” (art. 26. 11 RIA); 3) considera, que tal derecho de información resulta “accesorio y necesario para el objetivo de protección de los derechos fundamentales que subyace al presente Reglamento” (Considerando 92 RIA[54]); y, 4) el RIA, revaloriza el derecho de información de referencia, al considera, que “Los responsables del despliegue de los sistemas de IA de alto riesgo… también desempeñan un papel fundamental a la hora de informar a las personas físicas y, cuando tomen decisiones o ayuden a tomar decisiones relacionadas con personas físicas, deben, en su caso, informar a las personas físicas de que son objeto de la utilización de un sistema de IA de alto riesgo. Esta información debe incluir la finalidad prevista y el tipo de decisiones que se toman” (Considerando 93 RIA). Para delimitar tal derecho de información en general, –y salvo mejor opinión– también resultan de interés las aportaciones del artículo 50 RIA sobre la “transparencia” de la información, dicho sea, a sabiendas, que se trata de un pasaje que mayormente se refiere a sistemas de IA particulares (“determinados”), tal y como se relata a renglón seguido. Las aportaciones

del RIA, animan y animarán los comentarios sobre los derechos de información, de los que aquí, ni se puede ni debe apuntar nada más.

Si, anteriormente se ha comentado, que en ciertos supuestos de mayor riesgo, las obligaciones empresariales son más exigentes, ahora, se ha de apuntar, que los derechos de los trabajadores deducibles de las mismas, se reforzarán: así por ejemplo, si los empresarios utilizan “determinados sistemas de IA” que tienen un mayor riesgo potencial, o utilizan un sistema de reconocimiento de emociones o de un sistema de categorización biométrica, el derecho de información de los trabajadores se refuerza (arts. 50.3 y 50.5 RIA).

Para cerrar este punto de la exposición sobre obligaciones y derechos, se insiste, en que las previsiones del RIA, deben “aplicarse en todos los sectores” sin perjuicio de la legislación vigente de la Unión, “en particular” (sic) en materias de “protección de datos…derechos fundamentales, empleo, protección de los trabajadores”, de las que el Reglamento “es complementario”; no deben pues, minusvalorar las condiciones laborales patrocinadas por otras fuentes de la Unión Europea, como por ejemplo, las directivas que ordenan “las condiciones de trabajo en el trabajo en plataformas”; y, se concreta, que dichas previsiones reglamentarias, no merman el ejercicio de los derechos fundamentales reconocidos en los Estados miembros y a nivel de la Unión, “incluido el derecho o la libertad de huelga o de emprender otras acciones contempladas en los sistemas específicos de relaciones laborales de los Estados miembros, así como el derecho a negociar, celebrar y aplicar convenios colectivos o emprender acciones colectivas de conformidad con el Derecho nacional” (Considerando 9 RIA).

3. Especial referencia a los derechos fundamentales y un apunte sobre los derechos humanos  ^ 

Las referidas remisiones del RIA a los “derechos fundamentales” y a la Carta de Derechos Fundamentales de la Unión Europea (por todos, los repetidos arts. 1 y 27 RIA), potencian los derechos y la protección de los trabajadores afectados por los sistemas de IA, y, consecuentemente, realzan el debate sobre la laboralidad de los sistemas de IA y del RIA que los regula[55]; es más, si se recuerda que “El término «derechos fundamentales» se utiliza para expresar el concepto de «derechos humanos» en la Unión Europea”[56], se puede defender, que dicha laboralización alcanza todavía mayor nivel[57].

Recientemente, NU, ha resuelto, que “…se deben respetar, proteger y promover los derechos humanos y las libertades fundamentales durante todo el ciclo de vida de los sistemas de inteligencia artificial,…y, en su caso…que dejen de usar sistemas de inteligencia artificial…que supongan riesgos indebidos para el disfrute de los derechos humanos,…”[58].

Es por todo ello, que, aquí y ahora, resulta obligada, la cita del «Convenio Marco del Consejo de Europa sobre Inteligencia Artificial, Derechos Humanos, Democracia y Estado de Derecho» de 5 noviembre 2024. Es el primer tratado internacional jurídicamente vinculante en este ámbito[59], y, es un Convenio abierto también a la firma de países que no sean miembros del Consejo de Europa, y, por lo que aquí interesa más, entre sus firmantes, consta la UE (en nombre de sus estados miembros)[60]. El Convenio del Consejo de Europa, tiene por objeto garantizar que las actividades dentro del ciclo de vida de los sistemas de inteligencia artificial sean plenamente compatibles con los derechos humanos, la democracia y el estado de derecho. No se trata de comentarlo aquí, ni de mencionar las vías de protección que habilita dicho texto, sino, simplemente, de advertir, que complementa el planteamiento del RIA de 2024 sobre la laboralidad de los sistemas de IA, pues, el Convenio en cuestión, tras exponer, que los sistemas de IA pueden provocar efectos negativos en diversos ámbitos, “como el empleo y el trabajo[61], reclama “garantizar que las actividades en el marco del ciclo de vida de los sistemas de inteligencia artificial sean plenamente coherentes con los derechos humanos, la democracia y el Estado de Derecho” (art. 1 Convenio Marco cit.[62]): ambos textos, firmados por socios internacionales afines, son los primeros en sus géneros respectivos, que coinciden en el tiempo y comparten espacios territoriales y temáticos.

Bibliografía  ^ 

AA.VV.: e-Revista Internacional de la Protección Social (e-RIPS) 2024, Vol. IX, Nº 2.

AA.VV.:Labos, Vol. 5, Número extraordinario ‘Normativa europea sobre inteligencia artificial’, doi: 10.20318/labos.2024.9028. (Labos. Revista de Derecho del Trabajo y Protección Social)

AA.VV. Revista Crítica de Relaciones de Trabajo. Laborum, Extraordinaria nº 2, 2024. Monográfico “Enfoque integral de la Libertad Sindical”.

AA.VV.: Revista Trabajo y Derecho. Monográfico núm. 19 junio 2024 “Impacto laboral de la Inteligencia Artificial. Herramientas para evitar la deshumanización y proteger a las personas que trabajan” (Coordinado por Wilfredo Sanguineti Raymond y Ana Belén Muñoz Ruiz).

AA.VV.: Revista Internacional y Comparada de Relaciones Laborales y Derecho del Empleo. Monográfico. Volumen 12, número 1, enero-marzo de 2024. ADAPT University Press (Coordinador, Julio Armando Grisolia).

AA.VV.: “Derecho y Tecnologías” [Casas Baamonde, ME. (Directora) y Pérez del Prado, D. (Coordinador)]. Ed. Centro de Estudios Ramón Areces, SA). Texto completo, en: https://www.fundacionareces.es/recursos/doc/portal/2024/04/23/derecho-y-tecnologias.pdf

Aragüez Valenzuela, L.: “Hacia la eticidad algorítmica en las relaciones laborales”. Ed. Laborum, 2024.

Casas Baamonde, ME.: “Tecnologías, ciencia, economía y Derecho”. En « Derecho y Tecnologías. Casas Baamonde, ME. –Directora– y Pérez del Prado, D.-Coordinador-)». Ed. Centro de Estudios Ramón Areces, SA, 2025, en: https://www.fundacionareces.es/recursos/doc/portal/2024/04/23/derecho-y-tecnologias.pdf

Delgado López, Inés “Impacto de los sistemas algorítmicos en los procesos de selección de personal. Análisis jurídico-laboral a la luz del nuevo Reglamento europeo en materia de inteligencia artificial”. Revista de Trabajo y Seguridad Social. CEF N.º 483, noviembre-diciembre 2024. https://doi.org/10.51302/rtss.2024.22257

European Trade Unions.: “Inteligencia artificial en el lugar de trabajo Recomendaciones a coordinadores y representantes de los trabajadores en los CEE y SES”. Bruselas, enero de 2024 (actualización), de consulta, en: https://news.industriall-europe.eu/documents/upload/2024/7/638557091648051228_industriAll_Europe_recomendaciones_pr%C3%A1cticas_sobre_IA__Jan_2024_update_ES.pdf

Ginès i Fabrella, Anna: Inteligencia artificial y sesgos. NET21 julio 2024, de consulta en: https://www.net21.org/wp-content/uploads/2024/07/IA-Anna-Gines.pdf

Lousada Arochena. José F.: “Inteligencia Artifical y sesgos discriminatorio. ¿Es necesario u nuevo concepto de discriminación algorítmica?” IgualdadES, 11, julio-diciembre (2024), pp. 97-123, doi: https://doi.org/10.18042/cepc/IgdES.11.04

Gmyrek, P., Winkler, H., Garganta, S. 2024. “Buffer or Bottleneck? Employment Exposure to Generative AI and the Digital Divide in Latin America”, ILO Working Paper 121 (Geneva, ILO and The World Bank, 2024). https://doi.org/10.54394/TFZY7681

Mercader Uguina, Jesús R.: “Inteligencia Artificial y relaciones laborales”. Cuadernos de Derecho Transnacional, octubre 2024, Vol. 16, Nº 2, p. 1114-1128. https://doi.org/10.20318/cdt.2024.8964

Novelli, C., Hacker, P., Morley, J., Trondal, J. y Floridi, L. “Una gobernanza robusta para la Ley de IA: Oficina de IA, Consejo de IA, Panel Científico y Autoridades Nacionales “. Revista Europea de Regulación de Riesgos, 0[ 10.1017/err.2024.57]

Pérez Amorós, Francisco.: “El derecho del trabajo ante la futura ley de inteligencia artificial”, en «Libro en homenaje al profesor Eduardo Rojo Torrecilla, con motivo de su jubilación, por su trayectoria académica en la Universitat de Girona (1992-2007)». Ferran Camas Roda, Andrea Cano Redondo (eds.). Girona. Universitat de Girona, 2024.

Pérez Amorós, Francisco. (2025): “Aspectos laborales de la Asociación y Cooperación entre la Unión Europea y América Latina y del Caribe en materia digital y de inteligencia artificial. En prensa (Revista Iberoamericana de Derecho del Trabajo y la Seguridad Social, ed. AIDTSS, 2025).

Rodríguez Fernández, María Luz.: “Inteligencia artificial, género y trabajo”. Temas Laborales: Revista andaluza de trabajo y bienestar social, Nº 171, 2024, pp. 11-39.

Rodríguez-Piñero Royo, Miguel.: “Derecho del trabajo, inteligencia artificial y tutela de las personas”. Teoría&derecho. Revista de Pensamiento Jurídico 2024, Nº 37, p. 120-14. https://doi.org/10.12795/TPDM.2024.i9.01

Rojo Torrecilla, E.: Blog Eduard Rojo, “Publicado el Reglamento de Inteligencia Artificial. Notas descriptivas de su contenido laboral “, domingo, 14 de julio de 202), de consulta, en: http://www.eduardorojotorrecilla.es/2024/07/publicado-el-reglamento-de-inteligencia.html

Sierra Benítez, Esperanza Macarena.: “Subordinación sin lugar y horario de trabajo: los nómadas digitales”. Noticias CIELO, nº 3/2025, de consulta en: https://www.cielolaboral.com/wp-content/uploads/2024/02/sierra_noticias_cielo_n2_2024-2.pdf

Teruel Fernández, Carlos.: “Presente y futuro del derecho de información de los trabajadores ante la toma de decisiones automatizadas a través de sistemas de IA en las empresas”. Revista Internacional y Comparada de Relaciones Laborales y Derecho del Empleo. ADAPT., Volumen 12, número 4, octubre-diciembre de 2024.

Todolí Signes, Adrián.:” Democracia en el trabajo y codeterminación ante el uso de la IA en la empresa algo más que negociar el algoritmo”. Revista crítica de relaciones de trabajo, Laborum, Nº. Extra 2, 2024 (Ejemplar dedicado a: Enfoque integral de la Libertad Sindical), pp. 229-250.

Vigo Serralvo, FranciscoF.: “La protección del medioambiente como fin propio del Derecho del Trabajo”. e-Revista Internacional de la Protección Social, (e-RIPS), 2024, Vol. IX, Nº 2, p. 9-44. https://doi.org/10.12795/e-RIPS.2024.i02.01


[*] Este artículo es resultado de la actualización de la Conferencia General “Aspectos laborales de la Ley sobre Inteligencia Artificial de 2024: una ley europea con proyección internacional”, dictada el 9 de mayo de 2024 en la Aula Magna de la Universidad de la Habana, en el marco del “XVI Encuentro Internacional de Abogados/as Laboralistas y del Movimiento Obrero”, desarrollado los días 8 a 10 de mayo de 2024 en la Habana (Cuba); y, de la conferencia “Inteligencia Artificial y el futuro del Trabajo”, pronunciada el 13 de septiembre de 2024 en las “Jornadas Internacionales a 50 años de la Ley de Contrato de Trabajo”, celebradas los días 12, 13 y 14 de septiembre de 2024, en el Colegio de Abogados del Departamento Judicial del Mar de Plata, organizadas por dicho Colegio de Abogados y Abogadas, por la Asociación Latinoamericana de Abogados y Abogadas Laboralistas (ALAL), y, por otras asociaciones.

[1] Reglamento (UE) 2024/1689 del Parlamento Europeo y del Consejo, de 13 de junio de 2024, por el que se establecen normas armonizadas en materia de inteligencia artificial y por el que se modifican los Reglamentos (CE) n.° 300/2008, (UE) n.° 167/2013, (UE) n° 168/2013, (UE) 2018/858, (UE) 2018/1139 y (UE) 2019/2144 y las Directivas 2014/90/UE, (UE) 2016/797 y (UE) 2020/1828 (Reglamento de Inteligencia Artificial) (DO L, 2024/1689, 12.7.2024; ELI: http://data.europa.eu/eli/reg/2024/1689/oj).

Para su seguimiento, aplicación, contextualización, y algunos comentarios, ver el “Explorador de la Ley de IA”, en: https://artificialintelligenceact.eu/es/ai-act-explorer/ , Así mismo, ver: “Observatorio de la IA y el Trabajo en la Economía Digital (OIT), en https://www.ilo.org/es/artificial-intelligence-and-work-digital-economy

[2] Pérez Amorós, Francisco: “El derecho del trabajo ante la futura ley de inteligencia artificial”, 2024, p. 64-110.

[3] Los capítulos I (“Disposiciones generales”) y II (“Prácticas de IA prohibidas”), se aplica desde el 2 de febrero de 2025; el capítulo III, sección 4 (Autoridades notificantes y organismos notificados), el capítulo V (Modelos de IA de uso general), el capítulo VII (Gobernanza) y el capítulo XII (Sanciones) y el artículo 78 (Confidencialidad), se aplicarán a partir del 2 de agosto de 2025, a excepción del artículo 101 (Multas a proveedores de modelos de IA de uso general); el de 2 agosto de 2026 comienza a aplicarse el resto de la Ley AI, excepto el artículo 6(1), que se aplicará partir de 2 agosto 2027.

[4] Ver las concordancias entre el articulado del RIA y los Considerandos del mismo, en “El Explorador de la Ley de IA”, en: https://artificialintelligenceact.eu/es/ai-act-explorer/

[5] En el Anexo I consta la “lista de actos legislativos de armonización de la Unión”.

[6] Encuadrado en la Agenda para el Desarrollo Sostenible, en la Agenda Digital para Europa para el período 2020-2030 y en el Programa Estratégico de la Década Digital para 2030.

[7] Blog Eduardo Rojo, “Publicado el Reglamento de Inteligencia Artificial. Notas descriptivas de su contenido laboral “, domingo, 14 de julio de 2024.

[8] Por todas: Naciones Unidas. Asamblea General: Resolución aprobada por la Asamblea General el 21 de marzo de 2024. Aprovechar las oportunidades de sistemas seguros y fiables de inteligencia artificial para el desarrollo sostenible [A/RES/78/265], de consulta, en https://documents.un.org/doc/undoc/gen/n24/087/86/pdf/n2408786.pdf

[9] Por todas: Recommandation sur l’éthique de l’intelligence artificielle de l’UNESCO, adoptée le 23 novembre 2021; y, la Recommandation sur l’intelligence artificielle adoptée par le Conseil de l’OCDE le 22 mai 2019; y, the G7 agreed some International Guiding Principles on Artificial Intelligence in 2023.

[10] Ver: EPRS (European Parliamentary Research Service/Servicio de Investigación del Parlamento Europeo). Author: Tambiama Madiega Members’ Research Service. PE 698.792–September 2024, pág. 2, de consulta en: https://www.europarl.europa.eu/RegData/etudes/BRIE/2021/698792/EPRS_BRI(2021)698792_EN.pdf

[11] Especialmente, ver: el Reglamento (UE) 2016/679 del Parlamento Europeo y del Consejo, de 27 de abril de 2016, relativo a la protección de las personas físicas en lo que respecta al tratamiento de datos personales y a la libre circulación de estos datos y por el que se deroga la Directiva 95/46/CE (Reglamento General de Protección de Datos) (DO L 119 de 4.5.2016); y, Reglamento (UE) 2022/1925 del Parlamento Europeo y del Consejo, de 14 de septiembre de 2022, relativo a unos mercados disputables y equitativos en el sector digital y por el que se modifican las Directivas (UE) 2019/1937 y (UE) 2020/1828 (Ley de Mercados Digitales).

[12] Por todas: Directiva 2002/14/CE del Parlamento Europeo y del Consejo, de 11 de marzo de 2002, por la que se establece un marco general relativo a la información y a la consulta de los trabajadores en la Comunidad Europea - Declaración conjunta del Parlamento Europeo, el Consejo y la Comisión relativa a la representación de los trabajadores (DO L 80 de 23.3.2002, páginas, 29–34); Directiva (UE) 2024/1760 DEL Parlamento Europeo y del Consejo, de 13 de junio de 2024, sobre diligencia debida de las empresas en materia de sostenibilidad y por la que se modifican la Directiva (UE) 2019/1937 y el Reglamento (UE) 2023/2859 (DOUE, de 5 de julio de 2024, páginas 1 a 58) [Entrará en vigor a los 20 días de su publicación, es decir, el 26 de julio de 2024; los Estados miembros tienen dos años para realizar la transposición a la normativa nacional, a más tardar el 26 de julio de 2026]; y, Directiva (UE) 2024/2831 del Parlamento Europeo y del Consejo, de 23 de octubre de 2024, relativa a la mejora de las condiciones laborales en el trabajo en plataformas («DOUE» núm. 2831, de 11 de noviembre de 2024, páginas 1 a 26). Y, con visión de presente y futuro, ver., v.gr: Propuesta de Directiva del Parlamento Europeo y del Consejo por la que se modifica la Directiva 2009/38/CE en lo que se refiere a la constitución y al funcionamiento de los comités de empresa europeos y a la aplicación efectiva de los derechos de información y consulta transnacional COM/2024/14 final Bruselas, 24.1.2024 COM (2024) 14 final 2024/0006(COD).

[13] Sobre efectos de la IA sobre el empleo, por todos: ver, Observatorio de la IA y el Trabajo en la Economía Digital, cit.

[14] World Economic Forum: “Future of Jobs Report 2025”. Insightreport., Geneva, janury 2025; y, UN: “Informe sobre la economía digital 2024. Forjar un futuro digital ambientalmente sostenible e inclusivo”, 2024 UN.

[15] Con la entrada en vigor del Tratado de Lisboa en diciembre de 2009, la Carta pasó a ser jurídicamente vinculante y a tener la misma validez jurídica que los tratados de la UE.

[16] Por todos, Vigo Serralvo, Francisco.: “La protección del medioambiente como fin propio del Derecho del Trabajo”, 2024.

[17] Ver, Directiva (UE) 2024/1760 del Parlamento Europeo y del Consejo, de 13 de junio de 2024, sobre diligencia debida de las empresas en materia de sostenibilidad y por la que se modifican la Directiva (UE) 2019/1937 y el Reglamento (UE Reglamento (UE) 2023/2859), texto que será objeto de posterior atención.

[18] Esta dimensión laboral del ámbito del RIA, en todas sus vertientes, sigue siendo objeto de debate actual, v. gr.: en la Conferencia conjunta de alto nivel entre el Comité Económico y Social Europeo (CESE) (UE) y la Organización Internacional del Trabajo (OIT) sobre «Justicia social en la era digital: El impacto de la IA en el trabajo y la sociedad» (2025); y, en la Cumbre de Acción sobre Inteligencia Artificial (10 y 11 de febrero de 2025), Paris, 10 y 11 de febrero de 2025, siendo unos de sus 5 ejes “el futuro del trabajo”.

[19] Gmyrek, P., Winkler, H., Garganta, S.,Buffer or Bottleneck? Employment Exposure to Generative AI and the Digital Divide in Latin America “, 2024; y, OIT:Perspectivas sociales y del empleo en el mundo: Tendencias 2025”. Ginebra, 2025.

[20] Aplicable desde 2 febrero 2025 (art. 113 RIA).

[21] Importa advertir, que el Reglamento, a pesar de referirse generalmente a tales sistemas y modelos, en algunas ocasiones se dirige a la IA de manera directa y expresamente, en unos términos ilustrativos: valga, al respecto, subrayar, que ya en el primero de sus artículos, se refiere a “una inteligencia artificial (IA) centrada en el ser humano y fiable…”, expresión, que sin duda incide en el debate general y laboral en particular sobre la IA.

[22] El propio RIA considera, que “El concepto de modelos de IA de uso general debe definirse claramente y diferenciarse del concepto de sistemas de IA con el fin de garantizar la seguridad jurídica” (Considerando 97 in prius– uno de sus Considerandos más extenso–, y Considerando 12 RIA).

[23] Casas Baamonde, María Emilia.: “Tecnologías, ciencia, economía y Derecho”, 2025.

[24] Tras la publicación y entrada en vigor del RIA, la Comisión ha aprobado el proyecto de directrices, pero aún no las ha adoptado formalmente. Ver, Communication to the Commission Approval of the content of the draft Communication from the Commission - Commission Guidelines on the definition of an artificial intelligence system established by Regulation (EU) 2024/1689 (AI Act) Brussels, 6.2.2025, C(2025) 924 final, en: https://digital-strategy.ec.europa.eu/es/library/commission-publishes-guidelines-ai-system-definition-facilitate-first-ai-acts-rules-application

[25] La definición de “sistema de IA” formulada en el RIA, es del tenor literal siguiente: es “un sistema basado en una máquina que está diseñado para funcionar con distintos niveles de autonomía y que puede mostrar capacidad de adaptación tras el despliegue, y que, para objetivos explícitos o implícitos, infiere de la información de entrada que recibe la manera de generar resultados de salida, como predicciones, contenidos, recomendaciones o decisiones, que pueden influir en entornos físicos o virtuales” (art. 3.1 RIA).

No se trata de reiterar aquí, que el proceso de la negociación de tal concepto en la UE, ha sido largo e intenso, aunque se pueden recordar dos hechos. El concepto de sistema de IA, fue uno de los temas más debatido y enmendado, y, no se consensuó formalmente hasta los últimos momentos de la negociación interinstitucional (diálogos y trílogos) (Ver, Pérez Amorós, F.: “El derecho del trabajo ante la futura ley de inteligencia artificial”, op. cit., p. 90-102). Otro dato significativo, es que el concepto previsto en el RIA, sigue la definición de IA propuesta por la OCDE, que apunta que es “Un sistema de IA es un sistema basado en máquinas que, para unos objetivos explícitos o implícitos, infiere, a partir de la entrada que recibe, cómo generar salidas tales como predicciones, contenidos, recomendaciones o decisiones que pueden influir en entornos físicos o virtuales. Los distintos sistemas de IA varían en sus niveles de autonomía y adaptabilidad tras su despliegue “(OCDE “Memorandum explicativo sobre la definición actualizada de la OCDE de un sistema de IA”. OECD Artificial Intelligence Papers, March 2024 No. 8, 2024, de consulta en: https://www.oecd.org/en/publications/explanatory-memorandum-on-the-updated-oecd-definition-of-an-ai-system_623da898-en.html).

A mayor abundamiento sobre el concepto de sistema de IA, se hace constar, que el «Convenio Marco del Consejo de Europa sobre Inteligencia Artificial, Derechos Humanos, Democracia y Estado de Derecho» de 2024 –que comentará infra, V.C.3– incluye la siguiente definición de sistema de IA: “A efectos del presente Convenio, se entenderá por «sistema de inteligencia artificial» un sistema automatizado que, con objetivos explícitos o implícitos, deduce de la información que recibe la forma de generar resultados como predicciones, contenidos, recomendaciones o decisiones que puedan influir en entornos físicos o virtuales. Los distintos sistemas de inteligencia artificial varían en sus niveles de autonomía y capacidad de adaptación tras su despliegue” (art. 2 Convenio Marco). Esta definición del Convenio –que coincide, en lo esencial, con la que se estaba discutiendo en su momento en la negociación sobre el RIA–, coincide con la definición actualizada de sistema de inteligencia artificial en la Recomendación de la OCDE sobre Inteligencia Artificial (OCDE/LEGAL/0449, 2019, modificada en 2023).

[26] Sierra Benítez, Esperanza Macarena.: “Subordinación sin lugar y horario de trabajo: los nómadas digitales”, Noticias Cielo, núm. 2, 2025.

[27] Rodríguez Fernández, María Luz.: “Inteligencia artificial, género y trabajo”, 2024.

[28] Aragüez Valenzuela, Lucía.: “Hacia la eticidad algorítmica en las relaciones laborales”, 2024; y, Rodríguez-Piñero Royo, Miguel.: “Derecho del trabajo, inteligencia artificial y tutela de las personas”, 2024.

[29] Ginès i Fabrella, Anna.: “Inteligencia artificial y sesgos”, 2024; y Lousada Arochena. José Francisco.: “Inteligencia Artificial y sesgos discriminatorios…”, 2024.

[30] Los sistemas de riesgo limitado, imponen a sus operadores unas obligaciones adicionales. Y, los sistemas de riesgo mínimo, suponen un impacto bajo para la seguridad y privacidad de las personas, por lo que su desarrollo y uso no implica obligaciones legales adicionales, cuestión o distinta es que se sometan voluntariamente a códigos de conducta o limitaciones similares.

[31] Tal y como se ha apuntado, estas prohibiciones, forman parte de las previsiones del RIA que se aplican desde febrero 2025 (art. 113 RIA).

Según art. 5.1a RIA, la regla general, sobre las prácticas de IA prohibidas, reza así : quedan prohibidas las siguientes prácticas de IA “… la introducción en el mercado, la puesta en servicio o la utilización de un sistema de IA que se sirva de técnicas subliminales que trasciendan la conciencia de una persona o de técnicas deliberadamente manipuladoras o engañosas con el objetivo o el efecto de alterar de manera sustancial el comportamiento de una persona o un colectivo de personas, mermando de manera apreciable su capacidad para tomar una decisión…”.

Ver: European Commission. Brussels, 4.2.2025 C(2025) 884 final Annex Communication to the Commission Approval of the content of the draft Communication from the Commission - Commission Guidelines on prohibited artificial intelligence practices established by Regulation (EU) 2024/1689 (AI Act), ver en : https://digital-strategy.ec.europa.eu/en/library/commission-publishes-guidelines-prohibited-artificial-intelligence-ai-practices-defined-ai-actwe:

[32] Capítulo V “Modelos de IA de uso general”, Sección 1 “Reglas de clasificación”, art. 51 “Reglas de clasificación de los modelos de IA de uso general como modelos de IA de uso general con riesgo sistémico”.

[33] Que se da por reproducido aquí; ver: http://data.europa.eu/eli/reg/2024/1689/oj

[34] Que se dan por reproducidos aquí; ver: http://data.europa.eu/eli/reg/2024/1689/oj

[35] Capítulo III (“Sistemas de IA de alto riesgo”), incluye 43 artículos –del 6 al 49– de los 113 del texto.

[36] Tales ámbitos, fijados, esencialmente, por razón de materia, son: 1º) Biometría; 2º) Infraestructuras críticas; 3º) Educación y formación profesional; 4º) Empleo, gestión de los trabajadores y acceso al autoempleo; 5º) Acceso a servicios privados esenciales y a servicios y prestaciones públicos esenciales y disfrute de estos servicios y prestaciones; 6º) Garantía del cumplimiento del Derecho, en la medida en que su uso esté permitido por el Derecho de la Unión o nacional aplicable; 7º) Migración, asilo y gestión del control fronterizo, en la medida en que su uso esté permitido por el Derecho de la Unión o nacional aplicable; y, 8º) Administración de justicia y procesos democráticos.

[37] El Considerando 57, expone, que los sistemas de IA de alto riesgo, inciden en materia de “empleo” y en de “gestión” de los trabajadores, y, considera, que se utilizan para la “contratación”, para la “selección de personal”, para la “toma de decisiones que afecten a las condiciones de las relaciones de índole laboral”, para, decidir la “promoción” profesional, se utilizan, para la “asignación de tareas a partir de comportamientos individuales o rasgos o características personales, para la “supervisión o evaluación de las personas en el marco de las relaciones contractuales de índole laboral”, y, para determinar la “rescisión de relaciones contractuales de índole laboral”; y, es por todo ello, que el Reglamento, considera, que “los sistemas de IA de alto riesgo, afectar(n) de un modo considerable a las futuras perspectivas laborales, y … a los derechos de los trabajadores”.

[38] Delgado López, “Impacto de los sistemas algorítmicos en los procesos de selección de personal. Análisis jurídico-laboral a la luz del nuevo Reglamento europeo en materia de inteligencia artificial, 2024.

[39] El propio Anexo III.1a RIA, previene, que ““Quedan excluidos los sistemas de IA destinados a ser utilizados con fines de verificación biométrica cuya única finalidad sea confirmar que una persona física concreta es la persona que afirma ser”. A recordar, aquí, las prácticas de IA prohibidas, citadas (ex art. 5 RIA).

[40] European Trade Unions.: “Inteligencia artificial en el lugar de trabajo Recomendaciones a coordinadores y representantes de los trabajadores en los CEE y SES”, 2024.

[41] Entre los que se incluye la defensa de “los derechos fundamentales…la democracia…el Estado de Derecho” (art. 1 RIA).

[42] En el marco de la reforma de las normas de asilo (2023-2024), se recuerda que el Consejo UE adoptó el Pacto de la UE sobre Migración y Asilo con fecha de 14 de mayo de 2024.

[43] Mercader Uguina, Jesús.: “Inteligencia Artificial y relaciones laborales”, 2024.

[44] Ver, Capítulo III, Sección 2 (“Requisitos de los sistemas de alto riesgo”), arts. 8 a 15 RIA.

[45] A finales de marzo de 2025, se está discutiendo el tercer borrador de “Código de buenas prácticas de IA de finalidad general”, con y sin riesgo sistémico, que trata de las obligaciones de los proveedores de sistemas de IA, ex arts. 55.3 y 56 RIA, ver: (https://digital-strategy.ec.europa.eu/es/library/third-draft-general-purpose-ai-code-practice-published-written-independent-experts

[46] V.gr.: tener acceso prioritario a los espacios aislados de regulación a las PYME; participar en actividades de sensibilización y desarrollo de competencias digitales adaptadas a las necesidades de las organizaciones más pequeñas, y, en actividades de sensibilización y desarrollo de competencias digitales adaptadas; disponer de canales de comunicación específicos para recibir orientación en materia digital; participar en el proceso de elaboración de normas; y, disfrutar de ciertas reducciones de la carga financiera y otros costes derivados de la utilización de IA.

[47] AAVV: Labos, Vol. 5, Número extraordinario ‘Normativa europea sobre inteligencia artificial’, doi: 10.20318/labos.2024.9028; AA.VV.: Revista Trabajo y Derecho. Monográfico núm. 19 junio 2024 “Impacto laboral de la Inteligencia Artificial. Herramientas para evitar la deshumanización y proteger a las personas que trabajan”, 2024; y, AA.VV.: “Derecho y Tecnologías” [Casas Baamonde, María Emilia. (Directora) y Pérez del Prado, Daniel. (Coordinador)], 2025.

[48] Ver como concordante: Reglamento (UE) 2016/679 del Parlamento Europeo y del Consejo, de 27 de abril de 2016, cit.

[49] AA.VV.: e-Revista Internacional de la Protección Social (e-RIPS), Vol. IX, nº 2, 2024; y, Revista Internacional y Comparada de Relaciones Laborales y Derecho del Empleo. Monográfico. Volumen 12, número 1, enero-marzo de 2024.

[50] Todolí Signes, Adrián.:” Democracia en el trabajo y codeterminación ante el uso de la IA en la empresa algo más que negociar el algoritmo”, 2024.

[51] AA. VV.: Revista Crítica de Relaciones de Trabajo. Laborum, Extraordinaria nº 2, 2024.

[52] Ver como concordante: Directiva 2002/14/CE del Parlamento Europeo y del Consejo, de 11 de marzo de 2002, cit.

[53] Por todos: Teruel Fernández, Carlos.: “Presente y futuro del derecho de información de los trabajadores ante la toma de decisiones automatizadas a través de sistemas de IA en las empresas”, 2024.

[54] Según el Considerando 92 “El presente Reglamento se entiende sin perjuicio de la obligación de los empleadores de informar o de informar y consultar a los trabajadores o a sus representantes, en virtud del Derecho o las prácticas nacionales o de la Unión, incluida la Directiva 2002/14/CE del Parlamento Europeo y del Consejo… sobre la decisión de poner en servicio o utilizar sistemas de IA. Se debe velar por que se informe a los trabajadores y a sus representantes sobre el despliegue previsto de sistemas de IA de alto riesgo en el lugar de trabajo incluso aunque no se cumplan las condiciones de las citadas obligaciones de información o de información y consulta previstas en otros instrumentos jurídicos. Además, este derecho de información es accesorio y necesario para el objetivo de protección de los derechos fundamentales que subyace al presente Reglamento. Por consiguiente, debe establecerse en el presente Reglamento un requisito de información a tal efecto, sin que dicho requisito afecte a ningún derecho vigente de los trabajadores.

[55] Fernández Villazón, Luis Antonio: “Nuevo Reglamento Europeo de IA: Los derechos humanos como especificación técnica de producto”. Briefs AEDTSS, 71, 2024, Publicado el 24/07/2024, de consulta, en:. https://www.aedtss.com/nuevo-reglamento-europeo-de-ia-los-derechos-humanos-como-especificacion-tecnica-de-producto/

[57] La relación derechos fundamentales versus derechos humanos, se refuerza, si se recuerda, que muchos de los derechos y las libertades contenidos en la referida Carta de la UE reflejan los ya consagrados en el propio Convenio Europeo de Derechos Humanos (1950) del Consejo de Europa y en la Carta Social Europea (1965 y revisada en 1996), mediante la que los Estados miembros del Consejo de Europa convinieron en garantizar a sus pueblos los derechos sociales especificados en esos instrumentos con objeto de mejorar su nivel de vida y de promover su bienestar social. En este escenario, ver, la. Directiva (UE) 2024/1760 del Parlamento Europeo y del Consejo, de 13 de junio de 2024, sobre diligencia debida de las empresas en materia de sostenibilidad y por la que se modifican la Directiva (UE) 2019/1937 y el Reglamento (UE) 2023/2859 (DO L, 2024/1760, 5.7.2024), en la que se insiste, que “las empresas tienen la responsabilidad de respetar los derechos humanos”, y así se establece en su articulado (por todos, art.1).

[58] Resolución aprobada por la Asamblea General NU el 21 de marzo de 2024. Aprovechar las Oportunidades de sistemas seguros y fiables de inteligencia artificial para el desarrollo sostenible, cit., epígrafe 5, in prius.

Así mismo, ver: el Informe grupo de expertos de la ONU. Governing AI for Humanity. Final Report. September 2024 (United Nations, de consulta, en: https://www.un.org/sites/un2.un.org/files/governing_ai_for_humanity_final_report_en.pdf

[59] “Los principios y las obligaciones previstos en el Convenio se aplicarán a las actividades dentro del ciclo de vida de los sistemas de IA emprendidas por autoridades públicas o agentes privados que actúen en su nombre. Por lo que se refiere a los agentes del sector privado, si bien aún deben abordar los riesgos y las repercusiones de los sistemas de IA de manera acorde con los objetivos del Convenio, tienen la opción de aplicar directamente las obligaciones del Convenio o de aplicar medidas alternativas adecuadas”, en: https://digital-strategy.ec.europa.eu/es/news/commission-signed-council-europe-framework-convention-artificial-intelligence-and-human-rights

[60] Decisión (UE) 2024/2218 del Consejo (UE), de 28 de agosto de 2024, relativa a la firma, en nombre de la Unión Europea, del Convenio Marco del Consejo de Europa sobre Inteligencia Artificial, Derechos Humanos, Democracia y Estado de Derecho (DOUE, 4.9.2024, 224/2218).

[61] Este Convenio Marco “tiene por objeto abordar los retos específicos que surgen a lo largo del ciclo de vida de los sistemas de inteligencia artificial y fomentar la consideración de los riesgos y efectos más amplios relacionados con estas tecnologías, incluidos, entre otros, la salud humana y el medio ambiente, así como los aspectos socioeconómicos, como el empleo y el trabajo;” (en su Preámbulo).

[62] Ya en su Preámbulo, se expresa, que “Preocupados por que determinadas actividades en el marco del ciclo de vida de los sistemas de inteligencia artificial pueden minar la dignidad humana y la autonomía individual, los derechos humanos, la democracia y el Estado de Derecho…”.