Trabajo, Persona, Derecho, Mercado 11 (2025) 157-190

https://dx.doi.org/10.12795/TPDM.2025.i11.05

Recibido: 30 nov 2025; Aceptado: 14 enero 2026

e-ISSN: 2660-4884 · © 2025. E. Universidad de Sevilla.

CC BY-NC-SA 4.0

El control del poder del algoritmo en el ámbito laboral: acercamientos normativos y jurisprudenciales

Control of the power of algorithms in the workplace: regulatory and jurisprudential approaches

Lidia de la Iglesia Aza

Profesora Sustituta Interina de Derecho del Trabajo y de la Seguridad Social

Universidad de Santiago de Compostela, España

lidiadelaiglesia.aza@usc.es

ORCID: 0000-0001-8455-0701

Resumen: La incursión de los algoritmos en la gestión laboral es una realidad que debe ser regulada tanto a nivel de la Unión Europea como nacional. ¿Cuáles con los acercamientos normativos que se han hecho a este fenómeno? ¿Son suficientes para garantizar los derechos de los trabajadores? Mediante el estudio tanto de las normas vigentes como de las propuestas legislativas en tramitación este estudio intenta resolver estas cuestiones.

Palabras Clave: Algoritmo, control, gestión, recursos humanos, transparencia.

Abstract: The incursion of algorithms into labour management is a reality that must be regulated at both European Union and national level. What regulatory approaches have been taken to address this phenomenon? Are they sufficient to guarantee workers’ rights? By examining both current regulations and legislative proposals currently being processed, this study attempts to answer these questions.

Keywords: Algorithm, control, management, human resources, transparency.

Sumario :

1. Introducción . 2. Por qué es necesario controlar a los algoritmos . 3. Los intentos de control en el ámbito europeo . 4. El marco de control en la norma española . 5 Pronunciamientos judiciales sobre control algorítmico en España . 6. Conclusiones . Bibliografía

1. Introducción  ^ 

Los algoritmos están sustituyendo cada vez más a los sistemas tradicionales de control y clasificación de datos dirigidos por humanos. Su funcionamiento depende de un código que traduce los problemas del mundo real en términos matemáticos formales, por tanto, este proceso implica una inicial toma de decisiones humanas: los programadores deben determinar cómo identifica el algoritmo las soluciones entre numerosas correlaciones posibles. Como resultado, el modelo predictivo en el que se basa el algoritmo está determinado por las suposiciones y elecciones previas del programador, lo que incorpora juicios subjetivos en sistemas aparentemente objetivos [1] .

Para ver cómo funciona, es necesario partir de la propia definición de qué es un algoritmo, y, siguiendo a Krafft [2] , es una instrucción de acción suficientemente detallada y sistemática para resolver un problema matemático, de modo que, cuando se aplica, el ordenador calcula el resultado correcto para cada conjunto correcto de entradas.

Partiendo de este marco operativo, se pueden diseñar algoritmos para prestar una amplia gama de servicios, muchos de ellos en el ámbito de las relaciones laborales [3] . De esta forma, su integración ha transformado las prácticas tradicionales de recursos humanos, dando lugar a nuevos métodos de selección de candidatos, a la evaluación automatizada de las habilidades y el rendimiento de los empleados, así como decisiones guiadas por algoritmos sobre carrera profesional. Por ejemplo, plataformas como HireVue [4] utilizan el reconocimiento facial y el análisis de voz para evaluar a los solicitantes de empleo, mientras que los sistemas internos de recursos humanos pueden clasificar a los empleados en función de métricas de productividad derivadas de su actividad digital [5] .

Estos sistemas también colaboran en la supervisión del trabajo, con herramientas que rastrean las pulsaciones del teclado, los datos de ubicación e incluso, indicadores biométricos para evaluar el compromiso o el cumplimiento.

Uno de los objetivos de la delegación en sistemas algorítmicos de estos poderes gerenciales puede ser que la toma de decisiones sea fiable, imparcial o neutra, dado que, en principio, los algoritmos carecen de los sesgos, impresiones o prejuicios de las personas, pero la experiencia en su implementación advierte de que no siempre se logran estos objetivos.

La utilización de sistemas algorítmicos como base para la toma de decisiones laborales, como justificación de medidas disciplinarias o incluso de la rescisión de contratos de trabajo, ha suscitado serias preocupaciones sobre la transparencia, la equidad y la legalidad del proceso. Estos usos ponen de relieve la creciente necesidad de examinar críticamente cómo se utilizan los sistemas algorítmicos en el contexto laboral, especialmente cuando la opacidad en la toma de decisiones puede reforzar las desigualdades existentes o infringir los derechos laborales de los trabajadores afectados [6] , y ello por cuanto los algoritmos en el ámbito laboral no dejan de ser nuevas formas de expresión del tradicional poder empresarial, pero en tiempos digitales [7] .

Por lo tanto, garantizar la equidad y la legalidad en el ejercicio del poder de dirección mediante la toma de decisiones algorítmicas requiere no solo salvaguardias técnicas, sino también una supervisión legal y regulatoria sólida. Esto incluye la implementación de obligaciones de transparencia, mecanismos de auditoría y marcos de rendición de cuentas que permitan el escrutinio de los procesos algorítmicos. Los actores legales deben estar equipados para cuestionar el diseño y la implementación de estos sistemas, y los tribunales deben estar preparados para interpretar la legislación contra la discriminación de manera que se adapte a los desafíos únicos que plantea la gobernanza algorítmica [8] .

En última instancia, la intersección entre el derecho y la tecnología exige un enfoque proactivo, que anticipe los riesgos de la discriminación algorítmica y consagre medidas de protección para defender los derechos fundamentales. Sin esas medidas, la promesa de la neutralidad algorítmica puede seguir siendo ilusoria, y las barreras estructurales a las que se enfrentan los grupos vulnerables pueden afianzarse aún más bajo el pretexto de la objetividad tecnológica [9] .

2. Por qué es necesario controlar a los algoritmos  ^ 

Como se ha señalado, la toma de decisiones algorítmica es cada vez más frecuente en la gestión de recursos humanos, y constituye una valiosa fuente de información y orientación. Definida como la automatización y estandarización de las decisiones rutinarias en el lugar de trabajo, implica elecciones automatizadas y supervisión remota de la prestación de servicios, actuaciones que tradicionalmente eran desarrolladas por seres humanos [10] . Esta forma de toma de decisiones tiene importantes implicaciones para las personas y la sociedad, ya que influye en la forma en que las organizaciones optimizan sus procesos y asignan sus recursos [11] . Así, mediante el uso de algoritmos, las organizaciones pueden identificar el talento oculto y seleccionar grandes volúmenes de solicitudes de empleo, lo que puede mejorar tanto la eficiencia como la precisión en las operaciones de recursos humanos [12] .

Sin embargo, aunque estos sistemas prometen un mejor rendimiento, también plantean preocupaciones críticas en torno a la transparencia, la equidad y la rendición de cuentas. A medida que las herramientas algorítmicas influyen cada vez más en los resultados laborales, surgen dudas sobre el sesgo en los datos, la opacidad de los procesos de toma de decisiones y la falta de supervisión humana. Estos retos ponen de relieve la necesidad de contar con marcos jurídicos y normas éticas sólidas para garantizar que el avance tecnológico en la gestión de los trabajadores no se produzca a expensas de sus derechos.

Las principales motivaciones que impulsan la toma de decisiones algorítmica incluyen la eficiencia en términos de costes y tiempo, la reducción de riesgos, la mejora de la productividad y el aumento de la fiabilidad de las decisiones [13] . Pero, además de la motivación económica de ahorro de costes y agilidad de los procesos, las organizaciones adoptan cada vez más métodos algorítmicos para mitigar los sesgos humanos, incluyendo los prejuicios personales y los juicios subjetivos, promoviendo así una mayor objetividad, coherencia y equidad en las prácticas de recursos humanos [14] .

No obstante, la dependencia exclusiva de los sistemas algorítmicos conlleva riesgos importantes, especialmente en lo que se refiere a comportamientos discriminatorios y generadores de desigualdad trato [15] . Así, estos sistemas pueden producir resultados sesgados cuando se entrenan con conjuntos de datos inexactos [16] , prejuiciosos [17] , o no representativos [18] . En consecuencia, los algoritmos pueden perpetuar o amplificar inadvertidamente los sesgos sociales incorporados en sus datos de entrenamiento [19] .

La forma de limitar estos riesgos es el acceso a los datos algorítmicos para evaluar posibles desviaciones discriminatorias, pero este acceso plantea importantes retos debido a la opacidad y complejidad inherentes a estos sistemas. Por ello, la falta de transparencia en cuanto a la estructura y el impacto de los procesos de toma de decisiones algorítmicas, dadas las complejidades técnicas que ello implica, suscita una evidente preocupación en relación con el control de su funcionamiento.

Aunque el Tribunal de Justicia de la Unión Europea (TJUE) dictaminó en el asunto Meister [20] que los empleadores privados no están obligados a revelar información relativa a los procedimientos de contratación, también ha afirmado sistemáticamente a través de su jurisprudencia que la transparencia constituye un requisito previo fundamental para la aplicación efectiva del principio de no discriminación. Sobre esta base, es imperativo que se apliquen normas mínimas de transparencia, apertura y divulgación a los modelos algorítmicos. Estas medidas son esenciales para facilitar la identificación de patrones y efectos discriminatorios, y para permitir a los solicitantes establecer casos prima facie de discriminación [21] .

Esta apuesta por la transparencia como forma de control se ha plasmado en la reciente sentencia del asunto C-203/22 , de 27 de febrero de 2025, en relación con las decisiones automatizadas, incluida la elaboración de perfiles (“scoring”).

En este pronunciamiento, el Tribunal establece el derecho de acceso a la información significativa sobre la lógica aplicada a la elaboración de perfiles, con miras a capacitar a los particulares para verificar la exactitud de la información facilitada. Para ello el Tribunal toma como base la definición de la elaboración de perfiles que realiza el art. 4.4 del Reglamento General de Protección de Datos [22] y la obligación de transparencia establecida en el art. 12 del mismo, que obliga a que la información no sólo sea transparente, sino que también sea inteligible, de fácil acceso y aportada en lenguaje claro y sencillo. Y esta obligación se mantiene con independencia de que los datos provengan del interesado (art. 13.2.f) o no (art. 14.2.g), viniendo obligado el sujeto que utiliza los datos en ambos casos a facilitar al interesado información sobre la existencia de decisiones automatizadas, incluida información sobre la lógica aplicada a tal toma de decisiones.

De esta forma el TJUE, en un pronunciamiento no directamente vinculado al ámbito laboral, ofrece una vía para el control del uso de algoritmos en el ámbito de las relaciones laborales, al establecer la aplicabilidad a todos los algoritmos que utilicen datos personales del RGPD. Esto incluye las previsiones del art. 15.1.h) en cuante al derecho de acceso del interesado a información sobre la existencia de decisiones automatizadas e información sobre la lógica aplicada; las del art. 22.1 en cuanto al derecho a no ser objeto de una decisión basada únicamente en el tratamiento automatizado de datos (si bien con la salvedad del apartado c) de este punto 1 en cuanto al consentimiento explícito del interesado); la reiteración del derecho a intervención humana por parte del responsable (art. 22.3); etc…

La decisión del TJUE de considerar aplicable el RGPD implica también las previsiones de los artículos 54 y 58: la necesidad de contar con una autoridad de control con derecho de acceso a todos los datos necesarios para el ejercicio de ese control. Y es esta una vía que podría extenderse al ámbito de las relaciones laborales, estableciendo una suerte de controlador de los algoritmos utilizados por las entidades mercantiles para la gestión de sus Recursos Humanos.

Un planteamiento que sería plenamente respetuoso con las previsiones de la Directiva 2016/943 [23] , en cuanto ya se contiene en el considerando 35 de su texto la necesidad de:

respeto de la vida privada y familiar y a la protección de los datos personales de toda persona cuyos datos personales puedan ser tratados por el poseedor de un secreto comercial cuando se tomen medidas para la protección del secreto comercial, o de toda persona implicada en un proceso judicial relativo a la obtención, utilización o revelación ilícitas de secretos comerciales.

Así, en este considerando se señala que los derechos reconocidos por la Directiva de protección de conocimientos técnicos e información empresarial no deben afectar a los derechos del interesado a acceder a sus datos personales que sean objeto de tratamiento, incluyendo el derecho a obtener la rectificación, supresión o bloqueo de los datos debido a su carácter incompleto o inexacto.

Pero no sólo en la Directiva se sostiene este derecho, el artículo 31 de la Carta de Derechos Fundamentales de la Unión Europea señala que todo trabajador tiene derecho a trabajar en condiciones que respeten su salud, seguridad y dignidad, y el respeto a la dignidad también se construye con el conocimiento de la forma en la que se toman las decisiones en el ámbito laboral.

3. Los intentos de control en el ámbito europeo  ^ 

Como se ha visto, son múltiples los instrumentos de la Unión Europea, ya sean normativos o no, que tratan el acceso algorítmico como derecho de los trabajadores o sus representantes como vía de control de la legalidad en su uso.

El citado artículo 31 de la Carta de Derechos Fundamentales de la Unión Europea determina el derecho de todo trabajador a trabajar en condiciones que respeten su salud, seguridad y dignidad, y el principio nº 5 del pilar europeo de derechos sociales, proclamado en Gotemburgo el 17 de noviembre de 2017, dispone que, con independencia del tipo y la duración de la relación laboral, los trabajadores tienen derecho a un trato justo y equitativo en materia de condiciones de trabajo. En desarrollo de estos preceptos se promulgó la Directiva (UE) 2019/1152, relativa a unas condiciones laborales transparentes y previsibles en la Unión Europea [24] .

El considerando cuarto de esta norma señala la necesidad de que los trabajadores dispongan de información completa sobre sus condiciones de trabajo esenciales, información que debe facilitarse a su debido tiempo, por escrito y con una forma que cumpla con la obligación de fácil acceso. De esta forma, el artículo uno señala como uno de sus objetivos “mejorar las condiciones de trabajo mediante la promoción de un empleo que ofrezca transparencia”. No es descabellado considerar que la información mínima sobre la relación laboral que determina el artículo 4 de la Directiva 2019/1152 incluye los elementos algorítmicos para la determinación del salario o para la determinación de la jornada, en base al contenido de los apartados 2.k) y 2.m), y por las continuas referencias de la Directiva a la transparencia, derecho a la información, previsibilidad mínima del trabajo,… Puesto que una de sus pretensiones confesas es “definir un marco de condiciones laborales previsibles integrando instrumentos efectivos de lucha contra la precariedad laboral y, por extensión, que permitan enfrentarse con garantías a los cambios en el proceso de transformación digital en ciernes” [25] .

Esta es la interpretación que ha amparado la regulación italiana, en concreto el Decreto Legislativo de 27 de junio de 2022, n. 104 [26] , que desde 2022 obliga a los empleadores a declarar el uso de sistemas de gestión automatizada en cualquier aspecto de la relación laboral, acercamiento a la necesidad de transparencia que podría ser seguido por España.

Otros instrumentos como la Declaración Europea sobre los Derechos y Principios Digitales para la Década Digital (enero 2023) [27] , al referirse a las Condiciones de trabajo justas, señala como objetivo:

garantizar el respeto de los derechos fundamentales de los trabajadores en el entorno digital, incluidos su derecho a la privacidad, el derecho de asociación, el derecho de negociación y acción colectiva […]; […] garantizar que el uso de la inteligencia artificial en el lugar de trabajo sea transparente […]; […] garantizar, en particular, que las decisiones importantes que afecten a los trabajadores cuenten con supervisión humana.

Como se ha señalado [28] , esta regulación ofrece una decidida apuesta en defensa de los principios de transparencia, no discriminación, seguridad y privacidad en el uso de herramientas en el entorno digital.

En el ámbito del Consejo de Europa, la Recomendación de 2021 [29] advierte que:

Todos los sistemas automatizados de toma de decisiones están diseñados por humanos y tienen cierto grado de participación humana en su funcionamiento […]. Los responsables en última instancia de cómo un sistema recibe sus entradas (por ejemplo, quién recoge los datos que se alimentan a un sistema), cómo se utiliza y cómo se interpretan sus resultados y se actúa en consecuencia son personas. […] El uso de sistemas automatizados de toma de decisiones basados en tecnologías de IA plantea riesgos adicionales por los posibles errores y sesgos […]. El diseño, el desarrollo y la puesta en marchade sistemas de toma de decisiones automatizados basados en IA requieren una atención especial y continua en cuanto a los riesgos generados.

Estrictamente en el ámbito laboral, uno de los primeros acercamientos normativos al control del uso de algoritmos se encuentra en el Reglamento (UE) 2016/679 [30] , al señalar como uno de sus objetivos el evitar el menoscabo de los derechos de los trabajadores que se pudiera producir en el sometimiento de los datos personales y profesionales del trabajador a tratamiento automatizado por medio de algoritmos [31] . A estos efectos, el art. 4.2 del Reglamento define tratamiento de datos como

cualquier operación o conjunto de operaciones realizadas sobre datos personales o conjuntos de datos personales, ya sea por procedimientos automatizados o no, como la recogida, registro, organización, estructuración, conservación, adaptación o modificación, extracción, consulta, utilización, comunicación por transmisión, difusión o cualquier otra forma de habilitación de acceso, cotejo o interconexión, limitación, supresión o destrucción.

Definido lo que considera tratamiento de datos de una forma tan amplia, y estableciendo su considerando 58 que “El principio de transparencia exige que toda información (relativa al tratamiento de dichos datos) dirigida […] al interesado (trabajador) sea concisa, fácilmente accesible y fácil de entender, y que se utilice un lenguaje claro y sencillo”, y que el “tratamiento (de datos) debe estar sujeto a las garantías apropiadas, entre las que se deben incluir la información específica al interesado (trabajador) y el derecho a obtener intervención humana” (considerando 71). Completa sus previsiones en materia de transparencia con el art. 12.1 cuando determina que “El responsable del tratamiento [empresario] […] facilitará al interesado [trabajador] toda información […] en forma concisa, transparente, inteligible y de fácil acceso, con un lenguaje claro y sencillo”y que la información se referirá a “la existencia de decisiones automatizas, incluida la elaboración de perfiles […] y, al menos en tales casos, información significativa sobre la lógica aplicada, así como la importancia y las consecuencias previstas de dicho tratamiento para el interesado” (arts. 13.2.f; 14.2.g y 22, 1 y 4).

De esta forma, eleva el principio de transparencia y establece que la información no sólo debe remitirse, sino que tiene que hacerse en condiciones en que sea fácilmente inteligible, es decir, debe ser información concisa, transparente y de fácil acceso, con lenguaje claro y sencillo (art. 12.1); incluyendo información significativa sobre la lógica aplicada en el tratamiento de datos.

Como figura encargada de ejercer tal control, el Reglamento regula la creación del “delegado de protección de datos” (arts. 37-39), entre cuyas funciones se incluye la supervisión del cumplimiento de las obligaciones que este instrumento implementa.

Pero además impone el control humano en la toma de decisiones, determinando que todo trabajador “interesado tendrá derecho a no ser objeto de una decisión basada únicamente en el tratamiento automatizado, incluida la elaboración de perfiles, que produzca efectos jurídicos en él o le afecte significativamente de modo similar”, art. 5 y 22.3.

Es evidente que este Reglamento tiene un amplio ámbito de aplicación en las relaciones laborales, delimitado en el art. 88.1.d) como inclusivo de la “contratación de personal, ejecución del contrato laboral, incluido el cumplimiento de las obligaciones establecidas por la ley o por el convenio colectivo, gestión, planificación y organización del trabajo, igualdad y diversidad en el lugar de trabajo, salud y seguridad en el trabajo, protección de los bienes de empleados o clientes, así como a efectos del ejercicio y disfrute, individual o colectivo, de los derechos y prestaciones relacionados con el empleo y a efectos de la extinción de la relación laboral”, señalando el art. 88.2 la necesidad de prestar una “especial atención a la transparencia del tratamiento […] de los datos personales en el ámbito laboral y sobre “los sistemas de supervisión en el lugar de trabajo”.

Recientemente, la regulación europea en la materia se ha ampliado con el esperado Reglamento (UE) 2024/1689 del Parlamento Europeo y del Consejo, de 13 de junio de 2024, por el que se establecen normas armonizadas en materia de inteligencia artificial y por el que se modifican los Reglamentos (CE) nº 300/2008, (UE) nº 167/2013, (UE) nº 168/2013, (UE) 2018/858, (UE) 2018/1139 y (UE) 2019/2144 y las Directivas 2014/90/UE, (UE) 2016/797 y (UE) 2020/1828 (Reglamento de Inteligencia Artificial), que establece como su objeto:

“Promover la adopción de una inteligencia artificial (IA) centrada en el ser humano y fiable, garantizando al mismo tiempo un alto nivel de protección de la salud, la seguridad y los derechos fundamentales consagrados en la Carta de los Derechos Fundamentales de la Unión Europea (la «Carta»), incluidos la democracia, el Estado de Derecho y la protección del medio ambiente, proteger contra los efectos nocivos de los sistemas de IA en la Unión y apoyar la innovación».

Como se indica en Reglamento,

los sistemas de IA utilizados en el empleo, la gestión de los trabajadores y el acceso al trabajo por cuenta propia, en particular para la contratación y selección de personas, para la toma de decisiones que afectan a las condiciones de la relación laboral, la promoción y la rescisión de las relaciones contractuales laborales, para la asignación de tareas en función del comportamiento individual, los rasgos o características personales y para la supervisión o evaluación de personas en relaciones contractuales laborales, también deben clasificarse como de alto riesgo, ya que esos sistemas pueden tener un impacto apreciable en las perspectivas profesionales futuras, los medios de vida de esas personas y los derechos de los trabajadores. (...) A lo largo del proceso de contratación y en la evaluación, promoción o retención de personas en relaciones contractuales laborales, dichos sistemas pueden perpetuar patrones históricos de discriminación, por ejemplo, contra las mujeres, determinados grupos de edad, las personas con discapacidad o las personas de determinados orígenes raciales o étnicos u orientación sexual.

Por lo tanto, como se establece en el anexo III, en relación con el artículo 6, el empleo, la gestión de los trabajadores y el acceso al trabajo por cuenta propia se consideran cuestiones de alto riesgo en materia de IA, lo que significa que se debe establecer, aplicar, documentar y mantener un sistema de gestión de riesgos (artículo 9). La intención de este Reglamento es minimizar los riesgos que el propio Reglamento admite como existentes: es decir, los sistemas de elaboración de perfiles y los sesgos en la configuración de los propios sistemas de IA. Pero, en cuanto a la determinación o gestión de las condiciones laborales mediante sistemas de Inteligencia Artificial de alto riesgo, este Reglamento no entraba en vigor hasta el 2 de agosto de 2026, por lo que hasta tal fecha no se exigirían obligaciones empresariales reforzadas en materia de transparencia, supervisión y derechos laborales, por la propia definición como “de alto riesgo” de los sistemas de Inteligencia Artificial que afectan al empleo, incluidos aquellos que participan en la toma de decisiones sobre condiciones laborales. Mas adelante se explicitará la causa del uso de la forma imperfecta en cuanto a la entrada en vigor de esta parte de la normativa.

En cuanto a la relación laboral contractual individual, considera sistemas con alto riesgo (Considerando 57 y Anexo III RIA), los sistemas de IA que afectan al ámbito del “Empleo” (Anexo III.4 IA), concretándolos en los que se utilizan tanto para seleccionar personal en general (Anexo III.4 IA), como para seleccionar al personal laboral con “biometría” en particular (Anexo III.1 RIA). Y ello por su incidencia en “la gestión de los trabajadores” (Anexo III.4 RIA) operando en los tres momentos cruciales del desarrollo del contrato de trabajo: la contratación (Anexo III.4a RIA); la gestión de la relación laboral en lo referido a la toma de “decisiones que afecten a las condiciones de las relaciones de índole laboral”, “la promoción”, “la asignación de tareas a partir de comportamientos individuales o rasgos o características personales” y, “la supervisión y evaluación del rendimiento y el comportamiento de las personas” (Anexo III.4b RIA); y la rescisión de las relaciones laborales (Anexo III.4b RIA), ya sea mediante extinciones o despidos tanto individuales como colectivos [32] .

En lo referente a estos sistemas de alto riesgo, el art. 26 ordena las “Obligaciones de los responsables del despliegue de sistemas de IA de alto riesgo”, entre las que están:

Y a estas obligaciones se les añaden otras propias de los empresarios que utilicen “determinados sistemas de IA” que tienen un mayor riesgo potencial, con obligaciones más exigentes sobre la “transparencia” de su uso y funcionamiento (art. 50.3 RIA), información, que se facilitará a las personas físicas de “manera clara y distinguible a más tardar con ocasión de la primera interacción o exposición” (art. 50.5 RIA).

La inclusión en el concepto de sistemas de Inteligencia Artificial de alto riesgo (art. 6.2) comporta otras obligaciones específicas como la evaluación previa de conformidad antes de su uso (arts. 16 y 43), el registro público en la base de datos europea de sistemas de IA de alto riesgo (art. 60), documentación técnica, trazabilidad, explicabilidad y transparencia de los sistemas utilizados (arts. 11 a 16), así como ofrecer una información clara y comprensible a las personas afectadas y a sus representantes (art. 13).

Los incumplimientos de previsiones tales como la evaluación de conformidad, el registro, la documentación técnica, la supervisión humana, la trazabilidad o la transparencia informativa, tal y como regula el art. 99.3 del Reglamento, pueden alcanzar hasta los 15 millones de euros o el 3% del volumen de negocio global para infracciones graves, si bien con la posibilidad de evaluar las circunstancias concurrentes (art. 99.7) tales como “si otras autoridades han impuesto ya multas administrativas al mismo operador por infracciones de otros actos legislativos nacionales o de la Unión, cuando dichas infracciones se deriven de la misma actividad u omisión que constituya una infracción pertinente del presente Reglamento”.

En cuanto a la interpretación de esta norma, a la espera de pronunciamientos del TJUE al respecto, las Directrices de la Comisión sobre prácticas prohibidas de inteligencia artificial [33] -no vinculantes-, responden al mandato del artículo 96.1.b) del Reglamento y aumentan la claridad jurídica, proporcionando información sobre la interpretación que hace la Comisión de las prohibiciones del artículo 5, con vistas a garantizar su aplicación coherente, efectiva y uniforme [34] .

Esta regulación se encuentra perfectamente alineada con el posterior informe de la OECD [35] , que establece como Objetivos del Plan Coordinado fortalecer el ecosistema europeo de IA mediante la inversión compartida y la colaboración; garantizar una IA ética y fiable, en consonancia con los valores de la UE e impulsar la competitividad, salvaguardando al mismo tiempo los derechos y las protecciones sociales propios de la Unión.

Por eso resulta tan sorprendente la actual propuesta de retraso en la implementación de los controles de los sistemas de alto riesgo. Motivado por el hecho de que a estas alturas de 2025 (diciembre) aún no se han publicado los estándares de lo que se considera utilización aceptable de estas herramientas, se está tramitando un retraso en la aplicación de tales límites hasta diciembre de 2027, tal y como ha confirmado la vicepresidenta de la Comisión para Soberanía Tecnológica, Henna Virkkunen [36] . Esto supone un retraso aún mayor que el previsto en la propuesta del Reglamento Omnibus Digital [37] publicada el 19 de noviembre de 2025, que preveía un retraso de un año, hasta agosto de 2027.

En relación con esta propuesta normativa, contiene otros apartados que también merecen un análisis, así prevé la revisión o flexibilización de requisitos de transparencia; la reducción de las obligaciones pedagógicas, e incluso inicia un debate propuesto por varios Estados miembros, para pausar los plazos de cumplimiento del Reglamento de Inteligencia Artificial. El único reforzamiento del control que prevé es el del papel de la Oficina Europea de IA, instando una supervisión centralizada en Bruselas que reduzca las diferencias interpretativas entre Estados.

Conforme establece el texto de la propuesta, la intención del Reglamento Omnibus Digital (COM(2025) 837 final) es simplificar y consolidar el marco legislativo digital de la UE, entendiendo que la actual fragmentación en múltiples cuerpos normativos dificulta el cumplimiento del marco regulatorio, que además entiende que es excesivamente gravoso. Para ello, pretende la racionalización de la legislación vigente mediante su modificación y refundición en un único texto comprensivo de toda la reglamentación en la materia, derogando instrumentos que se han demostrado obsoletos, aclarando las normas para las empresas y ciudadanos y eliminando las duplicidades y contradicciones actuales. La exposición de la propuesta determina que su objetivo es incrementar la competitividad, agilizando los procedimientos y simplificando el cumplimiento normativo para las empresas que operan en el mercado digital de la UE.

En concreto, y tal y como establecen los Anexos de la Propuesta del Reglamento Omnibus Digital, este tiene como objeto modificar las siguientes normas para armonizarlas en un marco simplificado: el Reglamento general de protección de datos (RGPD – Reglamento (UE) 2016/679); el Reglamento sobre la pasarela digital única (UE 2018/1724); el Reglamento sobre la protección de datos para las instituciones de la UE (UE 2018/1725); la Ley de datos (UE 2023/2854); la Directiva NIS2 (UE 2022/2555), la Directiva sobre la resiliencia de las entidades críticas (UE 2022/2557) y la Directiva sobre la privacidad electrónica (2002/58/CE).

Así como derogar el Reglamento (UE) 2018/1807 relativo a la libre circulación de datos no personales; el Reglamento (UE) 2019/1150 sobre las relaciones entre plataformas y empresas, el Reglamento (UE) 2022/868, Ley de gobernanza de datos y la Directiva (UE) 2019/1024 sobre datos abiertos, derogación que nuevamente pretende eliminar duplicidades, integrando sus disposiciones en la normativa modificada.

Resulta llamativo que esta propuesta se realice simultáneamente con la publicación del Informe de la OIT sobre Inteligencia Artificial en la gestión de personas [38] , que aboga por una regulación más estricta de la gestión algorítmica, incluidos los requisitos de transparencia, tanto en cuanto a la necesaria participación de los trabajadores y los sindicatos en el diseño y la supervisión de los sistemas de IA; como en lo imperativo de la realización de auditorías de sesgos en los conjuntos de datos y los algoritmos para detectar y corregir patrones discriminatorios, subrayando la necesidad de reforzamiento de las normas éticas en la utilización de la inteligencia artificial.

Y más provocativa resulta la coexistencia de estas propuestas con el reciente llamamiento del Comité de Empleo y Asuntos Sociales del Parlamento Europeo de 11 de noviembre de 2025 para requerir a la Comisión Europea a introducir una norma vinculante que regule el uso de las tecnologías algorítmicas, incluyendo la Inteligencia Artificial, en los lugares de trabajo europeos [39] .

Esta iniciativa legislativa, reiteraba parte de las consideraciones del Reglamente de Inteligencia Artificial, señalando tanto la obligatoriedad de que todas las decisiones tomadas o respaldadas por sistemas de gestión algorítmica estén sujetas a supervisión humana, aspecto que incluye la posibilidad de los trabajadores de solicitar explicaciones sobre las decisiones tomadas o respaldadas por la gestión algorítmica como que las decisiones finales sobre el inicio o la terminación de una relación laboral, la renovación o no renovación de un contrato, los cambios en la remuneración o las medidas disciplinarias deben ser tomadas por un ser humano.

Otro de los aspectos que incluía es el referido a la transparencia y derecho a la información, aspecto en el cual los parlamentarios instan a que se informe a los trabajadores sobre cómo estos sistemas afectan a las condiciones de trabajo, cuándo se utilizan para tomar decisiones, qué tipo de datos recopilan o procesan y cómo se garantiza la supervisión humana. Se establecía además un derecho de los trabajadores a formación sobre cómo manejar estos sistemas y el deber de consulta sobre las decisiones relativas a la remuneración, la evaluación, la asignación de tareas o el tiempo de trabajo tomadas con el apoyo de los sistemas de gestión algorítmica.

El tercer pilar de esta iniciativa era la protección de los datos de los trabajadores, instando la prohibición del tratamiento de datos relacionados con el estado emocional, psicológico o neurológico de los trabajadores, las comunicaciones privadas, los datos de los trabajadores fuera del horario laboral, el seguimiento de la geolocalización en tiempo real fuera del horario laboral y el uso de datos relacionados con la libertad de asociación y la negociación colectiva.

Con esta base, la propuesta legislativa, tras efectuar un análisis detallado de los principales instrumentos jurídicos vigentes —los ya señalados Reglamento general de protección de datos, Ley de Inteligencia Artificial, el acervo laboral, la Directiva de condiciones transparentes y la Directiva sobre el trabajo en plataformas — señalaba la existencia de lagunas normativas referidas al ámbito de aplicación personal y material de las herramientas digitales, los derechos de información, consulta y transparencia, la supervisión humana y el derecho a la explicación, la evaluación ex ante, la protección de datos, la privacidad y la discriminación. Y proponía tres opciones de actuación: una recomendación no vinculante, enmiendas a la legislación existente, o una nueva iniciativa legislativa específica para la gestión algorítmica, propuesta esta última que no parece en absoluto que se pueda ver colmada por la Propuesta de Ley Omnibus Digital.

Pues bien, finalmente el 17 de diciembre de 2025 se aprobó la Resolución del Parlamento Europeo, con recomendaciones destinadas a la Comisión sobre digitalización, inteligencia artificial y gestión algorítmica en el lugar de trabajo denominada configuración del futuro del trabajo [40] (2025/2080(INL)). En esta Resolución se remarca que la digitalización debe estar guiada por principios de uso ético, precaución y enfoque centrado en las personas, dado que la IA debe mejorar las condiciones laborales, no deteriorarlas, y, para ello, es necesario formar a trabajadores y empresas, especialmente pymes, para evitar brechas de capacidad.

Como principales riesgos de la utilización de la IA en el ámbito laboral señala la intensificación del trabajo y la presión por el rendimiento, la pérdida de autonomía, la vigilancia excesiva y la erosión de la privacidad; la existencia de sesgos que puedan causar discriminación algorítmica (especialmente por género, edad, origen, discapacidad); el impacto negativo en salud mental y equilibrio vida-trabajo; la falta de transparencia y la dificultad para entender decisiones automatizadas y el riesgo de desaparición de empleos de entrada al mercado laboral (apartados H a S).

El planteamiento del Parlamento en relación con el uso de IA, teniendo en cuenta que en el ámbito laboral, como en otros, implica la gestión de grandes volúmenes de datos personales, parte de exigir el cumplimiento estricto del RGPD, de considerar no válido el puro consentimiento en relaciones laborales, al entender que el desequilibrio de poder entre las partes limita la libertad y que puede ser un consentimiento viciado; recalca la necesidad de supervisión humana real y efectiva de todas las tomas de decisión y la prohibición de prácticas intrusivas (datos biométricos, emocionales, geolocalización fuera del horario laboral, comunicaciones privadas, etc.) (apartados B, H, I, J, K, 1 y 2).

Con este planteamiento, el Anexo de la Resolución del Parlamento, referido a las recomendaciones respecto al contenido de la propuesta legislativa solicitada a la Comisión, requiere que ésta tenga un ámbito amplio, aplicable a todos los trabajadores, incluidos los de plataformas y los contratados por intermediarios (apartados 1 y 2). Y, en cuanto a su contenido, aspira a que las obligaciones de transparencia obliguen a los empleadores a informar por escrito sobre los sistemas algorítmicos que utilizan, las decisiones que automatizan, los datos que recogen y la supervisión humana existente (apartado 3). Y todo ello señalando cómo su utilización afecta al empleo.

En este ámbito de la transparencia obligatoria, señala la imperatividad de un período de consultas antes de introducir o modificar sistemas que afecten a la remuneración, evaluación del desempeño, asignación de tareas, tiempo de trabajo y seguridad y salud (apartado 5). Y señala como prácticas prohibidas la utilización de datos emocionales, psicológicos o biométricos, la vigilancia fuera del horario laboral, la utilización de datos destinados a predecir el ejercicio de derechos fundamentales y de los datos clasificados como sensibles en el art. 9 RGPD (apartados H, J y K).

Otra de las cuestiones en las que hace mucho hincapié esta propuesta es en la necesidad de supervisión humana real de todas las decisiones esenciales, añadiendo el derecho de los trabajadores a solicitar explicaciones y revisiones de tales decisiones, incluyendo la obligación de modificar o retirar los sistemas que se acredite que vulneran derechos (apartados 1 y 2 del Anexo). Y esto implica una evaluación de riesgos específica para IA y algoritmos y la implementación de medidas de mitigación obligatorias (apartado H).

En cuanto a la forma de realizar tales controles, establece funciones de supervisión para los cuerpos nacionales de Inspección de Trabajo, que deberán recibir recursos y formación técnica (apartados J, Q y R).

A modo de fórmula de cierre de la Propuesta se establece una cláusula de no regresión, explicitando que la nueva normativa no puede reducir derechos ya existentes (apartados B y 2).

Lo imperativo del establecimiento de esta regulación propia y específica del uso de sistemas algorítmicos en el ámbito laboral tiene su base en los datos arrojados por la Encuesta de condiciones de trabajo europeas de 2025 (EUROFUND, 2025), que señala que alrededor del 42.3 % de los trabajadores de la Unión Europea pueden estar ya sometidos a la gestión algorítmica en su prestación de servicios, previendo un incremento de esta cifra hasta el 55,5% en los próximos 5 años.

Frente a estos datos de utilización, los ofrecidos por la Agencia Europea para la Seguridad y la Salud en el Trabajo, que, en la Cuarta encuesta europea sobre riesgos nuevos y emergentes (EU-OSSHA, 2024) señalaba que solo el 14,5 % de las empresas declaraban utilizar la gestión algorítmica en el ámbito laboral y que establece un claro vínculo entre la utilización de estos sistemas y el incremento de riesgos psicosociales.

4. El marco de control en la norma española  ^ 

Al igual que ocurre en el ámbito europeo, las referencias al derecho al acceso de datos que puedan ser utilizados en materia de gestión de personal se pueden encontrar en múltiples instrumentos jurídicos en el seno del ordenamiento jurídico español.

Sin ánimo de exhaustividad, se puede hacer referencia a los artículos 33 a 39 de la Ley 31/1995, de 8 de noviembre, de Prevención de Riesgos Laborales, que regulan la participación e información de los representantes de los trabajadores en materia de riegos laborales, estableciendo que “El empresario deberá consultar a los trabajadores, con la debida antelación, la adopción de las decisiones relativas a […] [la] planificación y la organización del trabajo en la empresa y la introducción de nuevas tecnologías” (art. 33.3); al art. 41 de la Ley 40/2015, de 1 de octubre, de Régimen Jurídico del Sector Público, que establece que

“Se entiende por actuación administrativa automatizada, cualquier acto o actuación realizada íntegramente a través de medios electrónicos por una Administración Pública en el marco de un procedimiento administrativo y en la que no haya intervenido de forma directa un empleado público» y que «en caso de actuación administrativa automatizada deberá establecerse previamente el órgano u órganos competentes, según los casos, para la definición de las especificaciones, programación, mantenimiento, supervisión y control de calidad y, en su caso, auditoría del sistema de información y de su código fuente”; al artículo 23 de la Ley 15/2022, de 12 de julio, integral para la igualdad de trato y la no discriminación, que prevé que “Las administraciones públicas, en el marco de sus competencias en el ámbito de los algoritmos involucrados en procesos de toma de decisiones, priorizarán la transparencia en el diseño y la implementación y la capacidad de interpretación de las decisiones adoptadas por los mismos” [41] .

Entre los instrumentos sin carácter normativo, la Carta de los Derechos Digitales de 24 de julio de 2021 [42] , que dedica su apartado 4 a tratar de los Derechos en el ámbito laboral y a la empresa en el entorno digital, señalando, entre otras consideraciones sobre la información de los algoritmos:

La representación legal de las personas trabajadoras tiene derecho a ser informada con la debida antelación sobre los cambios tecnológicos que vayan a producirse; […] La negociación colectiva podrá […] vehicular la participación de las personas trabajadoras en los procesos de transformación digital y en la determinación de las consecuencias laborales que la misma pueda implicar; […] Se informará y formará debidamente a las personas trabajadoras respecto de las condiciones de uso de los entornos digitales destinados a la prestación laboral.” Y expresamente que: “Del uso de tales dispositivos o herramientas se informará a la representación legal de las personas trabajadoras. Esta información alcanzará los parámetros, reglas e instrucciones en los que se basan los algoritmos o sistemas de inteligencia artificial que afectan a la toma de decisiones que pueden incidir en las condiciones de trabajo, el acceso y mantenimiento del empleo.

Y recientemente, la incorporación del art. 64.4.d) de Estatuto de los Trabajadores [43] del Derecho de los representantes de los trabajadores a “ser informado por la empresa de los parámetros, reglas e instrucciones en los que se basan los algoritmos o sistemas de inteligencia artificial que afectan a la toma de decisiones que pueden incidir en las condiciones de trabajo, el acceso y mantenimiento del empleo, incluida la elaboración de perfiles , mediante la reforma operada por la Ley 12/2021 [44] , que pretende hacer frente a las nuevas realidades derivadas de la irrupción algorítmica en las relaciones laborales. Así, la propia exposición de motivos de la norma que introduce este precepto determina que “no podemos ignorar la incidencia de las nuevas tecnologías en el ámbito laboral y la necesidad de que la legislación laboral tenga en cuenta esta repercusión tanto en los derechos colectivos e individuales de las personas trabajadoras como en la competencia entre las empresas” manifestando así mismo “el mayor respeto a los secretos industrial y comercial de las empresas conforme a la normativa, que no se ven cuestionados por esta información sobre las derivadas laborales de los algoritmos u otras operaciones matemáticas al servicio de la organización empresarial.” Y, si bien la Ley 12/2021 tiene como objeto principal la salvaguarda de los derechos de los trabajadores de plataformas digitales, esta ampliación del derecho a la información de los representantes de los trabajadores tiene un carácter mucho más amplio, constituyendo una garantía del derecho de acceso de estos a los procedimientos algorítmicos utilizados en el ámbito de la gestión de personas. Establece así una disposición complementaria del derecho individual recogido en el RGPD, al dotarlo de una dimensión colectiva que lo refuerza [45] .

No existe duda alguna, pese a la norma por la que se introduce este nuevo apartado d) del art. 64.4 ET, del carácter “universal” de este derecho de información, no limitado al ámbito de las plataformas digitales. Tal y como se ha señalado [46] , la inclusión en este precepto tanto de los términos “algoritmo” y “sistema de inteligencia artificial”, así como la delimitación de la obligación de facilitar la información sobre estos instrumentos siempre que “afecten a la toma de decisiones”, incluye un ámbito más amplio del regulado en el art. 22 RGPD (circunscrito a las “decisiones individuales automatizadas”), e implica que la obligación nazca no sólo en el caso de que la decisión haya sido tomada, sino incluso si sólo se ha estudiado pero no se ha adoptado. Por tanto, no es un control de resultado, es un control del propio proceso, aunque las decisiones del sistema automatizado o del algoritmo no lleguen a aplicarse.

Control que pretende que los representantes de los trabajadores puedan conocer la lógica del algoritmo, las reglas e instrucciones que lo rigen y que derivan en la toma de una determinada decisión de carácter laboral, para que así puedan realizar su función de control [47] . Pero este control no incluye el individual del trabajador, sólo el colectivo por sus representantes, habiéndose apuntado [48] la ocasión perdida que supone no haber incluido un derecho individual de información de las personas trabajadoras, aún con los límites que el secreto empresarial pueda establecer, si bien las previsiones de los art. 13 y 14 del Reglamento General de Protección de Datos ya contenían, parcialmente, tal derecho. Inclusión que tiene trascendencia con miras a no dejar absolutamente desprotegidos en este ámbito a los trabajadores que no cuenten con órganos de representación

La amplitud en la redacción del art. 64.4.d) ET permite entender que el control incluye el de los datos que hayan sido utilizados para alimentar el proceso de toma de decisiones automatizadas, puesto que en caso contrario este precepto quedaría totalmente carente de contenido. Así, la referencia a los “parámetros, reglas o instrucciones” en los que se fundamentan estos programas, requiere la transparencia de los datos, pues esta enumeración está formulada en términos ejemplificativos [49] . Supone además la expresa admisión de que las facultades empresariales a las que se refiere el artículo 20 del ET, pueden ser ejercidas por medio de esa gestión algorítmica.

Como se ha apuntado [50] , el temor de que las nuevas tecnologías y, en particular, las combinaciones matemáticas algorítmicas, al servicio exclusivo de la competitividad empresarial, puedan arrojar resultados discriminatorios, aparentemente avalados por la pura objetividad y neutralidad del cálculo matemático debe ser contrarrestado mediante el control del funcionamiento de estos sistemas. Control que no ampara a cualquier algoritmo utilizado en el ámbito empresarial, puesto que no incluye a los algoritmos que no tengan tal potencial decisorio, o que, teniéndolo, no afecte a temas laborales (art. 64.1.2 TRLET). Pero la amplitud del campo en el que los algoritmos pueden ser utilizados en el ámbito laboral, y la concurrencia de normas que pueden amparar la reserva sobre el contenido de algunos de ellos, van a dar lugar a una elevada conflictividad, dado lo genérico de las previsiones de la norma [51] .

Otra cuestión a valorar es la forma en la que se tiene que entregar la citada información, que, conforme a las previsiones del art. 64.6 primer párrafo, deberá ser de una manera y con un contenido apropiados, que permitan a los representantes de los trabajadores proceder a su examen adecuado…” Se pretende, por tanto, que se cumpla el objetivo de la norma: que los representantes de los trabajadores puedan ejercer sus derechos de consulta, negociación colectiva y vigilancia, en materia de algoritmos, es decir, que puedan ejercer real y efectivamente el derecho de participación y control regulados (arts. 64, apartados 4.d, 6 y 7, y 84-92 TRLET; LOLS)

Incluso se ha considerado por algunos autores [52] que la intención del artículo incluye el derecho a que se expliquen las razones a través de las cuales el empresario ha llegado a adoptar la decisión de controlar el comportamiento de los trabajadores a través de algoritmos, al considerar que cuando la norma hace referencia a “los parámetros, reglas e instrucciones en los que se basan”tales procedimientos lo que realmente pretende es que se informe “de los criterios acogidos de la empresa y las razones por las que ha decidido llevarlos a cabo”, aunque los representantes no formen parte de la toma de decisiones. Con la consiguiente dificultad en el caso de que encargue a una empresa externa el desarrollo del sistema.

En todo caso, si bien en los sistemas de “caja negra” [53] el funcionamiento del propio algoritmo es oculto, no es este el único problema para su transparencia. Se pretende que muchos de estos sistemas algorítmicos tengan un potencial de autoevolucionar -algoritmo de aprendizaje continuo [54] - y esto supone que el control sea en muchos casos mera intención, dado que lo único “controlable” será la base sobre al que opera el sistema, pero no su evolución. Por ello, el control en esta fase inicial de implementación tiene gran trascendencia.

Así lo ha entendido el Ministerio de Trabajo en el documento La Información algorítmica en el ámbito laboral Guía práctica y herramienta sobre la obligación empresarial de información sobre el uso de algoritmos en el ámbito laboral publicada en mayo de 2022 [55] , en el que se hace referencia tanto al derecho individual de información contenido en el art. 22 RGPD como al derecho colectivo de información reconocido por el art. 64.4.d) ET, determinando que están sometidas a esa obligación de información todas las empresas que utilicen algoritmos o sistemas de decisión automatizada para la gestión de personas.

En el plano del derecho colectivo de información amparado por el art. 64.4.d), la citada Guía entiende que la referencia a los parámetros, reglas e instrucciones en los que se basan los algoritmos o sistemas de inteligencia artificial debe interpretarse —sin bien admite la falta de consenso técnico sobre los términos del artículo— “como la obligación de la empresa de proporcionar información referente a (a) las variables y los parámetros, entendidos como la importancia relativa de cada variable en la algoritmo; y (b) las reglas e instrucciones, referentes a las reglas de programación que conducen a la toma de la decisión. En esencia, la referencia conjunta a «parámetros, reglas e instrucciones» debe entenderse referida a la lógica, a las características de funcionamiento del algoritmo y a sus consecuencias”.

En cuanto a la información a transmitir, señala que deberá se significativa, clara y simple, y versar sobre la lógica y funcionamiento del algoritmo, incluyendo las variables y parámetros utilizados. Entrando en detalle, incluye:

Pero también incluye la obligación de transmitir información sobre las consecuencias que puedan derivarse de la decisión adoptada mediante el uso de algoritmos o sistemas de decisión automatizada, comprendiendo el impacto que las decisiones adoptadas mediante algoritmos o sistemas de decisión automatizada tienen en materia de igualdad y no discriminación entre mujeres y hombres. Y toda esta información se debe facilitar de forma clara, simple y comprensible para personas sin conocimientos técnicos, sin que aportar información meramente técnica resulte suficiente, por cuanto puede ser información opaca o confusa.

No en el ámbito normativo, pero de evidente trascendencia en la determinación de la amplitud de los derechos algorítmicos y, sobre todo de su control, el Plan Estratégico de la Inspección de Trabajo y Seguridad Social 2025-2027 [56] , que determina en su objetivo 4º que

la introducción de las nuevas tecnologías en el mercado de trabajo, sin perjuicio de los innegables avances que supone, plantea también retos y preocupaciones derivados, entre otros, de la utilización de algoritmos en la toma de decisiones, siendo necesario evitar la presencia en los mismos de sesgos discriminatorios.

Objetivo para cuyo cumplimiento la línea 4.2 señala que

en el marco de las actuaciones inspectoras, se prestará especial atención, en aquellas empresas cuya toma de decisiones venga determinada o influida por el uso de la IA, a la ausencia de sesgos discriminatorios en los respectivos algoritmos, para lo que se podrá contar con la colaboración de aquellos otros organismos públicos con competencias o conocimientos técnicos especializados al respecto.

En todo caso, el acercamiento normativo español al control de los algoritmos parece mas voluntarista que real, dada la ausencia de concreción sobre los medios técnicos que se van a poner a disposición de las autoridades de control, la ausencia de procedimientos concretos para la implementación del control, en suma, dada la falta de precisión que parece dejar el control algorítmico en una mera declaración de intenciones.

5 Pronunciamientos judiciales sobre control algorítmico en españa  ^ 

Resulta llamativo los mínimos resultados que se encuentran en las bases datos utilizando como criterios de búsqueda “transparencia” y “algoritmo”, máxime si se opta por excluir todos aquellos procedimientos relacionados en la laboralidad de los trabajadores en el ámbito de las plataformas digitales.

Una de las pocas sentencias que las bases de datos jurídicas aportan en esta materia es la breve Sentencia del Tribunal Superior de Justicia de Galicia, Sala de lo Social, de 19 de mayo de 2023 [57] , en la que se enjuicia el acceso a un puesto de superior categoría por parte de diversos concurrentes. En la empresa pública en la que se decide la cobertura de vacante temporal por promoción interna existe un sistema automatizado de gestión de competencias, siendo éste el baremo de cálculo que habitualmente se utilizaba para determinar los trabajadores a ascender. En el supuesto de este procedimiento, si bien la actora es la candidata seleccionada por el algoritmo, la entidad decide apartarse de la decisión algorítmica por la previa condición de liberada sindical de la actora. La Sentencia declara que la desviación de la decisión algorítmica sin causa justificada supone discriminación de la actora, concluyendo que existe vulneración de derechos fundamentales. Por tanto, se establece como criterio que, en el caso de existencia de sistemas automatizados de determinación del mejor candidato, la supresión de tal resultado -supuestamente neutral- por decisión “humana”, deberá justificarse suficientemente para no considerarse discriminatorio.

Este pronunciamiento, de reiterarse y ampararse por el Tribunal Supremo, supondrá un evidente impulso a la utilización de algoritmos para la toma de decisiones laborales.

Otro pronunciamiento trascendente es la Sentencia de la Audiencia Nacional, Sala de lo Social, de 4 de julio de 2025 [58] que estima la demanda formulada por los representantes de los trabajadores en una gran empresa del sector del Contact Center, para conocer los parámetros, reglas e instrucciones en los que se basan los algoritmos que posee la empresa y que afectan a las condiciones de la plantilla, así como el sistema algorítmico o automatizado que esta utiliza para la asignación de las libranzas variables a la plantilla. En esta Sentencia la Sala mantiene que forma parte del derecho a la libertad sindical el “derecho de información pasiva”, como información que la empresa viene obligada a facilitar a los representantes de los trabajadores, y dentro de tal información pasiva se encuentra la información algorítmica en materia de gestión de personal. Al haberse negado la empresa condenada a la entrega de tal información (realmente en el asunto enjuiciado negaba hasta la existencia de la gestión algorítmica), se declara que ha vulnerado el derecho a la libertad sindical del sindicato accionante, con condena a cesar en los comportamientos vulneradores, a entregar la información algorítmica y con indemnización reparadora.

Tal y como se ha señalado [59] “la importancia de la transparencia algorítmica no ha hecho más que comenzar” . La misma autora recalca lo sorprendente de que la Audiencia Nacional opte en su Sentencia por no hacer referencia a las previsiones del Reglamento (UE) 2024/1689, Reglamento que evidentemente conecta directamente con la regulación de los artículos 64 ET y 10 LOLS. Y que, tras la entrada en vigor (o no) el 2 de agosto de 2026 de las previsiones en relación con los sistemas de Alto Riesgo, posibilitará la acumulación de las tradicionales sanciones laborales con las nuevas administrativas emanadas de la autoridad de Inteligencia Artificial española que sancionará desde la perspectiva del cumplimiento técnico y normativo del sistema algorítmico, coexistencia de dos regímenes sancionadores que no supondrá bis in idem siempre y cuando las sanciones deriven de normas diferentes y protejan bienes jurídicos distintos.

Con independencia del Reglamento de Inteligencia Artificial, en el momento de la sentencia era de plena aplicación el RGPD y la LOPD, a las que tampoco se nombra, a pesar de la regulación que ambas normas efectúan de los procedimientos de creación de perfiles (art. 22 RGPD) mediante decisiones automatizadas que tengan en consideración evaluaciones de desempeño o preferencias personales, o variables que influyen en la asignación de turnos.

Cavas Martínez [60] , recalca que esta sentencia “supone un avance decisivo en la protección de los derechos colectivos de las personas trabajadoras ante la creciente automatización y gestión algorítmica del trabajo. Se trata de una resolución judicial que refuerza la exigencia de transparencia algorítmica como instrumento indispensable para el desempeño real y efectivo de la labor de acción sindical en el interior de las organizaciones productivas”, opinión compartida por Montoya Medina [61] y Rojo Torrecilla [62] .

Esta sentencia, si bien no las alude, sigue las Directrices sobre decisiones individuales automatizadas y elaboración de perfiles, a los efectos del Reglamento 2016/679, adoptadas por el Centro Europeo de Protección de Datos (CEPD) [63] , que recomiendan al responsable del tratamiento que, “en lugar de ofrecer una compleja explicación matemática sobre cómo funcionan los algoritmos o el aprendizaje automático”, considere “la utilización de formas claras y exhaustivas de ofrecer información al interesado, por ejemplo: (i) las categorías de datos que se han utilizado o se utilizarán en la elaboración de perfiles o el proceso de toma de decisiones; (ii) por qué estas categorías se consideran pertinentes; (iii) cómo se elaboran los perfiles utilizados en el proceso de decisiones automatizadas, incluidas las estadísticas utilizadas en el análisis; (iv) por qué este perfil es pertinente para el proceso de decisiones automatizadas; y (v) cómo se utiliza para una decisión relativa al interesado”.

Este pronunciamiento contribuye a la construcción de lo que Mercader Uguina [64] denomina la “democracia digital en la empresa”.

No estrictamente en el ámbito laboral, pero sí social, la Sentencia 1119/2025 de 11 de septiembre de 2025 de la Sala Tercera del Tribunal Supremo [65] es otro ejemplo de pronunciamiento en el que se implementa el derecho a la transparencia digital. Su trascendencia social hace que sea aconsejable detenerse en su valoración.

En esta resolución se establece el derecho de una Fundación a acceder al código fuente de la aplicación informática BOSCO desarrollada por el Ministerio para la Transición Ecológica para la gestión automatizada de las solicitudes del bono social. Esta aplicación informática constituye el sistema al que las empresas comercializadoras de energía eléctrica acceden para comprobar si los solicitantes del bono social cumplen los requisitos para tener la consideración de consumidor vulnerable y ser beneficiarios, dando lugar por tanto a la toma de decisiones automatizadas sobre el derecho a este beneficio social. Este pronunciamiento determina la prevalencia del derecho de acceso a la información pública sobre el derecho a la propiedad intelectual, y desestima como argumento limitador la alegación de aumento de la vulnerabilidad informática, al entender que la opacidad puede obstaculizar la eficacia de la reclamación a presentar y la detección de eventuales errores.

La doctrina de esta Sentencia tiene un carácter claramente ambiguo, y sin intención de generalidad, al señalar que cuando se emplean sistemas informáticos en la toma de decisiones automatizadas por Administraciones Públicas, esto

debe conllevar exigencias de transparencia de los procesos informáticos seguidos en dichas actuaciones, con el objeto de proporcionar a los ciudadanos la información necesaria para su comprensión y el conocimiento de su funcionamiento, lo que puede requerir, en ocasiones, el acceso a su código fuente, a fin de posibilitar la comprobación de la conformidad del sistema algorítmico con las previsiones normativas que debe aplicar.

Este fallo ha sido celebrado [66] como “un acicate a la mejora de la seguridad de nuestra administración digital, para que la seguridad de todos encuentre el mismo nivel de desarrollo sostenible que la propia digitalización pública y permita a la ciudadanía confiar en el Estado digital del bienestar.”

Transparencia que algunas instituciones, como la Agencia Española de Protección de Datos, han considerado necesaria, publicando el 27 de noviembre de 2025 su Política general para el uso de IA generativa en procesos administrativos de la AEPD [67] .

También de la Sala de lo Contencioso Administrativo del Tribunal Supremo, el Auto de 10 Sep. 2025, Rec. 3998/2025 [68] , admite a trámite el recurso de casación formulado, declarando que la cuestión que presenta interés casacional objetivo para la formación de jurisprudencia consiste en determinar la procedencia -o no- de facilitar el código fuente de la aplicación informática utilizada para el sorteo de tribunales asociado a procesos selectivos para acceder a la función pública en la Comunidad de Madrid.

Si bien escasos, los pronunciamientos judiciales en materia de control algorítmico se están decantando por la transparencia como valor superior, determinando la supremacía de los derechos fundamentales frente a los puros intereses mercantiles, son decisiones por tanto que deben ser celebradas como garantes de los derechos de los trabajadores.

6. Conclusiones  ^ 

El panorama en materia de IA en la Unión Europeo es confuso, y resulta evidente que la regulación de esta materia está siendo terreno de lucha de intereses confrontados. La Unión Europea tiene que decidir si el beneficio económico es suficiente motivo para limitar el control o si los principios inspiradores de la Unión continúan siendo de aplicación, y ello con las evidentes intromisiones tanto de las grandes tecnológicas como de la política internacional.

El mercado único y la globalización demandan una regulación común en el seno de la Unión Europea para garantizar el mismo nivel de protección a todos los trabajadores, mejorar la igualdad de condiciones y aumentar la seguridad jurídica para las empresas, evitando de esta forma la tentación de caer en el dumping social. Por ello, la iniciativa del Parlamento Europeo debe ser acogida muy favorablemente por todos los actores del mercado laboral, si bien de entre sus propuestas de actuación, solo una nueva iniciativa legislativa específica para la gestión algorítmica tendrá la capacidad de colmar las lagunas normativas que surgen en este ámbito.

Pero esta iniciativa resulta incongruente con el retraso hasta diciembre de 2027 en la implementación de los controles de los sistemas de alto riesgo que la Comisión Europea está barajando y con la apariencia de una mayor laxitud que se deriva de la propuesta de Ley Omnibus Digital. En todo caso, creo que se puede decir con claridad que Europa se mueve tarde y lento, y en esta materia la evolución de los sistemas no espera.

En derecho interno, la inclusión del apartado d) en el artículo 64.4 del Estatuto de los Trabajadores ha tenido más de declaración política que de conquista real por parte de los representantes de los trabajadores. La misma información que pretende proporcionar ya estaba amparada por el RGPD. Pese a esta redundancia, a título de constatación de la existencia del derecho de acceso, sea bienvenido.

Pero este carácter ilustrativo es la utilidad que se le puede admitir a tal precepto. La complejidad técnica en la creación y desarrollo de los algoritmos, la dificultad de acceso a los mismos, dado que en muchos casos pueden ser considerados secreto industrial por parte de las empresas, y lo limitado de los medios con los que cuentan la gran mayoría de los representantes de los trabajadores, hacen que el control de los algoritmos no esté a su alcance real.

Pero, posiblemente, tampoco al alcance de los tribunales, al menos, no de los saturados Juzgados de lo Social, que tampoco cuentan con los conocimientos técnicos ni con la posibilidad de acceder a expertos que puedan “traducir” los términos del algoritmo para poder ejercer un control real de éste.

Por ello, la asimetría clásica de la relación laboral se va a ver acrecentada con la generalización del uso de los algoritmos, y la desprotección de los trabajadores se va a incrementar.

Y no sólo la de los trabajadores de grandes empresas que cuentan con los medios económicos para desarrollar sus propios sistemas de gestión mediante el uso de Inteligencia Artificial, sino también los de las pequeñas y medianas empresas. Es previsible que estos sistemas de gestión algorítmica se empiecen a vender de forma mayoritaria, como en su momento se vendieron los sistemas operativos de los ordenadores, haciendo su uso más democrático en cuanto a costes y aumentando el número de trabajadores a los que se les aplican. La desprotección de los trabajadores en tal momento se incrementará.

La obligación establecida en el Reglamento General de Protección de datos, artículos 54 y 58 de contar con una autoridad de control con derecho de acceso a todos los datos necesarios para el ejercicio de ese control, como organismo técnico de carácter independiente que puede valorar los efectos y el funcionamiento de los algoritmos y de los sistemas de Inteligencia Artificial es una vía que requiere un planteamiento serio. A este organismo independiente se le puede dotar de competencias para controlar los algoritmos utilizados por las entidades mercantiles para la gestión de sus Recursos Humanos, con un funcionamiento equivalente al de la Inspección de Trabajo. Sería una suerte de sistema de control colectivo.

Ésta podría ser una de las funciones de la Agencia Española de Supervisión de Inteligencia Artificial [69] creada mediante la Disposición Adicional séptima de la Ley 28/2022, de 21 de diciembre, de fomento del ecosistema de las empresas emergentes, cuadrando además dentro de los fines establecidos para este organismo en tal norma:

a) La concienciación, divulgación y promoción de la formación, y del desarrollo y uso responsable, sostenible y confiable de la inteligencia artificial.

b) La definición de mecanismos de asesoramiento y atención a la sociedad y a otros actores relacionados con el desarrollo y uso de la inteligencia artificial.

c) La colaboración y coordinación con otras autoridades, nacionales y supranacionales, de supervisión de inteligencia artificial.

d) El fomento de entornos reales de prueba de los sistemas de inteligencia artificial, para reforzar la protección de los usuarios.

e) La supervisión de la puesta en marcha, uso o comercialización de sistemas que incluyan inteligencia artificial y, especialmente, aquellos que puedan suponer riesgos significativos para la salud, seguridad y los derechos fundamentales.

Si bien algunos autores han abogado por un órgano paritario para el ejercicio de esta función [70] , no comparto tal postura, puede que, por el conocimiento interno del funcionamiento de los Sindicatos, basado en el compromiso de sus miembros, pero, casi siempre, con medios materiales muy limitados. Entiendo, por tanto, que esta función excede de las capacidades de estas organizaciones, por lo que tal órgano paritario partiría con un desequilibrio de medios técnicos que imposibilitaría un real control de los sistemas auditados. Su participación es necesaria, pero no puede recaer toda la responsabilidad de este control sobre los Sindicatos.

Del mismo modo que no se requiere de los trabajadores ni de los Sindicatos que cuenten con los profesionales necesarios para realizar una investigación de los accidentes laborales de carácter grave, muy grave o mortal, tampoco se puede pretender que estos asuman el control técnico de los sistemas automatizados de gestión de personal. Una autoridad técnica independiente permitiría traducir el algoritmo, sustentar el débil equilibrio entre las posiciones social y empresarial y garantizar la efectividad de los derechos laborales en cuestión.

Este acercamiento es el que ha utilizado Países Bajos para la creación del Registro de Algoritmos del gobierno [71] , en el que las organizaciones gubernamentales neerlandesas publican información sobre los algoritmos que utilizan en su trabajo, centrándose en los algoritmos de gran impacto (incluidos los sistemas de IA de alto riesgo), ofreciendo información transparente sobre cómo funcionan estos algoritmos, si bien de momento no se ha extendido esta obligación a las entidades privadas.

Ante la lentitud en el desarrollo normativo y los retrasos en implementación existentes en el ámbito de la Unión Europea, deberá ser una norma interna la que, al menos de momento, ponga límite al poder del algoritmo, so pena de herir de muerte los derechos laborales. La Inteligencia Artificial en la gestión laboral ya no es futuro, es presente, y su control no puede seguir esperando. Un gran poder conlleva una gran responsabilidad, voluntaria o impuesta.

Bibliografía  ^ 

Álvarez Cuesta, H. (2020). Discriminación de la mujer en la industria 4.0: cerrando la brecha digital. En La discriminación de la mujer en el trabajo y las nuevas medidas legales para garantizar la igualdad de trato en el empleo . Aranzadi Thomson Reuters, Cizur Menor.

Álvarez Cuesta, H. (2023). El impacto de la tecnología en las relaciones laborales: retos presentes y desafíos futuros. Revista Justicia y Trabajo , nº 2, junio 2023, p. 39-59.

Álvarez Robles, T. (2024). La Declaración Europea sobre los Derechos y Principios Digitales para la Década digital. Examen de los principios digitales establecidos por la Unión Europea. Revista Jurídica de les Illes Balears , p. 147-151.

Aragüez Valenzuela, L. D. (2022). La configuración del algoritmo digital, vacíos de justicia y principales desafíos para el Derecho del Trabajo. E-Revista internacional de la protección social , 7 (1), p. 12–29.

Aragüez Valenzuela, L.D. (2023). El papel de los representantes de los trabajadores y la negociación colectiva ante la toma automatizada de decisiones empresariales mediante algoritmos digitales. Revista internacional y comparada de relaciones laborales y derecho del empleo , nº. 1, p. 127-153

Barocas, S. y Selbst, A.D. (2016). Big data’s disparate impact. California Law Review 104 , p. 655-672.

Beltrán de Heredia Ruíz, I. (2022). Nadie da duros a cuatro pesetas (Transparencia algorítmica y representantes de los trabajadores: el nuevo art. 64.4.d ET). En Digitalización, Recuperación y Reformas Laborales, Comunicaciones del XXXII Congreso Anual de la Asociación de Derecho del Trabajo y de la Seguridad Social , Informes, Estudios y Empleo, Ministerio de Trabajo y Economía Social.

Benítez Eyzaguirre, L. (2019). Ética y transparencia para la detección de sesgos algorítmicos de género. Estudios sobre el Mensaje Periodístico , 25, nº. 3.

Berg, J y Johnston, H. (2025). AI in human resource management: The limits of empiricism. ILO working paper nº 154 , ILO.

Bertail, P.; Bounie, D.; Clémençon, S. y Waelbroeck, P. (2019). Algorithmes: biais, discrimination et équité . Tèlécom Paristech, Paris, 15eme edition.

Carey, D. y Smith, M. (2016). How companies are using simulations, competitions, and analytics to hire. Harvard Business Review . https://hbr.org/2016/04/how-companies-are-using-simulationscompetitions-and-analytics-to-hire .

Castets-Renard, C. (2018). Régulation des algorithmes et gouvernance du machine learning: vers une transparence et “explicabilité” des décisions algorithmiques?. Revue Droit&Affaires, 15ème édition.

Castro Argüelles, M. A. (2022). El ejercicio de los poderes empresariales mediante algoritmos. Revista Jurídica de Asturias nº45.

Cavas Martínez, F.(2025).No informar a los representantes sindicales sobre los algoritmos utilizados en la empresa para fijar determinadas condiciones de trabajo vulnera el derecho a la libertad sindical.  Revista de Jurisprudencia Laboral (8 ), p. 1-8 .

Chander, A. (2016). The racist algorithm. Michigan Law Review 115, p- 1019-1026.

Chalfin, A., Oren D., A. Hillis, Z. Jelveh, M. Luca, J. Ludwig, y Mullainathan, S. (2016). Productivity and selection of human capital with machine learning. American Economic Review 106 (5), p. 120-132.

Cremades Chueca, O. (2022). El derecho de información de la representación de los trabajadores sobre los algoritmos y los sistemas de inteligencia artificial en el ordenamiento español: instrumento de protección laboral colectiva en el marco de la tríada protectora del derecho digital del trabajo y la descajanegrización jurídica. En Abadía Selma, A. y García González, G. (coords.). Protección de los trabajadores e inteligencia artificial: la tutela de los derechos sociales en la cuarta revolución industrial , Atelier.

EUROFUND (2025) European Working Conditions Survey 2024: First findings, Publications Office of the European Union, Luxembourg. https://www.eurofound.europa.eu/en/publications/all/european-working-conditions-survey-2024-first-findings#data

EU-OSSHA (2024) https://osha.europa.eu/en/publications/first-findings-fourth-european-survey-enterprises-new-and-emerging-risks-esener-2024

Ginés i Fabrellas, A. (2021). El derecho a conocer el algoritmo: una oportunidad perdida de la “Ley Rider”. IUSLabor, nº. 2, p. 1-12

Goñi Sein, J.L. (2017). Nuevas tecnologías digitales, poderes empresariales y derechos de los trabajadores; análisis desde la perspectiva del Reglamento europeo de protección de datos de 2016. Revista de Derecho Social , nº 78, p. 14-25.

Kim, P. T. (2019). Data-driven discrimination at work. William & Mary Law Review 58, p. 812-826.

Krafft, T. D.; Zweig, K. A. y König, P. D. (2022). How to regulate algorithmic decision-making: A framework of regulatory requirements for different applications. Regulation & Governance , vol. 16, nº 1.

Langer, M., Cornelius J. Konig y M Papathanasiou (2019). Highly automated job interviews: acceptance under the influence of stakes. International Journal of Selection and Assessment . https:// doi.org/10.1111/ijsa.12246 .

Lindebaum, D., Mikko Vesa y den Hond, F. (2019). Insights from the machine stops to better understand rational assumptions in algorithmic decision-making and its implications for organizations. Academy of Management Review , p. 247-266.

Lee, M. K. (2018). Understanding perception of algorithmic decisions: fairness, trust, and emotion in response to algorithmic management. Big Data & Society 5 (1).

McColl, R. y Michelotti, M. (2019). Sorry, could you repeat the question? Exploring videointerview recruitment practice. HRM. Human Resource Management Journal 29 (4), p. 637–656.

McDonald, K., S. Fisher y Connelly, C.E. (2019). e-HRM systems in support of ‘‘smart’’ workforce management: an exploratory case study of system success. Electronic HRM in the Smart Era, p. 87–108.

Mercader Uguina, J.R. (2021). Los “tiempos” de la Directiva (UE) 2019/1152 transparencia y lucha contra la precariedad laboral como objetivos. Documentación Laboral, nº 122, (Ejemplar dedicado a: Actividades de la AEDTSS en tiempos de pandemia), p. 9-22

Mercader Uguina, J. R. (2023). Hacia una democracia digital en la empresa. Labos: Revista de Derecho del Trabajo y Protección Social , volumen 4, nº 2, p. 4-21.

Möhlmann, M. y Zalmanson, L. (2017). Hands on the wheel: navigating algorithmic management and Uber drivers’ Autonomy’, Proceedings of the International Conference on Information Systems (ICIS ), p. 1–17.

Montoya Medina, D. (2025). El deber de informar a los representantes sindicales sobre los algoritmos en la gestión de descansos. A propósito de la SAN de 4 de julio de 2025. Briefs AEDTSS , número 78, https://www.aedtss.com/el-deber-de-informar-a-los-representantes-sindicales-sobre-los-algoritmos-en-la-gestion-de-descansos-a-proposito-de-la-san-de-4-de-julio-de-2025/

Morales Aragón, A. (2025). Prácticas de IA prohibidas en el ámbito laboral. Análisis y posibles soluciones desde la normativa laboral española. LABOS Revista de Derecho del Trabajo y Protección Social , 6 (2), p. 190-206.

Nieto Rojas, P. (2025). Algoritmos, negociación colectiva y actuación inspectora, El Foro de Labos , 21 de octubre de 2025. https://www.elforodelabos.es/2025/10/algoritmos-negociacion-colectiva-y-actuacion-inspectora/

Nogueira Guastavino, M. (2025). Algoritmos opacos, sindicatos desarmados: la libertad sindical frente a la asignación automatizada de turnos. Revista de Jurisprudencia Laboral , nº. 7/2025, p. 1-6.

OECD (2025), Progress in Implementing the European Union Coordinated Plan on Artificial Intelligence (Volume 1): Member States’ Actions , OECD Publishing, Paris.

Palmer Olsen, H., J. Livingston Slosser, T. Hildebrandt y Wiesener, C. (2019). What’s in the Box? The Legal Requirement of Explainability in Computationally Aided Decision-Making in Public Administration. iCourts Working Paper Series nº. 162.

Pérez Amorós, F. (2021). ¿Quién vigila al algoritmo?: los derechos de información de los representantes de los repartidores en la empresa sobre los algoritmos de las plataformas de reparto. e-Revista Internacional de la Protección Social , vol. VI, nº. 1, p. 173–187.

Pérez Amorós, F. (2024). Derecho de información algorítmica de los representantes de los trabajadores en la empresa. Revista Internacional y Comparada de Relaciones Laborales y Derecho del Empleo, vol. 12, nº. 4, octubre-diciembre, p. 140 a 181.

Pérez Amorós, F. (2025). Aspectos laborales del Reglamento (UE) 2024/1689 de 23 de junio de 2024 sobre inteligencia artificial. e-Revista Internacional de la Protección Social , 10 (1), p. 11-37.

Raghavan, Manish, S. Barocas, J. Kleinberg y Levy, K. (2020). Mitigating bias in algorithmic hiring: evaluating claims and practices. Proceedings of the 2020 conference on fairness, accountability, and transparency , p. 469-481.

Rivas Vallejo, P. (2020). La aplicación de la inteligencia artificial al trabajo y su impacto discriminatorio. Thomson Reuters Aranzadi.

Rivas Vallejo, P. (2025). Inclusión del conocimiento del código fuente de sistemas digitales como parte del derecho de acceso a la información en decisiones automatizadas. Revista de Jurisprudencia Laboral (9) , p. 1-11.

Rojo Torrecilla, E. (2025). Empresa que niega el uso de algoritmos en las relaciones de trabajo, y queda probada en juicio su utilización. Vulneración del derecho fundamental de libertad sindical. Notas a la sentencia de la AN de 4 de julio de 2025 (actualización a 16 de julio). En el blog del autor El nuevo y cambiante mundo del trabajo. Una mirada abierta y crítica a las nuevas realidades laborales , miércoles, 9 de julio de 2025, http://www.eduardorojotorrecilla.es/2025/07/empresa-que-niega-el-uso-de-algoritmos.html

Savage, D. y Bales, R.A. (2016). Video games in job interviews: using algorithms to minimize discrimination and unconscious bias. ABA Journal of Labor & Employment Law 32.

Silverman, R. E. y Waller, N. (2018). The algorithm that tells the boss who might quit. Wall Street http://www.wsj.com/articles/the-algorithm-that-tells-the-boss-who-might-quit1426287935 .

Simbeck, K. (2019). HR analytics and ethics. IBM Journal of Research and Development 63 (4/5), p. 1–9.

Solymosi-Szekeres, B. y Prugberger, T, (2024). The growing vulnerability of workers, reflections at the first Hungarian platform case, Studia Juridica et Politica Jaurinensis (2064-5902): 11 1 p. 3-18 https://studia.sze.hu/the-growing-vulnerability-of-workers-reflections-at-the-first-hungarian-platform-case

Solymosi-Szekeres, B. (2024). Discrimination hustle culture and quiet quitting - Trends between young workers in the era of digital work. Hungarian Labour Law: E-Journal (2677-1586): 11 2 p. 19-30 / https://hllj.hu/letolt/2024_2_a/02_SolymosiSzekeres_hllj_uj_2024_2.pdf

Suen, H.-Y., Mavis Yi-Ching, C. y Shih-Hao, L. (2019). Does the use of synchrony and artificial intelligence in video interviews affect interview ratings and applicant attitudes?. Computers in Human Behavior 98, p. 93–101.

Suresh, H. y Guttag, J. V. (2019). A framework for understanding unintended consequences of machine learning. En EAAMO 2021: Equity and Access in Algorithms, Mechanisms, and Optimization , p. 1-9.

Woods, S. A., S. Ahmed, Ioannis Nikolaou, A. C. Costa y Anderson, N. R. (2020). Personnel selection in the digital age: a review of validity and applicant reactions, and future research challenges. European Journal of Work and Organizational Psychology 29 (1), p. 64–77.

Zuiderveen Borgesius, F. (2018). Discrimination, intelligence artificielle et décisions algorithmiques . Direction générale de la Démocratie, Consejo de Europa, Estrasburgo, 2018, p. 16-17.


[1] Zuiderveen Borgesius, F. (2018). Discrimination, intelligence artificielle et décisions algorithmiques. Direction générale de la Démocratie, Consejo de Europa, p. 16-17.

[2] Krafft, T. D., Zweig, K. A. y König, P. D. (2022). How to regulate algorithmic decision-making: A framework of regulatory requirements for different applications. Regulation & Governance , 16(1).

[3] Solymosi-Szekeres, B. y Prugberger, T. (2024). The growing vulnerability of workers: Reflections at the first Hungarian platform case. Studia Juridica et Politica Jaurinensis , 11(1), p. 3–18.

[4] https://www.hirevue.com/ Recuperado 22/10/2025

[5] Álvarez Cuesta, H. (2020). “Discriminación de la mujer en la industria 4.0: Cerrando la brecha digital”. En La discriminación de la mujer en el trabajo y las nuevas medidas legales para garantizar la igualdad de trato en el empleo . Aranzadi Thomson Reuters.

[6] Bertail, P., Bounie, D., Clémençon, S. y Waelbroeck, P. (2019). Algorithmes: biais, discrimination et équité. Télécom ParisTech, Paris.

[7] Pérez Amorós, F. (2024). Derecho de información algorítmica de los representantes de los trabajadores en la empresa, Revista Internacional y Comparada de Relaciones laborales y Derecho del empleo , Volumen 12, número 4, octubre-diciembre de 2024, p. 160.

[8] Solymosi-Szekeres, B. (2024). Discrimination hustle culture and quiet quitting: Trends between young workers in the era of digital work. Hungarian Labour Law: E-Journal (2677-1586): 11 2 p. 19-30.

[9] Benítez Eyzaguirre, L. (2019). Ética y transparencia para la detección de sesgos algorítmicos de género. Estudios sobre el Mensaje Periodístico ,25, 3.

[10] Möhlmann, M., y Zalmanson, L. (2017). Hands on the wheel: Navigating algorithmic management and Uber drivers . En Autonomy, Proceedings of the International Conference on Information Systems (ICIS), Seoul, South Korea, p. 10–13.

[11] Chalfin, A. et al. (2016). Productivity and selection of human capital with machine learning. American Economic Review 106 (5), p. 124-127; Lindebaum, D., Mikko V. y den Hond, F. (2019). Insights from the machine stops to better understand rational assumptions in algorithmic decision-making and its implications for organizations. Academy of Management, p. 247-266; Lee, M. K. (2018). Understanding perception of algorithmic decisions: Fairness, trust, and emotion in response to algorithmic management. Big Data & Society , 5 (1).

[12] Savage, D. y Bales, R.A. (2016). Video games in job interviews: using algorithms to minimize discrimination and unconscious bias. ABA Journal of Labor & Employment Law 32; Silverman, R. E. y Waller, N. (2018). The algorithm that tells the boss who might quit, Wall Street ; Carey, D. y Smith, M. (2016). How companies are using simulations, competitions, and analytics to hire. Harvard Business Review .

[13] McColl, R. y Michelotti, M. (2019). Sorry, could you repeat the question? Exploring videointerview recruitment practice. HRM. Human Resource Management Journal 29 (4); Suen et al. (2019). Does the use of synchrony and artificial intelligence in video interviews affect interview ratings and applicant attitudes?, Computers in Human Behavior 98 ; Woods et al. (2020). Personnel selection in the digital age: a review of validity and applicant reactions, and future research challenges. European Journal of Work and Organizational Psychology 29 (1), p- 64-77.

[14] Raghavan et al. (2020). Mitigating bias in algorithmic hiring: evaluating claims and practices. Proceedings of the 2020 conference on fairness, accountability, and transparency, p. 469-481 ; Langer, M. et al. (2019). Highly automated job interviews: acceptance under the influence of stakes. International Journal of Selection and Assessment.

[15] Simbeck, K. (2019). HR analytics and ethics. IBM Journal of Research and Development 63 (4/5), p- 1-9.

[16] Kim, P. T. (2016). Data-driven discrimination at work, William & Mary Law Review 58, p. 817.

[17] Barocas, S. y Selbst, A.D (2016). Big data’s disparate impact. California Law Review 104 , p. 671.

[18] Suresh, H. y Guttag, J.V. (2019). A framework for understanding unintended consequences of machine learning. En EAAMO 2021: Equity and Access in Algorithms, Mechanisms, and Optimization, p. 1-9.

[19] Chander, A. (2016). The racist algorithm. Michigan Law Review 115, p. 1023.

[20] Sentencia del Tribunal de Justicia (Sala Segunda) de 19 de abril de 2012, Galina Meister contra Speech Design Carrier Systems GmbH, Asunto C415/10, ECLI:EU:C:2012:217

[21] Palmer Olsen, H. et al. (2019). What’s in the Box? The Legal Requirement of Explainability in Computationally Aided Decision-Making in Public Administration. iCourts Working Paper Series No. 162 ; Castets-Renard, C. (2018). Régulation des algorithmes et gouvernance du machine learning: vers une transparence et “explicabilité” des décisions algorithmiques?. Revue Droit&Affaires. 15ème édition

[22] Reglamento (UE) 2016/679 del Parlamento Europeo y del Consejo de 27 de abril de 2016 relativo a la protección de las personas físicas en lo que respecta al tratamiento de datos personales y a la libre circulación de estos datos y por el que se deroga la Directiva 95/46/CE (Reglamento general de protección de datos RGPD)

[23] Directiva (UE) 2016/943 del Parlamento Europeo y del Consejo de 8 de junio de 2016 relativa a la protección de los conocimientos técnicos y la información empresarial no divulgados (secretos comerciales) contra su obtención, utilización y revelación ilícitas

[24] Directiva (UE) 2019/1152 del Parlamento Europeo y del Consejo, de 20 de junio de 2019, relativa a unas condiciones laborales transparentes y previsibles en la Unión Europea.

[25] Mercader Uguina, J. R. (2021). Los “tiempos” de la Directiva (UE) 2019/1152 transparencia y lucha contra la precariedad laboral como objetivos, Documentación Laboral , nº 122, p. 12.

[27] Declaración Europea sobre los Derechos y Principios Digitales para la Década Digital 2023/C 23/01.

[28] Álvarez Robles, T. (2024). La Declaración Europea sobre los Derechos y Principios Digitales para la Década digital. Examen de los principios digitales establecidos por la Unión Europea. Revista Jurídica de les Illes Balears , p.147 a 151.

[29] Recomendación CM/Rec (2021)8 del Comité de Ministros a los Estados miembros en materia de protección de las personas con respecto al tratamiento automatizado de datos de carácter personal en el contexto de la elaboración de perfiles, adoptada por el Comité de Ministros el 3 de noviembre de 2021 en la Reunión n. 1416 de los Delegados de los Ministros.

[30] Reglamento (UE) 2016/679 del Parlamento Europeo y del Consejo de 27 de abril de 2016 relativo a la protección de las personas físicas en lo que respecta al tratamiento de datos personales y a la libre circulación de estos datos y por el que se deroga la Directiva 95/46/CE (Reglamento general de protección de datos).

[31] Goñi Sein, J.L. (2016). Nuevas tecnologías digitales, poderes empresariales y derechos de los trabajadores; análisis desde la perspectiva del Reglamento europeo de protección de datos de 2016. Revista de Derecho Social , nº 78, p. 19.

[32] Pérez Amorós, F. (2025). Aspectos laborales del Reglamento (UE) 2024/1689 de 23 de junio de 2024 sobre inteligencia artificial. e-Revista Internacional de la Protección Social , 10 (1), p. 25-26.

[34] Morales Aragón, A. (2025). Prácticas de IA prohibidas en el ámbito laboral. Análisis y posibles soluciones desde la normativa laboral española. LABOS Revista de Derecho del Trabajo y Protección Social , 6 (2), p. 190-206.

[35] OECD (2025), Progress in Implementing the European Union Coordinated Plan on Artificial Intelligence (Volume 1): Member States’ Actions , OECD Publishing, Paris.

[38] Berg, J y Johnston, H. (2025). AI in human resource management: The limits of empiricism, Ilo working paper num. 154 , ILO

[40] Resolución del Parlamento Europeo, de 17 de diciembre de 2025, con recomendaciones destinadas a la Comisión sobre digitalización, inteligencia artificial y gestión algorítmica en el lugar de trabajo: configuración del futuro del trabajo (2025/2080(INL))

[41] Pérez Amorós. (2024), p.153.

[42] 140721-Carta_Derechos_Digitales_RedEs ( www.lamoncloa.gob.es )

[43] Real Decreto Legislativo 2/2015, de 23 de octubre, por el que se aprueba el texto refundido de la Ley del Estatuto de los Trabajadores.

[44] Ley 12/2021, de 28 de septiembre, por la que se modifica el texto refundido de la Ley del Estatuto de los Trabajadores, aprobado por el Real Decreto Legislativo 2/2015, de 23 de octubre, para garantizar los derechos laborales de las personas dedicadas al reparto en el ámbito de plataformas digitales.

[45] Cremades Chueca, O. (2022). El derecho de información de la representación de los trabajadores sobre los algoritmos y los sistemas de inteligencia artificial en el ordenamiento español: instrumento de protección laboral colectiva en el marco de la tríada protectora del derecho digital del trabajo y la descajanegrización jurídica. En Abadías Selma, A y García González, G, (coords.), Protección de los trabajadores e inteligencia artificial: la tutela de los derechos sociales en la cuarta revolución industrial , Atelier.

[46] Beltrán de Heredia Ruíz, I. (2022). Nadie da duros a cuatro pesetas (Transparencia algorítmica y representantes de los trabajadores: el nuevo art. 64.4.d ET). En Digitalización, Recuperación y Reformas Laborales, Comunicaciones del XXXII Congreso Anual de la Asociación de Derecho del Trabajo y de la Seguridad Social , Informes, Estudios y Empleo, Ministerio de Trabajo y Economía Social.

[47] Nieto Rojas, P. (2025). Algoritmos, negociación colectiva y actuación inspectora. El Foro de Labos , 21 de octubre de 2025. https://www.elforodelabos.es/2025/10/algoritmos-negociacion-colectiva-y-actuacion-inspectora/

[48] Ginés i Fabrellas, A. (2021). El derecho a conocer el algoritmo: una oportunidad perdida de la “Ley Rider”, IUSLabor , n. 2, p. 4.

[49] Pérez Amorós, F. (2021). ¿Quién vigila al algoritmo?: los derechos de información de los representantes de los repartidores en la empresa sobre los algoritmos de las plataformas de reparto. e-Revista internacional de la protección social , vol. VI, nº. 1, p. 186.

[50] Castro Argüelles, M. A. (2022). El ejercicio de los poderes empresariales mediante algoritmos. Revista Jurídica de Asturias nº45/2022; Rivas Vallejo, P. (2020). La aplicación de la inteligencia artificial al trabajo y su impacto discriminatorio . Thomson Reuters Aranzadi, 2020, p. 54.

[51] Aragüez Valenzuela, L. D. (2022). La configuración del algoritmo digital, vacíos de justicia y principales desafíos para el Derecho del Trabajo. e-Revista internacional de la protección social , 7 (1).

[52] Aragüez Valenzuela L. D. (2023). El papel de los representantes de los trabajadores y la negociación colectiva ante la toma automatizada de decisiones empresariales mediante algoritmos digitales. Revista internacional y comparada de relaciones laborales y derecho del empleo , n. 1, p. 135.

[53] Donde el usuario no puede ver el funcionamiento interno del algoritmo.

[54] Enfoque de aprendizaje de inteligencia artificial (IA) que implica el entrenamiento secuencial de un modelo para nuevas tareas, preservando las tareas previamente aprendidas.

[56] Resolución de 8 de septiembre de 2025, de la Secretaría de Estado de Trabajo, por la que se publica el Acuerdo de Consejo de Ministros de 26 de agosto de 2025, por el que se aprueba el Plan Estratégico de la Inspección de Trabajo y Seguridad Social 2025-2027.

[57] Tribunal Superior de Justicia de Galicia, Sala de lo Social, Sentencia 2509/2023 de 19 May. 2023, Rec. 926/2023, ECLI:ES:TSJGAL:2023:3620

[58] Audiencia Nacional, Sala de lo Social, Sentencia 101/2025 de 4 de julio de 2025, Rec. 182/2025, ECLI:ES:AN:2025:2867

[59] Nogueira Guastavino, M. (2025). Algoritmos opacos, sindicatos desarmados: la libertad sindical frente a la asignación automatizada de turnos. Revista de Jurisprudencia Laboral, nº 7/2025, p. 1-6.

[60] Cavas Martínez, F.(2025). No informar a los representantes sindicales sobre los algoritmos utilizados en la empresa para fijar determinadas condiciones de trabajo vulnera el derecho a la libertad sindical.  Revista de Jurisprudencia Laboral 8, p. 1-8.

[61] Montoya Medina, D. (2025). El deber de informar a los representantes sindicales sobre los algoritmos en la gestión de descansos. A propósito de la SAN de 4 de julio de 2025. Briefs AEDTSS , número 78, https://www.aedtss.com/el-deber-de-informar-a-los-representantes-sindicales-sobre-los-algoritmos-en-la-gestion-de-descansos-a-proposito-de-la-san-de-4-de-julio-de-2025/

[62] Rojo Torrecilla, E. (2025). Empresa que niega el uso de algoritmos en las relaciones de trabajo, y queda probada en juicio su utilización. Vulneración del derecho fundamental de libertad sindical. Notas a la sentencia de la AN de 4 de julio de 2025 (actualización a 16 de julio). En el blog del autor El nuevo y cambiante mundo del trabajo. Una mirada abierta y crítica a las nuevas realidades laborales , miércoles, 9 de julio de 2025, http://www.eduardorojotorrecilla.es/2025/07/empresa-que-niega-el-uso-de-algoritmos.html

[64] Mercader Uguina, J.R. (2023). Hacia una democracia digital en la empresa. Labos: Revista de Derecho del Trabajo y Protección Social , volumen 4, nº 2, p. 4-21.

[65] Tribunal Supremo, Sala Tercera, de lo Contencioso-administrativo, Sección 3ª, Sentencia 1119/2025 de 11 Sep. 2025, Rec. 7878/2024, ECLI:ES:TS:2025:3826

[66] Rivas Vallejo, P. (2025). Inclusión del conocimiento del código fuente de sistemas digitales como parte del derecho de acceso a la información en decisiones automatizadas. Revista de Jurisprudencia Laboral (9) .

[68] Tribunal Supremo, Sala Tercera, de lo Contencioso-administrativo, Sección 1ª, Auto de 10 Sep. 2025, Rec. 3998/2025, ECLI:ES:TS:2025:7865A

[70] Álvarez Cuesta, H. (2023). El impacto de la tecnología en las relaciones laborales: retos presentes y desafíos futuros. Revista Justicia y Trabajo , nº 2.