Una nueva agenda de gobernanza algorítmica para la negociación colectiva

Autores/as

DOI:

https://doi.org/10.12795/TPDM.2025.i11.01

Palabras clave:

Gobernanza algorítmica, Negociación colectiva, Ciclo de vida del algoritmo, Derechos laborales fundamentales

Resumen

La regulación vigente sobre algoritmos laborales descansa sobre la ilusión de que la transparencia es suficiente. Sin embargo, informar a las personas trabajadoras sobre cómo funciona un sistema no les protege si carecen de poder real para influir en su diseño, validar su comportamiento, o impugnarlo cuando causa discriminación. La negociación colectiva debe asumir un rol radicalmente distinto: no limitarse a reaccionar ante sistemas ya implantados, sino ejercer una gobernanza activa del ciclo completo de vida de los algoritmos laborales. Se propone en consecuencia un modelo multifásico donde la representación de las personas trabajadoras interviene desde el diseño hasta el desmantelamiento, tratando de evitar la materialización de una paradoja peligrosa: el cumplimiento formal, sin equidad real. Brecha que sólo una evaluación de impacto laboral -específica, contextualizada, y negociable colectivamente- puede cerrar. El resultado es un modelo donde la tecnología está subordinada a los principios del Derecho del Trabajo, y no al revés.

Descargas

Los datos de descargas todavía no están disponibles.

Citas

Dastin, Jeffrey (2018). “Amazon scraps secret AI recruiting tool that showed bias against women”. Reuters. Publicado el 11/10/2018 (en línea). Disponible en: https://www.reuters.com/article/world/insight-amazon-scraps-secret-ai-recruiting-tool-that-showed-bias-against-women-idUSKCN1MK0AG/ [consulta: 03/10/2025].

Fabregat Monfort, Gemma (2024). “Procesos de selección algorítmica y discriminación”. LABOS. Revista de Derecho del Trabajo y Protección Social, Vol. 5, pp. 131–153.

Ginès i Fabrellas, Anna (2024). “Analítica de personas y discriminación algorítmica en procesos de selección y contratación”. LABOS. Revista de Derecho del Trabajo y Protección Social, Vol. 5, pp. 99–130.

Prince, Anya & Schwarcz, Daniel (2020). Proxy Discrimination in the Age of Artificial Intelligence and Big Data. Iowa Law Review, Vol. 105, pp. 1257–1318.

Documentos institucionales:

ISO/IEC 23053 – Framework for AI systems using machine learning. Estándar internacional utilizado como referencia para la estructuración del ciclo de vida de los sistemas de IA.

CEN-CENELEC JTC 21 – AI Standards: Complete Detailed Overview. Documento europeo de referencia para reguladores, industria y actores vinculados a la implementación del Reglamento Europeo de IA.

Ministerio de Trabajo y Economía Social (España) (2022) – Guía práctica sobre información algorítmica en el ámbito laboral.

Supervisor Europeo de Protección de Datos (EDPS) (2023) – TechDispatch: Explainable Artificial Intelligence. Publicado el 16/11/2023 (en línea). Disponible en: https://www.edps.europa.eu/system/files/2023-11/23-11-16_techdispatch_xai_en.pdf [Consulta: 06/11/2025].

AEPD (2021/2024) – Guía de Auditoría de Tratamientos que incluyan IA. Publicado en enero de 2021 (en línea). Disponible en: https://www.aepd.es/guias/requisitos-auditorias-tratamientos-incluyan-ia.pdf). [Consulta: 18/11/2025].

Informes y literatura especializada:

Digital Future Society (2022) – La discriminación algorítmica en España: límites y potencial del marco legal. Publicado en septiembre de 2022 (en línea). Disponible en: https://digitalfuturesociety.com/app/uploads/2022/09/Discriminacion_algoritmica_Espana_marco_legal.pdf [consulta: 03/12/2025]

IBM (2025) – La IA explicable. Think Report. Disponible en: https://www.ibm.com/es-es/think/topics/explainable-ai [Consulta: 06/11/2025].

Descargas

Publicado

2026-01-27

Cómo citar

Villa Fombuena, M. (2026). Una nueva agenda de gobernanza algorítmica para la negociación colectiva. Trabajo, Persona, Derecho, Mercado, (11), 25–49. https://doi.org/10.12795/TPDM.2025.i11.01

Número

Sección

Doctrina