Sesgos de género en el uso de inteligencia artificial para la gestión de las relaciones laborales: análisis desde el derecho antidiscriminatorio
DOI:
https://doi.org/10.12795/e-RIPS.2022.i01.04Palabras clave:
sesgos algorítmicos, discriminación, interseccionalidad, explicabilidad, intervención humana significativaResumen
El análisis jurídico de la discriminación derivada de decisiones automatizadas que puedan provocar un impacto discriminatorio requiere combinar dos campos jurídicos: el de la protección de datos y el derecho antidiscriminatorio. En el primero los derechos reconocidos son accesorios al núcleo principal de afectación: el derecho de intervención humana y, principalmente, la explicabilidad de los algoritmos, manifestación de la debida justificación objetiva y razonable que acompaña a las decisiones prima facie discriminatorias para eludir su calificación como tales. Pero el tratamiento jurídico de la discriminación algorítmica requiere, también, dar respuesta a problemas de calificación de los sesgos en los que incurre el aprendizaje automático como resultado de las infinitas inferencias de datos que perfilan a personas en el contexto del derecho antidiscriminatorio, donde potencian su impacto discriminatorio, como son la discriminación por asociación o la discriminación múltiple o interseccional.
Descargas
Citas
Barocas, S. y Selbst, A. D.: “Big data’s disparate impact”, California Law Review, núm. 104, 2016, pp. 671-732.
Barrere Unzueta, M. A.: “La interseccionalidad como desafío al mainstreaming de género en las políticas públicas”, Revista Vasca de Administración Pública, núm. 87, 2010, pp. 225-252.
Barzilay, A. y Ben-David, A.: “Platform inequality: gender in the gig-economy”, Seton Hall Law Review, vol. 47, núm. 2, 2017, pp. 393-431.
Burrell, J.: “How the machine ‘thinks’: understanding opacity in machine learning algorithms”, Big Data & Society, vol. 3, núm. 1, 2016. DOI: https://doi.org/10.1177/2053951715622512.
Burri, S. and Schiek, D.: Multiple discrimination in EU Law. Oportunities for legal responses to intersectional gender discrimination?, European Commission, 2009.
Carrizosa, E.: “La concreción de los indicios de discriminación en la jurisprudencia comunitaria: STJUE 19 abril 2012”, Aranzadi Social: Revista Doctrinal, vol. 5, núm. 7, 2012, pp. 59-65.
Castán Tobeñas, J.: La idea de equidad y su relación con otras ideas morales y jurídicas afines, Instituto Editorial Reus, Madrid, 1950.
Castellanos Claramunt, J. y Montero Caro, M. D.: “Perspectiva constitucional de las garantías de aplicación de la inteligencia artificial: la ineludible protección de los derechos fundamentales”, Ius et Scientia, vol. 6, núm. 2, 2020, pp. 72-82. DOI: https://doi.org/10.12795/IETSCIENTIA.2020.i02.06.
Chouldechova, A.: “Fair prediction with disparate impact: a study of bias in recidivism prediction instruments”, Big data, vol. 5, núm. 2, 2017 pp. 153-163. DOI: https://doi.org/10.48550/arXiv.1610.07524.
Crenshaw, K.: “Demarginalizing the intersection of race and sex: a black feminist critique of antidiscrimination doctrine, feminist theory and antiracist politics”, University of Chicago Legal Forum, núm. 1, 1989, pp. 139-167.
Ebers, M.: “Ethical and legal challenges”, en Ebers, M. y Navas, S. (Dirs.): Algorithms and law, Cambridge University Press, Cambridge, 2020.
European Commission: Tackling Multiple Discrimination. Practices, policies and laws, Office for Official Publications of the European Communities, Luxembourg, 2007.
Foster, S. R.: “Causation in antidiscrimination law: beyond intent versus impact”, Houston Law Review, núm. 41, 2004, pp. 1469-1548.
FRA – European Union Agency for Fundamental Rights: Inequalities and multiple discrimination in access to and quality of healthcare, Publications Office of the European Union, Luxembourg, 2013.
Godínez Vargas, A.: “La carga de la prueba y la prueba de indicios como medidas compensatorias de equilibrio procesal en juicios de discriminación”, Derecho laboral: Revista de doctrina, jurisprudencia e informaciones sociales, vol. 59, núm. 264, 2016, pp. 671-688.
Gonzalo Quiroga, M.: “Discriminación racial y control de identificación policial: valoración de la raza como indicio de extranjería y de nacionalidad”, La Ley: Revista jurídica española de doctrina, jurisprudencia y bibliografía, núm. 3, 2001, pp. 2158-2164.
Goodman, B. y Flaxman, S.: “European Union regulations on algorithmic decision-making and a ‘right to explanation’”, AI Magazine, vol. 38, núm. 3, 2017, pp. 50-57. DOI: https://doi.org/10.1609/aimag.v38i3.2741.
Grove, W. M., et al.: “Clinical versus mechanical prediction: a meta-analysis”, Psychological assessment, vol. 12, núm. 1, 2000, pp. 19-30.
Gunning, D.: “Explainable Artificial Intelligence (XAI)”, 2017, disponible en: https://www.cc.gatech.edu/~alanwags/DLAI2016/(Gunning)%20IJCAI-16%20DLAI%20WS.pdf.
Hajian, S.; Bonchi, F. y Castillo, C.: “Algorithmic bias: from discrimination discovery to fairness-aware data mining”, en KDD ‘16: Proceedings of the 22nd ACM SIGKDD International Conference on Knowledge Discovery and Data Mining, Association for Computing Machinery, New York, 2016, pp. 2125–2126.
Hildebrandt, M.: “Algorithmic regulation and the rule of law”, Philosophical Transactions of the Royal Society A, vol. 376, núm. 2128, 2018. DOI: https://doi.org/10.1098/rsta.2017.0355.
Hildebrandt, M.: “The issue of bias. The framing powers of ML”, en Pelillo, M. y Scantamburlo, T. (Eds.): Machine We Trust. Perspectives on Dependable AI, The MIT Press, Cambridge (MA), 2021. DOI: https://dx.doi.org/10.2139/ssrn.3497597.
Huergo Lora, A.: “Una aproximación a los algoritmos desde el Derecho administrativo”, en Huergo Lora, A. (dir.): La regulación de los algoritmos, Aranzadi, Cizur Menor, 2020, pp. 23-87.
Makkonen, T.: Multiple, compound and intersectional discrimination: bringing the experiences of the most marginalized to the fore, Institute For Human Rights, Abo Akademi University, 2002.
Mayson, S. G.: “Bias In, Bias Out”, The Yale Law Journal, vol. 128, núm. 8, 2019.
Montoya Melgar, A.: “De sospechas e indicios en la discriminación antisindical (En torno a la STC 84/2002, de 22 de abril)”, en AA.VV.: Derecho vivo del trabajo y constitución:estudios en homenaje al profesor doctor Fernando Suárez González, Tirant lo Blanch, Valencia, 2003, pp. 215-226.
O’Neil, C.: Armas de destrucción matemática, Capitán Swing, Madrid, 2017.
Pasquale, F.: “A rule of persons, not machines: the limits of legal automation”, The George Washington Law Review, vol. 87, núm. 1, 2019.
Pasquale, F.: New laws of robotics: defending human expertise in the age of AI, The Belknap Press, Cambridge (MA), 2020.
Rey Martínez, F.: “La discriminación múltiple: una realidad antigua, un concepto nuevo”, Revista Española de Derecho Constitucional, núm. 84, 2008, pp. 251-283.
Rivas Vallejo, P.: La aplicación de la inteligencia artificial al trabajo y su impacto discriminatorio, Aranzadi, Cizur Menor, 2020.
Roig, A.: Las garantías frente a las decisiones automatizadas: del Reglamento General de Protección de Datos a la gobernanza algorítmica, Bosch Editor, Barcelona, 2020.
Rosenblat, A.: Uberland: Cómo los algoritmos están reescribiendo las reglas de trabajo, Nola Editores, Madrid, 2021.
Ruiz-Gallardón, I.: “La equidad: una justicia más justa”, Foro: Revista de ciencias jurídicas y sociales, vol. 20, núm. 2, 2017, pp. 173-191. DOI: http://dx.doi.org/10.5209/FORO.59013.
Schiek, D. y Lawson, A. (dirs.): European Union Non-Discrimination Law and Intersectionality: Investigating the triangle of racial, gender and disability discrimination, Routledge-Cavendish, London-New York, 2016.
Serra Cristóbal, R. (coord.): La discriminación múltiple en los ordenamientos jurídicos español y europeo, Tirant lo Blanch, Valencia, 2013.
Serra Cristóbal, R.: “El reconocimiento de la discriminación múltiple por los tribunales”, Teoría y derecho, núm. 27, 2020, pp. 137–158. DOI: https://doi.org/10.36151/td.2020.008.
Soriano Arnanz, A.: “Decisiones automatizadas: problemas y soluciones jurídicas. Más allá de la protección de datos”, Revista de Derecho Público: Teoría y Método, vol. 3, 2021, pp. 85-127. DOI: https://doi.org/10.37417/RPD/vol_3_2021_535.
Stoica, A-A.; Riederer, C. y Chaintreau, A.: “Algorithmic glass ceiling in social networks: The effects of social recommendations on network diversity”, en Proceedings of the 2018 World Wide Web Conference, International World Wide Web Conferences Steering Committee, Republic and Canton of Geneva (Switzerland), 2018, pp. 923-932. DOI: https://doi.org/10.1145/3178876.3186140.
Tomei, M.: “Análisis de los conceptos de discriminación y de igualdad en el trabajo”, Revista Internacional del Trabajo, Vol. 122, núm. 4, 2003, pp. 441-460. DOI: https://doi.org/10.1111/j.1564-913X.2003.tb00326.x.
Umoja Noble, S.: Algorithms of oppression: how search engines reinforce racism, New York University Press, New York, 2018.
Vantin, S.: “Inteligencia artificial y derecho antidiscriminatorio”, en Llano Alonso, F., y Garrido Martín, J. (eds.): Inteligencia artificial y derecho. El jurista ante los retos de la era digital, Aranzadi, Cizur Menor, 2021, pp. 367-384.
Wachter, S.: “Affinity profiling and discrimination by association in online behavioural advertising”, Berkeley Technology Law Journal, núm. 35, 2020, pp. 367-430. DOI: https://doi.org/10.15779/Z38JS9H82M.
Xenidis, R.: “Tuning EU equality law to algorithmic discrimination: Three pathways to resilience”, Maastricht Journal of European and Comparative Law, vol. 27, núm. 6, 2020, pp. 736-758. DOI: https://doi.org/10.1177/1023263X20982173.
Xenidis, R. y Senden, L.: “EU non-discrimination law in the era of artificial intelligence: mapping the challenges of algorithmic discrimination”, en Bernitz U., et al. (eds.): General principles of EU law and the EU digital order, Kluwer Law Int., Alphen aan den Rijn, The Netherlands, 2020, pp. 151-182.
Zuiderveen Borgesius, F.: Discrimination, artificial intelligence, and algorithmic decision-making, Council of Europe, Strasbourg, 2018.
Publicado
Cómo citar
Número
Sección
Licencia
e-Revista Internacional de la Protección Social es una revista de acceso abierto, lo que significa que todo su contenido está disponible gratuitamente para el usuario o su institución. Los usuarios pueden leer, descargar, copiar, distribuir, imprimir, buscar o enlazar con el texto completo de los artículos, o utilizarlos para cualquier otro fin lícito, sin solicitar permiso previo al editor o al autor. Esta definición de acceso abierto se ajusta a la Iniciativa de Acceso Abierto de Budapest (BOAI).
4.0
A menos que se indique lo contrario, todo el contenido de la edición electrónica se distribuye bajo una " licencia internacional Creative Commons Atribución-Nocomercial-Compartirigual 4.0 Internacional". Puede consultar la versión informativa y el texto legal de la licencia aquí. Esto debe indicarse expresamente de esta manera cuando sea necesario.
En caso de aceptación del manuscrito, los autores ceden los derechos de la obra para su publicación a eRIPS. Revista Internacional de la Protección Social bajo el contrato de licencia Reconocimiento-NoComercial-CompartirIgual 4.0 Internacional (CC BY-NC-SA 4.0). Los autores conservan los derechos de autor y terceros están autorizados a compartir y adaptar la obra, siempre que cumplan con los términos y condiciones establecidos en la licencia.
- Usted debe dar crédito de manera adecuada , brindar un enlace a la licencia, e indicar si se han realizado cambios . Puede hacerlo en cualquier forma razonable, pero no de forma tal que sugiera que usted o su uso tienen el apoyo de la licenciante.
- Usted no puede hacer uso del material con propósitos comerciales .
- Si remezcla, transforma o crea a partir del material, debe publicar sus contribuciones bajo la misma licencia que el original.
Se puede encontrar más información en https://creativecommons.org/licenses/by-nc-sa/4.0/deed.es
Se permite y recomienda a los autores/as difundir su obra a través de Internet (p. ej.: en archivos telemáticos institucionales o en su página web) antes y durante el proceso de envío, lo cual puede producir intercambios interesantes y aumentar las citas de la obra publicada.
Aceptado 2022-03-17
Publicado 2022-06-24
- Resumen 883
- PDF 415
- HTML 642