La configuración del algoritmo digital, vacíos de justicia y principales desafíos para el Derecho del Trabajo

Shaping the digital algorithm, justice gaps and main challenges for labour law

Lucía Aragüez Valenzuela

Profesora Ayudante Doctora de Derecho del Trabajo

Universidad de Málaga

luciaaraguez@uma.es 0000-0003-1819-5494

e-Revista Internacional de la Protección Social ▶ 2022

Vol. VII ▶ Nº 1 ▶ pp. 12 - 29

ISSN 2445-3269 ▶ http://dx.doi.org/10.12795/e-RIPS.2022.i01.02

Recibido: 22.01.2022 | Aceptado: 06.04.2022

RESUMEN

PALABRAS CLAVE

El mundo del trabajo se está transformando de forma constante, fundamentalmente debido a la incorporación de las nuevas tecnologías de la información y de la comunicación. De entre las mismas, las empresas recurren cada vez más frecuentemente al uso de algoritmos digitales de diversa índole –ofertas de trabajo, acceso al empleo, diferencias en las condiciones laborales, formas de medición del rendimiento, entre otros aspectos–. Sin embargo, en el proceso de aprendizaje de la maquinaria, siguen existiendo sesgos sociales que continúan perennes en la sociedad.

Por consiguiente, en este estudio, trataremos de profundizar en los posibles vacíos de justicia que en la actualidad presentan los algoritmos digitales aplicados en el ámbito del trabajo, aportando posibles propuestas de mejora para la consecución de un algoritmo orientado hacia la consecución de la justicia desde una perspectiva amplia y relacional.

Algoritmos

Tecnologías

Trabajo

Justicia

ABSTRACT

KEYWORDS

The world of work is constantly changing, mainly due to the introduction of new information and communication technologies. Among these, companies are increasingly resorting to the use of digital algorithms of various kinds –job offers, access to employment, differences in working conditions, ways of measuring work performance, among others–. However, in the process of machine learning, there are still social biases that remain perennial in society.

Therefore, in this study, we will try to delve into possible gaps in justice that currently exist in digital algorithms applied in the field of work, providing possible proposals for improvement in order to achieve an algorithm oriented towards the achievement of justice from a broad and relational perspective.

Algorithms

Technologies

Labour

Justice

SUMARIO

I. EL PROCESO DE APRENDIZAJE DEL ALGORITMO: NOCIONES CONCEPTUALES

II. VACÍOS DE JUSTICIA EN LA CONFIGURACIÓN DEL ALGORTIMO DIGITAL

A. Institucionalidad

B. Reciprocidad

C. Socialidad

III. SUPUESTOS CONCRETOS DE DISCRIMINACIÓN

A. Discriminación en las ofertas de trabajo

B. Discriminación en el acceso al empleo

C. Discriminación en las condiciones de trabajo y excesivo control en el rendimiento de la persona trabajadora

IV. REFLEXIONES FINALES: ¿PUEDE CONFIGURARSE UN ALGORITMO DIGITAL JUSTO?

Bibliografía

I. EL PROCESO DE APRENDIZAJE DEL ALGORITMO: NOCIONES CONCEPTUALES  ^ 

Las tecnologías forman parte del mundo de trabajo de una manera cada vez más asentada. Resultan ser numerosas las empresas que recurren a la incorporación de ciertas herramientas tecnológicas para la prestación de su trabajo y, sobre todo, para ser consideradas más competitivas en el mercado laboral. Por consiguiente, la inclusión de las tecnologías de diversa índole implica ciertos beneficios en relación a la ejecución, organización, dirección y prestación del trabajo; pero, de la misma manera, también ocasiona una cierta desprotección hacia la persona trabajadora por diversas razones.

Por un lado, las tecnologías de la información y de la comunicación (TIC en adelante), se encuentran en constante cambio, provocando nuevos escenarios a los que la normativa no se encuentra suficientemente adaptada. Esto provoca una cierta desprotección hacia la persona que está ejerciendo el trabajo, puesto que la relación existente en la mayoría de los modelos laborales tiende hacia la asimetría y verticalidad entre la persona trabajadora y la empresa. De hecho, las empresas suelen recurrir al uso de herramientas tecnológicas para fortalecer su poder de vigilancia empresarial respecto a la forma en la que la persona trabajadora se comporta en su puesto de trabajo.

Una de las formas más habituales para ejercitar este poder de control por parte de las empresas es a través de cámaras de videovigilancia, sistemas de localización, vigilancia en el acceso a páginas web, entre otros. Sin embargo, es cierto que cada vez se encuentra más asentado el control empresarial mediante el uso de la inteligencia artificial o los algoritmos digitales en el entorno laboral. De este modo, las empresas tratan de ejercitar esta vigilancia de una manera ciertamente opaca o poco transparente, pasando incluso de manera inadvertida. Esto implica que la persona trabajadora no sea consciente de dicho control o, en el caso de eventualmente serlo, del alcance o la finalidad del mismo.

Esto nos hace cuestionarnos si verdaderamente el uso de toda esta tecnología revolucionaria –centrándonos en la inteligencia artificial y los algoritmos– se ajusta a los cánones de justicia que debieran existir en el ámbito de trabajo y en cualquier relación jurídica entre la persona trabajadora y la empresa. Sin embargo, antes de responder a esta pregunta, y detectar los posibles vacíos de justicia que pudieran existir en la misma, es necesario efectuar previamente una serie de consideraciones conceptuales.

En primer lugar, debemos señalar que el uso de esta tecnología se realiza a través del big data, o lo que es lo mismo, el cotejo de una serie de datos, ya sean personales o no, de diversa índole, que tratan de aportar información relevante a la empresa acerca de la persona trabajadora y la manera en la que la misma desarrolla su comportamiento (reciprocidad). Con estos datos, la empresa realmente lo que pretende es crear un perfil y, en su caso, tomar decisiones que, de manera directa o indirecta, afecten a sus condiciones de trabajo. Los datos están, por tanto, cargados de poder para las empresas puesto que con los mismos tienen una mayor capacidad y conocimiento para tomar ciertas decisiones.

Resulta bastante habitual confundir conceptualmente la inteligencia artificial con los algoritmos digitales o, mejor dicho, llegar a entender que los algoritmos digitales forman parte de la inteligencia artificial. Sin embargo, son conceptos totalmente diferenciados, aunque, a veces, uno pueda asociarse con el otro (cuando nos referimos a la creación de un algoritmo para un sistema de inteligencia artificial). “La Inteligencia Artificial (IA en adelante) es la simulación de inteligencia humana por parte de las máquinas. Dicho de otro modo, es la disciplina que trata de crear sistemas capaces de aprender y razonar como un ser humano, aprendan de la experiencia, averigüen cómo resolver problemas ante unas condiciones dadas, contrasten información y lleven a cabo tareas lógicas”[1].

Por otro lado, el algoritmo es un procedimiento sistemático que se efectúa a través de la composición de una serie de números para resolver un problema; sin embargo, para ello, debe estar instruido de una serie de instrucciones bien definidas para operar de la manera esperada[2], esto es, conforme a su previa configuración y proceso de aprendizaje. Así, la formulación del algoritmo resulta fundamental, ya que de ello dependerá la posible toma automatizada de ciertas decisiones empresariales.

En este contexto, una de las ramas de la IA es el aprendizaje automático, también conocido como Machine Learning, el cual diseña modelos predictivos mediante el análisis de un conjunto de datos y la identificación de patrones (algoritmo digital). Esta tecnología permite el aprendizaje de ciertos sistemas informáticos mediante datos o experiencias en tareas específicas. “Cuando este sistema informático encuentra una correlación significa que acaba de hallar un fenómeno que desconocía hasta el momento, y esto implica hallar una nueva información. Esta información se reintroduce en los algoritmos para que realicen búsquedas más exactas, de modo que los resultados anteriores perfeccionan el funcionamiento del algoritmo y el sistema aprende”[3]. De esta manera, el algoritmo consiste en la recopilación, análisis y acumulación constante de grandes cantidades de datos, incluidos los personales, procedentes de diferentes fuentes, siendo a su vez objeto de un tratamiento automatizado con avanzadas técnicas de tratamiento, con el fin de generar correlaciones, tendencias y patrones[4].

El algoritmo, en su origen y formulación, resulta ser prácticamente un secreto industrial, siendo además un sistema ciertamente complejo[5] en la utilización de datos personales, ya que convierte a los mismos en una herramienta clave para aportar a las empresas información de manera ágil e inteligente[6]. Así, este proceso de aprendizaje debiera ser sistemático y consistente, esto es, que no resulte ser ambiguo o abierto a posibles interpretaciones arbitrarias e injustificadas. Y es que partimos de la base de que las decisiones de las empresas se dejan en manos de la máquina –el algoritmo–, el cual carece de sentimientos, emociones y, en general, de la parte más subjetiva y personal de las relaciones personales.

Uno de los procesos fundamentales para la creación de un algoritmo digital es su procedimiento de aprendizaje, el cual consiste en comprimir toda la información necesaria para la toma automatizada de determinadas decisiones mediante procedimientos matemáticos basados en parámetros de probabilidades. “Es una serie lógica de pasos para organizar y actuar sobre un conjunto de datos con el objetivo de lograr rápidamente un resultado. Ese aprendizaje es posible gracias a la automatización de la información mediante el uso del aprendizaje profundo y el autoaprendizaje de la máquina”[7]. De este modo, la misión del algoritmo no es el cálculo de una solución exacta o precisa, sobre todo porque esto se convertiría en una finalidad inalcanzable en muchos casos; sino que está más próxima a facilitar una respuesta atendiendo a las probabilidades que les han ido introduciendo durante el proceso de enseñanza. Por consiguiente, aporta una información objetiva al empresario sobre un hecho concreto, esto es, ajeno a cualquier tipo de sentimientos o de sensibilización respecto a las personas trabajadoras, habiendo llegado a dicha conclusión atendiendo al grado de enseñanza realizado por la empresa o la persona en quien ella delegue (en este caso, el técnico informático).

El procedimiento más importante, y a la vez más complejo, resulta ser su formulación, siendo éste un aspecto bastante alejado del conocimiento de los juristas y, por supuesto, de la propia persona trabajadora debido a la complejidad técnica en su creación[8] y desarrollo.

Bajo las consideraciones anteriormente citadas, partimos de la base de que los algoritmos digitales pueden ocasionar una cierta pérdida en la confianza depositada por las personas trabajadoras ya que, en la mayoría de los casos, se recurre a la misma para efectuar una vigilancia empresarial de forma inadvertida en relación a los comportamientos de las personas trabajadoras, aun cuando incluso ellas mismas tratan de mantener en el entorno laboral una cierta expectativa de privacidad.

A ello se le suma la importancia de la formulación del algoritmo, ya que más allá de que se pierda el trato más personal –viéndose sustituido por la toma automatizada de decisiones– es importante que la formulación del mismo se desarrolle bajo cánones basados en la justicia, esto es, creando un algoritmo ético. Por consiguiente, sería necesario que las empresas verdaderamente reformulen sus algoritmos en parámetros éticos, manteniendo la proximidad relacional, con el objetivo de detectar situaciones de flaqueza o debilidades en el ámbito de la relación de trabajo –y no discriminaciones o sesgos en el empleo–. Para ello, se debiera crear el algoritmo en código de fuente en abierto (lo que se conoce como: Open Data). De esta manera, será fácilmente auditable –para detectar si establece algún tipo de debilidad en el entorno de trabajo–, y también alterable. Así, se presentará un producto con una estructura “flexible”, permitiendo su modificación ante una posible respuesta a las reclamaciones futuras fruto de su funcionamiento. Esta sería una manera adecuada de garantizar un sistema de control empresarial transparente, leal, justo y honesto a la realidad laboral existente.

Como se ha señalado anteriormente, el proceso de aprendizaje, además de ser complejo, es uno de los más importante en relación a la creación del algoritmo digital, puesto que de él depende la toma de ciertas decisiones. Por consiguiente, la manera en la que se suministra dicha información, y el procesamiento que el algoritmo digital realice, podrá establecer una serie de parámetros orientados –o no– hacia la consecución de la justicia. Este procedimiento resulta altamente complejo, sobrepasando la posible capacidad de control que la empresa pudiera ejercitar sobre el mismo respecto al procesamiento de los datos aportados. De esta manera, podemos distinguir dos fases del proceso:

Por consiguiente, es posible que, aunque la empresa tenga una cierta intencionalidad de crear un algoritmo basado en parámetros justos, la realidad de las cosas manifiesta que, en este procedimiento de creación, resultan muy importantes los datos que se utilicen y la manera en la que se “alimenta” a la maquinaria para su procesamiento. Por tanto, es importante reflexionar acerca de la configuración del algoritmo digital y los principales desafíos que, hasta el momento, presentan.

II. VACÍOS DE JUSTICIA EN LA CONFIGURACIÓN DEL ALGORTIMO DIGITAL  ^ 

Actualmente muchas empresas recurren a los algoritmos digitales para la adopción de ciertas decisiones o para analizar y organizar su propia empresa; sin embargo, en algunos casos, el algoritmo es configurado de manera sesgada, donde parece que los datos introducidos parten de una base poco honesta o transparente, lo cual genera situaciones injustas en la propia relación jurídica. El problema resulta ciertamente complejo ya que, más allá de la posible intencionalidad empresarial en crear, por ejemplo, un algoritmo basado en parámetros discriminatorios, donde, a título ilustrativo, las mujeres tengan menos opciones para acceder a un determinado puesto de trabajo, en la mayoría de los casos en el proceso de aprendizaje puede que ni tan siquiera las empresas sean verdaderamente conscientes de la manera en la que el mismo se encuentra configurado. Esto implicaría un cierto desconocimiento sobre su configuración y consecuencias.

Las tecnologías de la información y de la comunicación forman parte de la sociedad de manera irreversible. Los cambios tecnológicos resultan ser lo suficientemente veloces que presentan un importante desafío para el Derecho del Trabajo, el cual parece ir a la zaga de los mismos. Por consiguiente, esto hace que se presenten ciertas lagunas normativas y, de la misma manera, vacíos de justicia. Y es que partimos de la base de que, para que verdaderamente exista justicia en la relación jurídica-laboral, es necesario tener en cuenta varios aspectos, esto es, tener una perspectiva más amplia donde, además de tener muy presente la norma, se tengan en cuenta el contexto social y los valores de grupo en el entorno de trabajo, así como el comportamiento de las partes[10].

A. Institucionalidad  ^ 

Centrándonos en el uso de algoritmos digitales en el trabajo, tan solo existe a nivel nacional una norma en el marco de las relaciones laborales, de reciente incorporación constituida por el Real Decreto-ley 9/2021, de 11 de mayo, por el que se modifica el texto refundido de la Ley del Estatuto de los Trabajadores, aprobado por el Real Decreto Legislativo 2/2015, de 23 de octubre, para garantizar los derechos laborales de las personas dedicadas al reparto en el ámbito de plataformas digitales.

Lo primero que llama la atención de la norma referenciada es que, con la mera observación del titulado, en ningún caso hace referencia a los algoritmos digitales en el entorno de trabajo por lo que, a simple vista, no se deduce del mismo que en su propio contenido se indique alguna cuestión en este sentido, lo cual genera ciertas confusiones.

En cualquier caso, lo cierto es que la norma señala en su articulado, además de la presunción de laboralidad de las personas trabajadoras en plataformas virtuales, un reforzamiento del deber de información hacia el comité de empresa (art. 64 ET). El Real Decreto-ley modifica el artículo 64 del ET, relativo a los derechos de información y consulta de la representación legal de las personas trabajadoras, añadiendo un nuevo párrafo d) a su apartado 4. El precepto indica el derecho de los representes de los trabajadores del comité de empresa a ser informado de los parámetros, reglas e instrucciones en los que se basan los algoritmos o sistemas de inteligencia artificial que afectan a la toma de decisiones, las cuales igualmente pueden incidir en las condiciones de trabajo, el acceso y mantenimiento del empleo, incluida la elaboración de perfiles. En este sentido, las empresas debieran informar al comité de empresa de cuestiones relacionadas con el algoritmo, extendiendo esta obligación de información a los parámetros, reglas e instrucciones de funcionamiento, lo cual resulta fundamental para proteger a la persona trabajadora.

El legislador pretende aportar una mayor seguridad jurídica a los trabajadores, los cuales pueden encontrarse afectados ante la toma automatizada de decisiones empresariales mediante algoritmos. Sin embargo, en este sentido debemos reflexionar acerca de dos aspectos fundamentales:

B. Reciprocidad  ^ 

La reciprocidad hace referencia al comportamiento de las partes en la propia relación jurídica, por lo que resulta necesario valorar sus actitudes, intenciones y acciones en el entorno de trabajo y, más concretamente, en lo que respecta a la configuración del algoritmo. Para ello, resulta fundamental tener en consideración el grado de participación, información y transparencia existente en relación a la configuración del algoritmo y el proceso de aprendizaje –al que anteriormente hemos hecho referencia– desde tres perspectivas distintas atendiendo a los sujetos intervinientes (empresa, persona trabajadora y representantes de los trabajadores):

C. Socialidad

Partimos de la base de que actualmente continúan existiendo ciertos desafíos en el ámbito del trabajo que no han conseguido paliarse desde antaño. Los estereotipos sociales y los prejuicios existentes relativos a ciertos colectivos, considerados vulnerables, es algo que se encuentra aún claramente presente en un importante número de empresas. Nos venimos refiriendo a, por ejemplo, el papel de la mujer en el ámbito del trabajo[12] o a los sesgos existentes por razón de género –salario, condiciones laborales, conciliación, techo de cristal–, la situación de personas con discapacidad –dificultades para acceder a puestos de trabajo, diferencias en condiciones laborales–, inmigrantes o personas que puedan sufrir discriminación de diversa índole –raza, etnia, religión, entre otros–.

En este sentido, debemos cuestionarnos que, si estas injusticias en el ámbito laboral perduran en la actualidad, de qué manera las empresas pueden configurar un algoritmo digital basado en términos de justicia. Así, el problema es mucho más complejo, ya que partimos de la base que es una situación que sobrepasa la esfera empresarial o laboral. Estamos hablando de un aspecto social y cultural existente a nivel global.

Por ende, debemos indicar que un importante vacío en el ámbito laboral, el cual directamente afecta a la formulación del algoritmo, es que aún perduran ciertos temas que ocasionan importantes desigualdades entre las personas trabajadoras. Incluso nos estamos refiriendo a situaciones que de manera inconsciente pudieran surgir, lo que dificulta enormemente la configuración de un algoritmo digital basado en términos de justicia.

III. SUPUESTOS CONCRETOS DE DISCRIMINACIÓN  ^ 

Tras lo analizado anteriormente, lo cierto es que en la práctica es ciertamente complejo configurar un algoritmo en código en abierto, transparente y orientado hacia la consecución de la justicia. Resultan ser muy escasas las empresas que reflexionan no solo acerca de lo que pretenden que el algoritmo decida, sino además cuestionarse sobre el procesamiento interno de toda esa información por parte de la maquinaria para, de este modo, intentar al menos que las decisiones tomadas sean los más ajustadas al cumplimiento de los derechos fundamentales en garantía de la protección jurídica de las personas trabajadoras.

Estos sesgos se pueden producir una vez que los algoritmos establezcan un perfil determinado de las personas que, o bien ya se encuentran trabajando en la empresa, o pretenden hacerlo tras un proceso de selección; no siendo algo éticamente aceptado el que el mismo esconda una lógica discriminatoria. Y es que estamos hablando de una discriminación que resulta igualmente reprochable que si se hubiese realizado de manera personal y presencial por parte de la empresa. A pesar de ello, es difícilmente demostrable la intencionalidad de las empresas en la configuración de algoritmos sesgados, ya que resulta muy difícilmente probable que exista un “dolo encubierto” por parte de la empresa en la creación del mismo, sobre todo cuando su origen se encuentra en un código fuente cerrado, esto es, no modificable o alterable, no permitiéndose, en principio, una fácil auditoría.

Sea (de) una forma u otra, lo cierto es que los algoritmos están ocasionando situaciones discriminatorias entre las personas trabajadoras, siendo necesario analizar ciertos supuestos de discriminación a título ilustrativo.

A. Discriminación en las ofertas de trabajo  ^ 

Actualmente, con las tecnologías de la información y de la comunicación, muchas ofertas de trabajo se vienen efectuando a través de plataformas virtuales o redes sociales. Esto, en principio, no debe ocasionar ningún problema, incluso una ventaja por parte de las empresas, ya que pueden alcanzar a un mayor nivel de perfiles, y también para las personas trabajadoras debido a que el estar de altas en dicha plataforma o red pueden tener a su disposición numerosas ofertas de trabajo. Sin embargo, algunas empresas parecen aprovechar esta situación para ofrecer estas ofertas laborales a un determinado colectivo de personas trabajadoras. Con ello no nos referimos a un perfil en concreto de contratante, sino a ofertas con segmentaciones en la edad, sexo, aficiones, país de origen o de residencia, así como ofreciendo un tipo de publicidad centrada en lugares demográficos concretos.

Un ejemplo concreto lo podemos observar con la empresa Facebook. ACLU, American Civil Liberties Union, presentó una denuncia ante la Comisión por la igualdad de oportunidades en el trabajo de los Estados Unidos, al observar que la empresa permitía efectuar anuncios seleccionados por razón de género, es decir, dirigiéndolos solo a usuarios masculinos (y excluyendo al femenino por ser mujer). Facebook parecía incumplir con la normativa americana –al igual que ocurriría con la española en su caso– por no ofrecer las mismas ofertas de trabajo tanto a hombres como a mujeres, debiendo estar disponibles para todos los ciudadanos, sin excepciones por razón de género.

Analizando sucintamente este ejemplo, debemos señalar que Facebook tenía un algoritmo digital que articulaba anuncios diferentes dependiendo de si se dirigían a un colectivo (hombres) u otro (mujeres), teniendo en cuenta las posibles preferencias o gustos de ambos. De esta manera, la plataforma excluía a las mujeres de ver ciertos anuncios[13] (ofertas laborales), cuestión que además de ser reprochable, discriminaba socialmente a las mujeres trabajadoras, limitándosele el acceso a determinados puestos de trabajo por su condición de género. Esto demostraba que el algoritmo de la plataforma se encontraba condicionado en su creación (procedimiento de aprendizaje y procesamiento de datos) por lo que entendía que resultaban ser las preferencias de las mujeres con respecto a los hombres en relación a la selección de determinadas ofertas de trabajo, lo cual resulta injusto y discriminatorio.

B. Discriminación en el acceso al empleo

Los supuestos de discriminación no sólo aparecen en las ofertas laborales, sino también en el propio acceso al empleo, donde cada vez son más las empresas que recurren al uso de algoritmos digitales en el ámbito de recursos humanos para seleccionar a los mejores perfiles a través de la maquinaria, desechando de este modo el resto de perfiles que no supere “el filtro”.

Concretamente, en relación al género podemos señalar el ejemplo de la empresa Amazon. Esta empresa desarrolló un algoritmo en materia de contratación del personal a través de una serie de puntuaciones que iban desde alcanzar una estrella hasta cinco (siendo cinco la puntuación máxima a la que una persona trabajadora pudiera obtener). “El algoritmo que empleaba Amazon para valorar a los candidatos y candidatas demostró que los hombres eran preferibles en estos puestos de trabajo, ya que quedó demostrado que obtenían una valoración mayor con respecto a las mujeres de manera arbitraria e injustificada. Tanto es así que incluso el algoritmo “penalizaba” aquellos currículums que incluían alguna palabra femenina”[14].

En este caso, aunque aún tengamos ciertas dudas sobre la intencionalidad de la empresa en establecer estas evidentes limitaciones para el colectivo femenino, lo cierto es que demostraban inexactitudes en el algoritmo digital empleado, ya que, al parecer, el sistema analizaba los datos de los CV en un proceso de diez años de la vida de la empresa y elaboraba un esquema para determinar qué empleados resultaban más idóneos, ocasionando que, en la mayoría de los datos analizados, esto es, las personas contratadas a lo largo de dicho periodo laboral, eran hombres[15]. De esta manera, el algoritmo había tenido un proceso de aprendizaje sesgado desde su origen (esto es, a través de los datos que fueron introducidos por parte de la empresa).

C. Discriminación en las condiciones de trabajo y excesivo control en el rendimiento de la persona trabajadora  ^ 

Uber podría estar cobrando más a los usuarios de barrios mayoritariamente negros de Chicago según un estudio[16]. En este caso parece tener lugar un supuesto de discriminación atendiendo a la edad, el precio de las viviendas, la educación y la etnia. Por consiguiente, parece que la plataforma está ocasionando un verdadero sesgo social, estableciendo diferencias en un determinado colectivo de la población, subiendo el precio del servicio por razones arbitrarias e injustificadas. A ello se suma que la propia plataforma también utilizaba un algoritmo que discriminaba a los conductores (en este supuesto no a los usuarios como sí parecía ocurrir anteriormente) por origen racial, ya que encargaba menos trabajo a unos (los negros) con respecto a otros.

Esta actuación de la empresa resultaba ser discrecional, arbitraria, injusta y, sobre todo, desigualitaria. “Esto a su vez implicaba la precarización de sus puestos de trabajo, ya que el hecho de que la plataforma no necesitase sus servicios reflejaba un descenso en el salario de dicho colectivo. Estudios realizados en Airbnb, y también en Craigslist, han demostrado que las personas negras a menudo suelen ser perjudicadas en las evaluaciones, lo cual les afectará directamente en el salario. Y es que cabe mencionar que en la presente plataforma se ha demostrado que, si los prestadores de servicios no operan para las mismas durante un determinado periodo de tiempo o reciben comentarios desfavorables por sus actuaciones o cancelaciones reiteradas por parte de los consumidores y usuarios, las empresas tienden a enviarles cada vez menos “llamadas”, llegando incluso el punto de tener la capacidad de darles de baja de la propia plataforma”[17].

En este supuesto, podemos observar cómo tiene lugar un excesivo control por parte de la plataforma respecto a la manera que tienen las personas trabajadoras de comportarse en relación a la cancelación de los viajes. Es decir, es muy posible que esta excesiva instrumentalización hacia lo tecnológico implicase que el algoritmo estuviera configurado para que a las personas trabajadoras que se les cancelaban ciertos viajes (los negros), cada vez más recibieran menos llamadas, coincidiendo este sesgo social en algo discriminatorio en el puesto de trabajo de manera automática.

Otro ejemplo lo podemos encontrar en la aplicación Predective hire (contratación anticipada), que evitaba posibles costes futuros a las empresas mediante predicciones atendiendo a los datos de las personas trabajadoras. Este algoritmo se basaba en descartar a los empleados que tenían una mayor probabilidad de pedir un aumento del salario o de apoyar la sindicalización a través de la transferencia y el análisis de una serie de datos recabados de los trabajadores por las plataformas virtuales (intercambio de correos electrónicos, mensajes, acceso a páginas de Internet, entre otros).

Por consiguiente, este control tecnológico a través de la maquinaria predecía la intencionalidad humana de las personas trabajadoras, analizando su personalidad e intención con la idea de que el algoritmo pudiera anticiparse a ciertos comportamientos de las personas trabajadoras más rebeldes o negativos, incluso llegando a afectar al funcionamiento habitual de la empresa. En este ejemplo podemos observar cómo la empresa, en lugar de mantener una relación honesta con la persona trabajadora, basada en el trabajo personal y la confianza, utilizaba un predictor mediante una maquinaria para poder tomar anticipadamente a la toma de ciertas decisiones y así tratar de ponerle solución de una manera más rápida.

En este ejemplo, el algoritmo controlaba las actitudes de las personas trabajadoras mediante el cotejo de una serie de datos, ya sean personales o no, estableciendo un perfil muy concreto sobre su persona, llegando incluso a predecir posibles comportamientos futuros, perdiéndose de este modo el elemento más personal y humano de las relaciones de trabajo.

IV. REFLEXIONES FINALES: ¿PUEDE CONFIGURARSE UN ALGORITMO DIGITAL JUSTO?  ^ 

La incorporación de las tecnologías de la información y de la comunicación en el trabajo están reforzando notablemente el sistema de control y vigilancia empresarial hacia la persona trabajadora mediante la recopilación de datos de diversa índole. En la actualidad, muchas de estas empresas recurren a los algoritmos digitales para ejercitar su poder de una manera más rápida, objetiva y, sobre todo, inadvertida hacia la persona trabajadora. Por consiguiente, lo que anteriormente era considerado un control más personal y presencial, ahora se ha visto sustituido por una maquinaria (el algoritmo), la cual trata de dar una respuesta a las cuestiones empresariales planteadas con el objetivo de que con dicha información la empresa pueda adoptar ciertas decisiones.

En este sentido, debemos efectuar una reflexión acerca de esta excesiva –y a la vez preocupante– instrumentalización hacia lo tecnológico en el ámbito de las relaciones de trabajo. Y es que es necesario indicar que una relación laboral, entre la persona trabajadora y la empresa, debiera ser personalísima y, además, configurada conforme a la buena fe. Esto quiere decir que debiera existir una verdadera confianza entre ambas partes en el desempeño del trabajo. Sin embargo, el uso abusivo de las tecnológicas y el control incesante en el comportamiento de la persona trabajadora, en ocasiones, puede mermar esta confianza y, por ende, la propia relación de trabajo. Nos referimos a que el fenómeno que está teniendo lugar es una cierta deshumanización de las relaciones laborales, viéndose sustituida por una preocupante instrumentalización hacia la tecnología y, más concretamente, en el uso de los algoritmos digitales.

Además de esta posible merma en el ámbito más subjetivo de la relación de trabajo, nos encontramos con un escenario ciertamente preocupante en lo que respecta al ámbito normativo. A lo largo del estudio se ha evidenciado que la legislación es prácticamente inexistente, ocasionando una importante desprotección jurídica hacia la persona trabajadora. Por consiguiente, en la consecución de un algoritmo digital orientado hacia la justicia, resulta fundamental fortalecer la norma. Y más allá de ello, que exista un verdadero deber de información hacia la persona trabajadora o, en su caso, sus representantes, en la introducción de esta tecnología.

Este deber de información no consideramos que debiera estar limitado solamente para aquellas empresas que cuenten con, al menos, cincuenta trabajadoras y formen un comité de empresas, sino que debiera igualmente extenderse a todas las empresas que, de una forma u otra –y con independencia de la plantilla–, utilicen los algoritmos digitales para vigilar el comportamiento de las personas trabajadoras y proceder a la toma automatizada de ciertas decisiones. Por ende, es necesario que la normativa, ya sea a nivel legislativo, convencional o contractual, resulte ser lo más transparente posible.

Otro de los aspectos determinantes en la reciprocidad o el comportamiento de las partes en la recopilación de datos, el proceso de aprendizaje del algoritmo y la toma automatizada de decisiones. Analizando esta dimensión, hemos detectado diversos vacíos a lo largo del estudio caracterizados, en su mayoría, por la intencionalidad o el desconocimiento por parte de las empresas en la creación del algoritmo, lo cual hace que desde su configuración existan ciertos problemas derivados de su complejidad, en la delegación hacia un tercero (técnico informático) y en el desconocimiento real del funcionamiento del mismo (sobrepasando la esfera de control empresarial). Esto hace que no sólo la información que aporte la empresa a las personas trabajadoras no sea del todo cierta, sino que ni la propia empresa resulte ser verdaderamente consciente de los sesgos o situaciones injustas que la configuración del algoritmo puede ocasionar.

A ello se suma que cuando se recurre a este tipo de tecnología, las empresas lo que pretenden es agilizar ciertos procesos, por lo que, perdiéndose toda la parte humana de la relación de trabajo, se deja en manos de una maquinaria (el algoritmo) la asunción de decisiones empresariales que no sólo pueden revestir de cierta importancia para el normal funcionamiento de la empresa, sino que directamente van a afectar a la propia persona trabajadora.

Para la configuración de un algoritmo digital justo, o lo más próximo a la consecución de la justicia, se requiere una participación activa por parte de la empresa en la configuración del algoritmo y su funcionamiento, debiendo valorar si cumple el mismo o no conforme a lo esperado. Para ello se requiere de un tiempo prudencial en su configuración y, por supuesto, de valoración y testeo respecto a su funcionamiento, donde además se permita su alteración en cuanto se detecten en el procesamiento ciertas dudas sobre posibles injusticias. A ello se suma la conciencia empresarial en informar a la persona trabajadora, de manera activa, clara, transparente y concisa, sobre la configuración del algoritmo y, sobre todo, acerca de su finalidad, eliminándose así cualquier expectativa de privacidad que la persona trabajadora pudiera asumir.

Y, por otro lado, resulta fundamental en la configuración del algoritmo la socialidad, esto es, realizar un cambio de mentalidad, siendo este último aspecto quizá uno de los más relevantes planteados por el momento. Y es que no debemos olvidar que nos podemos encontrar, como además se ha evidenciado a lo largo del trabajo, con la creación de algoritmos sesgados desde su base u origen (en este procedimiento de autoaprendizaje) debido a un problema social y cultural, donde continúan existiendo situaciones discriminatorias respecto a colectivos ciertamente vulnerables. Así, el algoritmo creado no se encuentra orientado hacia la consecución de la justicia y la igualdad, viéndose, por el contrario, bastante alejado, creando situaciones de discriminación mediante la toma automatizada de decisiones empresariales arbitrarias e injustificadas. “Y es que partimos de la base de que en la sociedad existen sesgos, donde los valores, creencias y, en general, la cultura de grupo afecta de manera directa a ciertas personas y a la creación propia del algoritmo digital”[18].

Para paliar esta situación, se requiere de un gran esfuerzo social, siendo necesario un cambio de mentalidad, donde todas las personas, con independencia de su condición, tengan las mismas oportunidades. Por consiguiente, parece que el debate existente conforme a la creación de un algoritmo digital justo debiera analizarse desde una perspectiva amplia, teniendo siempre muy presente la necesaria información previa a las personas trabajadoras y el fortalecimiento de la norma en su protección jurídica, el comportamiento de las partes en el proceso de configuración del algoritmo y en su testeo, así como el entorno laboral y social existente, donde además se tenga en cuenta que nos encontramos ante una sociedad donde las desigualdades sociales continúan existiendo.

Teniendo en consideración estas cuestiones, podremos orientar estos modelos de trabajo “digitalizados” hacia la consecución de la justicia en la propia relación jurídica, donde además se fomente el elemento humano y más personal de las relaciones de trabajo por encima de la excesiva instrumentalización hacia la tecnología que existe en la actualidad.

Bibliografía  ^ 

Aragüez Valenzuela, L.: “Comentario crítico al Real Decreto-Ley 9/2021, de 11 de mayo, para garantizar los derechos laborales de las personas dedicadas al reparto en el ámbito de plataformas digitales”, Revista de privacidad y derecho digital, vol. 6, núm. 22, 2021.

Aragüez Valenzuela, L.: “Los algoritmos digitales en el trabajo: brechas y sesgos”, Revista Internacional y Comparada de Relaciones Laborales y Derecho del Empleo, vol. 9, núm. 4, 2021.

Azuaje Pirela M. y Finol González D.: “Transparencia algorítmica y la propiedad intelectual e industrial: tensiones y soluciones”, Revista La Propiedad Inmaterial, núm. 30, 2020 (DOI: https://doi.org/10.18601/16571959.n30.05).

Bach Gibert, A.: “Los sistemas de evaluación de trabajadores basados en las valoraciones de los clientes”, IUSLabor, núm. 3, 2019 (DOI: https://doi.org/10.31009/IUSLabor.2019.i03.01).

Becerra J. et al.: Derecho y big data, Universidad Católica de Colombia, Bogotá, 2018.

Benítez Eyzaguirre L.: “Ética y transparencia para la detección de sesgos algorítmicos de género”, Estudios sobre el Mensaje Periodístico, núm. 25 (3), 2019 (DOI: https://doi.org/10.5209/esmp.66989).

Caro Gándara, R.: “Reconstrucción de la justicia contractual desde la justicia relacional”, Recerca, Revista De Pensament I Análisi, núm. 14, 2014.

Castelblanco Gómez, W.: Algoritmos que discriminan: Derechos Humanos e Inteligencia Artificial, Universidad Católica de Colombia, Bogotá, 2021.

Eguíluz Castañeira, J. A.: “Desafíos y retos que plantean las decisiones automatizadas y los perfilados para los derechos fundamentales”, Estudios de Deusto: Revista de Derecho Público, vol. 68, núm. 2, 2020 (DOI: https://doi.org/10.18543/ed-68(2)-2020pp325-367).

Gómez Salado, M. Á. y Aragüez Valenzuela, L. (dirs.): Estudios sobre la mujer trabajadora y su protección jurídica, Laborum, Murcia, 2019.

Lyons K.: “Facebook’s ad delivery system still has gender bias, new study finds”, The Verge, 2021, disponible en https://www.theverge.com/2021/4/9/22375366/facebook-ad-gender-bias-delivery-algorithm-discrimination.

Márquez Prieto, A.: “Justicia relacional: economía y trabajo”, Revista Acontecimiento: órgano de expresión del Instituto Emmanuel Mounier, núm. 104, 2012.

Márquez Prieto, A.: “Justicia relacional: enfoque, línea y método”, en Márquez Prieto A. (dir.): Justicia Relacional y Principio de Fraternidad, Thomson Reuters-Aranzadi, Cizur Menor, 2017.

Márquez Prieto, A.: “La justicia relacional como círculo virtuoso”, Recerca, Revista De Pensament I Análisi, núm. 14, 2014.

Pandey A. y Caliskan A.: “Disparate Impact of Artificial Intelligence Bias in Ridehailing Economy’s Price Discrimination Algorithms”, en AA.VV.: AIES ’21. Proceedings of the 2021 AAAI/ACM Conference on AI, Ethics, and Society, Association for Computing Machinery, New York, 2021.

Rivas Vallejo, P.: La aplicación de la inteligencia artificial al trabajo: su impacto discriminatorio, Aranzadi, Cizur Menor, 2020.


[1] Aragüez Valenzuela, L.: “Los algoritmos digitales en el trabajo: brechas y sesgos”, Revista Internacional y Comparada de Relaciones Laborales y Derecho del Empleo, vol. 9, núm. 4, 2021, p. 129.

[2] Benítez Eyzaguirre L.: “Ética y transparencia para la detección de sesgos algorítmicos de género”, Estudios sobre el Mensaje Periodístico, núm. 25 (3), 2019, pp. 1307-1320.

[3] Eguíluz Castañeira, J. A.: “Desafíos y retos que plantean las decisiones automatizadas y los perfilados para los derechos fundamentales”, Estudios de Deusto: Revista de Derecho Público, vol. 68, núm. 2, 2020, pp. 325-367.

[4] Becerra J. et al.: Derecho y big data, Universidad Católica de Colombia, Bogotá, 2018, p. 39.

[5] Azuaje Pirela M. y Finol González D.: “Transparencia algorítmica y la propiedad intelectual e industrial: tensiones y soluciones”, Revista La Propiedad Inmaterial, núm. 30, 2020, pp. 111-146.

[6] Castelblanco Gómez, W.: Algoritmos que discriminan: Derechos Humanos e Inteligencia Artificial, Universidad Católica de Colombia, Bogotá, 2021, p. 9.

[7] Castelblanco Gómez, W.: Algoritmos que discriminan: Derechos Humanos e Inteligencia Artificial, ob. cit., p. 7.

[8] A título ilustrativo podemos mencionar que, “Desde 2013, Google utiliza un algoritmo semántico, Hummingbird, diseñado para el análisis del lenguaje natural o búsqueda conversacional. Con este nuevo algoritmo, la compañía actualizó los criterios incorporando la relevancia social, los factores personales, la calidad del contenido y los enlaces, así como la elección personal del usuario a la hora de dirigirse a uno de los resultados. En este sentido, Sweeney (2013) cuestiona cómo este modelo expone a las audiencias a prejuicios raciales y de género, a la vista de cómo se publica la publicidad contextual.

Dos años después Google implementó el componente RankBrain, para analizar un quince por ciento de las búsquedas, cuando incluyen términos coloquiales, frases complejas o neologismos, y así anticiparse a la intención del usuario. Entonces también incluyó la herramienta de código abierto TensorFlow, que aplica el modelo matemático Word2Vec, con el que se inicia el aprendizaje de conceptos a partir de las lecturas de artículos y sin supervisión humana. Usa representaciones distribuidas del texto para detectar similitudes entre conceptos, de forma que se hace útil para representar y extraer conocimiento, la traducción automática, la formulación de preguntas y respuestas”.

[9] Aragüez Valenzuela, L.: “Los algoritmos digitales en el trabajo: brechas y sesgos”, ob. cit., pp. 135-136.

[10] Para comprender de mejor manera las tres dimensiones de la justicia relacional (institucionalidad, socialidad y reciprocidad), se recomiendan las siguientes lecturas: Caro Gándara, R.: “Reconstrucción de la justicia contractual desde la justicia relacional”, Recerca, Revista De Pensament I Análisi, núm. 14, 2014, pp. 93-116; Márquez Prieto, A.: “Justicia relacional: economía y trabajo”, Revista Acontecimiento: órgano de expresión del Instituto Emmanuel Mounier, núm. 104, 2012, pp. 31-34; Márquez Prieto, A.: “Justicia relacional: enfoque, línea y método”, en Márquez Prieto A. (dir.): Justicia Relacional y Principio de Fraternidad, Thomson Reuters-Aranzadi, Cizur Menor, 2017, pp. 145-218; Márquez Prieto, A.: “La justicia relacional como círculo virtuoso”, Recerca, Revista De Pensament I Análisi, núm. 14, 2014, pp. 117-134.

[11] Para reflexionar sobre la nueva normativa relativa a los algoritmos digitales, se recomienda la lectura de Aragüez Valenzuela, L.: “Comentario crítico al Real Decreto-ley 9/2021, de 11 de mayo, para garantizar los derechos laborales de las personas dedicadas al reparto en el ámbito de plataformas digitales”, Revista de privacidad y derecho digital, Vol. 6, núm. 22, 2021, pp. 199-205.

[12] Para profundizar sobre estas cuestiones, se recomienda la lectura de Gómez Salado, M. Á. y Aragüez Valenzuela, L. (dirs.): Estudios sobre la mujer trabajadora y su protección jurídica, Laborum, Murcia, 2019.

[13] Para profundizar sobre esta cuestión, se recomienda la lectura de Lyons K.: “Facebook’s ad delivery system still has gender bias, new study finds”, The Verge, 2021, disponible en: https://www.theverge.com/2021/4/9/22375366/facebook-ad-gender-bias-delivery-algorithm-discrimination (fecha de consulta: 3 de septiembre de 2021).

[14] Aragüez Valenzuela, L.: “Los algoritmos digitales en el trabajo: brechas y sesgos”, ob. cit., pp. 138-139.

[15] Rivas Vallejo, P.: La aplicación de la inteligencia artificial al trabajo: su impacto discriminatorio, Aranzadi, Cizur Menor, 2020, p. 231.

[16] Pandey A. y Caliskan A.: “Disparate Impact of Artificial Intelligence Bias in Ridehailing Economy’s Price Discrimination Algorithms”, en AA.VV.: AIES ’21. Proceedings of the 2021 AAAI/ACM Conference on AI, Ethics, and Society, Association for Computing Machinery, New York, 2021.

[17] Bach Gibert, A.: “Los sistemas de evaluación de trabajadores basados en las valoraciones de los clientes”, IUSLabor, núm. 3, 2019, p. 8.

[18] Aragüez Valenzuela, L.: “Los algoritmos digitales en el trabajo: brechas y sesgos”, ob. cit., p. 144.