Trabajo, Persona, Derecho, Mercado 5 (2022) 99-108
https://dx.doi.org/10.12795/TPDM.2022.i5.05
Patrizia Tullini
Prof.ssa Ordinaria di Diritto del Lavoro
Università di Bologna
ORCID: 0000-0002-8184-1850
Abstract: Il contributo esamina i principi cardine della disciplina europea sull’Intelligenza Artificiale e la sua applicazione negli ordinamenti nazionali per lo sviluppo dei rapporti di lavoro. In particolare, si concentra sulle recenti proposte dell’Unione Europea, come la Direttiva sul miglioramento delle condizioni di lavoro sulle piattaforme e il Regolamento dell’Unione Europea sull’Intelligenza Artificiale.
Parole chiave: Intelligenza Artificiale, relazioni di lavoro, lavoro tramite piattaforma digitale, Regolamento Europeo sulla IA.
Resumen: El aporte examina los principios clave de la disciplina europea sobra l’Inteligencia Atificial y su aplicaciòn en los ordenamientos jurìdicos nacionales para el desarrollo de las relaciones laborales. En particular, se centra en las propuestas recientes de la Unión Europea, como la Directiva relativa a la mejora de las condiciones en el trabajo en plataformas y el Reglamento de la Unión Europea sobre Inteligencia Artificial.
Palabras claves: Inteligencia Artificial, Relaciones Laborales, Trabajo en Plataformas; Reglamento Europeo sobre IA.
1. Sistemi aziendali intelligenti e profilazione dei lavoratori: i principi-chiave previsti dalla normativa europea. 2. La proposta di direttiva europea sul lavoro tramite piattaforma digitale. 3. La gestione aziendale algoritmica e il diritto antidiscriminatorio. 4. La proposta di regolamento sull´intelligenza artificiale nel mercato unico e l´impatto sui diritti sociali. L´esigenza di un corretto coordinamento delle fonti europee. 5. Bibliografía
Sumario: 1. Sistemas de empresa inteligente y perfiles de trabajadores: los principios clave previstos por la legislación europea. 2. La propuesta de directiva europea sobre el trabajo a través de una plataforma digital. 3. Ley de gestión empresarial algorítmica y antidiscriminación. 4. La propuesta de Reglamento sobre inteligencia artificial en el mercado único y su impacto en los derechos sociales. La necesidad de una adecuada coordinación de las fuentes europeas. 5. Bibliografía.
Il Libro Bianco della Commissione Europea sull’intelligenza artificiale (IA) riassume i principali vantaggi, ma anche le ambivalenze, dell’evoluzione tecnologica in atto: da un lato, «l’intelligenza artificiale si sta sviluppando rapidamente» e consentirà un incremento di «efficienza dei sistemi di produzione». D’altra parte, tuttavia, l’utilizzo intenso e massivo degli algoritmi può comportare «una serie di rischi potenziali, meccanismi decisionali opachi, discriminazioni basate sul genere o di altro tipo, intrusioni nelle vite private» [1].
La crescita del mercato unico si fonda in misura sempre maggiore sul valore economico dei dati e sulla loro circolazione, pertanto le istituzioni europee si sforzano di creare un «clima di fiducia» nei confronti dell’IA, con l’obiettivo di promuoverne l’applicazione più ampia possibile e, al contempo, di governare i rischi potenziali che vi sono associati.
L’approccio normativo europeo è articolato su alcuni principi-chiave che sono, in gran parte, previsti dal Regolamento di protezione dei dati personali (GDPR).
Anzitutto, ogni attività di trattamento dei dati deve rispondere ai principi di trasparenza e di correttezza, secondo la logica della c.d. accountability. Quest’ultima espressione, contenuta nel GDPR, può essere tradotta come responsabilità e, insieme, come prova della responsabilità: nel senso che l’impresa deve adottare e dimostrare di aver adottato le misure tecnico-organizzative idonee alla salvaguardia dei dati personali (ad es., utilizzando i criteri di privacy by design e privacy by default; la valutazione d’impatto del trattamento: artt. 25 e 35, GDPR)[2].
Nei confronti del soggetto interessato dal trattamento dei dati opera soprattutto la garanzia di informazione preventiva, che comprende anche il diritto ad ottenere una spiegazione delle operazioni che si avvalgono di algoritmi (c.d. right of explanation: artt. 13 e 15, GDPR). La fonte normativa europea vieta inoltre le attività che sono completamente automatizzate e contempla, in aggiunta, il principio c.d. human in command, secondo il quale occorre sempre una supervisione umana sull’azione dei sistemi intelligenti quando si producano effetti giuridici «significativi» nella sfera della persona (art. 22 GDPR).
Nella strumentazione di tutela rispetto all’impiego degli algoritmi va considerata anche la tecnica di anonimizzazione dei dati personali. Com’è noto, i dati anonimi sono considerati estranei al campo di applicazione del GDPR e il legislatore europeo incoraggia tutte le pratiche di riduzione dell’identificabilità della persona (c.d. pseudo-anonimizzazione: art. 4, par. 5, GDPR)[3]. L’attività di profilazione, tuttavia, non è del tutto impedita o esclusa dall’anonimato: infatti, quando l’impresa disponga di un ampio volume di informazioni, è possibile ottenere una re-identificazione della persona utilizzando tracce che sono in apparenza neutre, oppure collegando cluster di dati alle cose per il tramite di Internet of Things (ad es., i dati di geolocalizzazione possono consentire la re-identificazione del lavoratore).
Richiamando questi principi-chiave e le garanzie introdotte dal GDPR, la giurisprudenza italiana ha condannato la profilazione dei lavoratori da parte delle piattaforme digitali e la scarsa comprensibilità dei sistemi intelligenti. Ha imposto di osservare la disciplina di protezione dei dati personali nell’utilizzo degli algoritmi e ha riconosciuto, a favore dei lavoratori digitali, «il diritto di ottenere l’intervento umano da parte del titolare del trattamento, di esprimere la propria opinione e di contestare la decisione aziendale adottata in modo automatizzato»[4]. Secondo la Corte di Cassazione, le garanzie dell’informazione preventiva e della trasparenza non sono soddisfatte quando il funzionamento dell’algoritmo e gli elementi di cui si compone restano ignoti e non sono conoscibili dai soggetti interessati[5].
Anche il Garante italiano della privacy ha chiarito che le operazioni effettuate con il supporto dell’IA richiedono misure appropriate di tutela per minimizzare il rischio di errori ed ha condannato alcune piattaforme del settore food delivery (ad es., Deliveroo; Foodinho) per non aver verificato periodicamente la correttezza della gestione algoritmica e dei suoi effetti, allo scopo di prevenire eventuali discriminazioni a carico dei lavoratori[6].
I principi-chiave della gestione algoritmica e le misure di tutela della persona previste dal Regolamento europeo di privacy sono state recepite anche dalla Proposta di Direttiva sulle condizioni di lavoro tramite piattaforma digitale[7], con l’aggiunta di maggiori dettagli applicativi.
Il diritto all’informazione preventiva assume un contenuto più ampio e definito rispetto a quanto già previsto dal GDPR: secondo la Proposta di Direttiva, infatti, gli Stati membri sono tenuti a garantire l’informazione preventiva e la spiegazione sul funzionamento dell’algoritmo in una forma comprensibile e concretamente fruibile dal lavoratore. La piattaforma digitale deve dichiarare, inoltre, quali tipologie di provvedimenti aziendali utilizzano l’IA e i principali parametri («main parameters») adottati dalla gestione algoritmica, in particolare quando incide sulle condizioni di lavoro (ad es., mansioni e retribuzione, tutela della salute e sicurezza sul lavoro, orario di lavoro, accesso alla piattaforma; sospensione e cancellazione dell’account) (art. 6, par. 1-2).
La Proposta di Direttiva sul lavoro tramite piattaforma ribadisce, inoltre, l’obbligo della supervisione umana nelle decisioni e nei processi automatizzati (art. 8). Ciò dovrebbe consentire al lavoratore digitale di rivolgersi ad un esperto aziendale per chiedere una spiegazione sul funzionamento dell’IA ed eventualmente ottenere la rettifica degli effetti determinati dall’applicazione dell’algoritmo, purchè si tratti sempre di effetti giuridici «significativi» nella sfera personale (come già previsto dal GDPR).
Non è chiaro, tuttavia, cosa debba intendersi per effetti «significativi» nella sfera del lavoratore; probabilmente la Proposta europea intende riferirsi ai provvedimenti aziendali automatizzati che sono in grado di modificare o di incidere in senso peggiorativo sullo status contrattuale del lavoratore.
In linea di principio, l’obbligo di trasparenza imposto alle piattaforme in caso di adozione di algoritmi ha un indubbio rilievo nella prospettiva della tutela dei diritti fondamentali del lavoratore, ma occorre considerare le asimmetrie informative e il differenziale di potere giuridico che caratterizza il rapporto di lavoro. Da questo punto di vista, le tecniche di tutela riconosciute a livello individuale risultano spesso inadeguate o inefficaci, mentre sarebbe più utile potenziare i diritti collettivi e promuovere una regolazione per via sindacale dei processi aziendali di Data analytics.
E’ vero che le istituzioni europee sollecitano l’intervento delle rappresentanze dei lavoratori e il ricorso alla contrattazione collettiva, per contrastare l’invadenza dell’IA e l’eventuale impatto negativo sui diritti sociali, ma – a ben guardare - ai soggetti collettivi non sono attribuiti diritti particolari né prerogative aggiuntive rispetto a quelle che sono già riconosciute ai singoli lavoratori.
Nella Proposta di Direttiva sulle piattaforme digitali c’è un passo avanti rispetto alla disciplina contenuta nel GDPR: i Paesi membri sono tenuti a rafforzare le prerogative delle rappresentanze sindacali in linea con la dir. 2002/14/Ce sui diritti collettivi di informazione e consultazione (art. 9). Ma, in mancanza dei soggetti sindacali, si prevede che i diritti di informazione siano direttamente attribuiti ai lavoratori digitali, eventualmente con l’assistenza di esperti dell’IA[8]. Dunque, non si prevede un autentico rafforzamento del potere collettivo nei confronti della gestione algoritmica: il livello collettivo e quello individuale sembrano fungibili oppure in alternativa tra loro.
A partire dal GDPR, le fonti normative europee in materia di IA continuano a privilegiare soprattutto la titolarità e l’esercizio dei diritti individuali.
La complessità della regolazione dei sistemi intelligenti è innegabile. La trasparenza è un obiettivo molto difficile da raggiungere rispetto alle innumerevoli potenzialità degli algoritmi e i diritti del lavoratore all’informazione e alla c.d. explainability mancano spesso di concretezza o di effettività.
Persino i programmatori e gli esperti informatici faticano a comprendere le caratteristiche di molte tecnologie intelligenti che sono capaci di funzionare in modo completamente autarchico. Gli algoritmi e i processi aziendali di machine learning possono essere addestrati per conseguire finalità specifiche e predeterminate (supervised), ma sono anche in grado d’individuare in modo autonomo finalità ulteriori e persino imprevedibili, senza alcuna precisa istruzione da parte del programmatore (unsupervised). Rispetto a simili operazioni e trattamenti di dati si può toccare con mano l’insufficienza delle tradizionali tecniche di garanzia del lavoratore[9].
Lo sviluppo scientifico e tecnologico si sta velocemente orientando verso il cognitive computing nel quale le macchine “senzienti” risulteranno molto complicate anche per la comprensione umana. Persino il Libro Bianco europeo riconosce che «le autorità pubbliche e le persone interessate potrebbero non avere i mezzi per verificare come sia stata presa una decisione con l’IA e, di conseguenza, se sia stata rispettata la normativa»[10].
In questo panorama della digitalizzazione in rapido sviluppo, al di là dei principi-chiave introdotti dalla normativa europea sul trattamento dei dati personali, un supporto rilevante per la tutela del lavoratore è offerto soprattutto dal diritto antidiscriminatorio nella sua dimensione multilivello (europea e nazionale)[11].
La disciplina antidiscriminatoria opera già al momento della progettazione dei sistemi aziendali intelligenti e nella fase della raccolta delle informazioni che sono destinate alla gestione algoritmica. È noto, infatti, che i dati di costruzione e di addestramento degli algoritmi possono nascondere discriminazioni sul piano individuale e collettivo; possono incorporare pregiudizi e stereotipi sulla base del genere o di altri fattori; possono causare ingiustificate disparità di trattamento, anche in modo involontario[12].
Il diritto antidiscriminatorio sembra in grado di fornire gli strumenti tecnici (sostanziali e processuali)[13] idonei a contrastare le illecite penalizzazioni a carico di singoli o di gruppi di lavoratori. Per sua natura, implica una comparazione degli effetti concreti che sono provocati dall’applicazione dell’IA nelle decisioni e nelle scelte aziendali. La struttura oggettiva (by effects) del giudizio antidiscriminatorio prescinde da ogni valutazione relativa all’intenzione o alla volontà del datore di lavoro, e permette di verificare la presunta neutralità, sotto il profilo delle finalità e dei mezzi, delle tecnologie utilizzate dall’impresa.
In verità, non mancano le difficoltà di adattamento del vigente diritto antidiscriminatorio rispetto alle potenzialità e ai rischi dell’IA a carico dei diritti fondamentali del lavoratore. Le difficoltà di colgono specialmente a proposito delle pratiche aziendali di profilazione dei lavoratori, che non si ritengono di per sé censurabili, salvo il rispetto della disciplina di protezione dei dati, mentre sembrano emergere maggiori perplessità sul piano della parità di trattamento e del divieto di discriminazione.
Probabilmente, la stessa nozione giuridica di discriminazione sul lavoro (nella forma diretta e indiretta) dovrebbe essere aggiornata e concettualizzata in modo nuovo, per renderla più adeguata all’ambiente digitale e al modo di operare dell’IA.
Le regole di tutela introdotte per la gestione dei sistemi intelligenti da parte dell’impresa devono tener conto della Proposta di Regolamento europeo sull’IA (c.d. Legge sull’IA)[14]. Le istituzioni europee, infatti, sembrano aver imboccato percorsi in parte divergenti, che non escludono le sovrapposizioni ed un eventuale conflitto tra le regole dettate per la gestione algoritmica.
È noto che la Direttiva sulle condizioni del lavoro tramite piattaforma digitale ha un contenuto di carattere sociale e richiede la trasposizione legislativa negli ordinamenti nazionali. La Proposta europea si basa sull’art. 153, paragrafo 1, lett. b), del TFUE che conferisce all’Unione il potere di sostenere e di completare l’azione degli Stati membri per migliorare le condizioni di lavoro, oltre che sull’art. 16, paragrafo 2, del TFUE, in quanto si occupa delle condizioni dei lavoratori tramite piattaforma per assicurare la protezione dei loro dati personali trattati con sistemi automatizzati.
Del tutto diversa è la base giuridica della Proposta di Regolamento sull’IA, che è individuabile nella disciplina del mercato interno (art. 114 TFUE) e costituisce «una parte fondamentale della strategia dell’Unione per il mercato unico digitale». Nelle intenzioni del legislatore europeo, l’efficacia diretta della regolazione armonizzata sull’IA, conformemente all’art. 288 del TFUE, è diretta a ridurre la frammentazione normativa e a facilitare lo sviluppo di un mercato unico dei sistemi intelligenti. Si tratta, dunque, di una fonte normativa di carattere auto-esecutivo e di immediata applicabilità negli ordinamenti giuridici degli Stati membri.
Secondo la giurisprudenza della Corte di giustizia europea, infatti, le regole armonizzate attinenti alla disciplina e al funzionamento del mercato interno sono destinate a prevalere sulle norme eurounitarie in materia di diritti sociali e su quelle di matrice nazionale. Ciò significa che il corretto coordinamento tra le due fonti normative assume un particolare rilievo nella prospettiva della tutela dei diritti dei lavoratori, al fine di evitare una regressione dell’acquis europeo in materia sociale.
Allo stato, il raccordo tra le fonti europee i materia di IA non risulta sempre chiaro. La Proposta di Regolamento sull’IA dovrebbe inserirsi in un pacchetto più ampio di misure dirette ad affrontare i problemi posti dalla digitalizzazione, come anticipato dal Libro Bianco e dalla Comunicazione della Commissione europea sul futuro digitale dell’Europa[15]. Tuttavia non sembrano garantite la coerenza e la complementarità delle regole armonizzate sull’IA rispetto ad altre iniziative della Commissione, come dimostra il fatto che la Proposta di Direttiva sulle condizioni di lavoro tramite piattaforma digitale non viene neppure richiamata.
L’allegato III della Proposta di Regolamento sull’IA si riferisce a:
«Sistemi di IA destinati all’assunzione o selezione di persone, per la pubblicità di offerte di lavoro, lo screening delle domande, la valutazione dei candidati nel corso di colloqui o prove»;
«Sistemi intelligenti per prendere decisioni su promozione e cessazione rapporti di lavoro, per l’assegnazione di attività, la valutazione della prestazione e il comportamento delle persone nei rapporti di lavoro».
Questi sistemi aziendali intelligenti sono classificati dalla Proposta di Regolamento europeo come «sistemi a rischio elevato», in considerazione della loro potenziale incidenza sui diritti fondamentali dei lavoratori. Pertanto, devono essere sottoposti a procedure di validazione da parte del loro produttore o, in alcune ipotesi, da parte di un organismo terzo, il c.d. «organismo notificato».
In altri termini, la c.d. Legge sull’IA sembra dare per scontato l’utilizzo legittimo dei sistemi intelligenti da parte dell’impresa, con la sola condizione che vengano rispettate le procedure di validazione previste dal Regolamento medesimo. Ciò solleva alcuni dubbi di compatibilità rispetto alla Proposta di Direttiva sul lavoro tramite piattaforma digitale che, invece, sottopone la gestione algoritmica aziendale ad una disciplina più stringente e vincolante.
Si deve aggiungere che, nell’ordinamento giuslavoristico italiano, appare molto problematico l’utilizzo dei sistemi intelligenti ai fini dell’assunzione dei lavoratori, del controllo a distanza sulla prestazione e del monitoraggio sul comportamento. L’art. 4 dello Statuto dei lavoratori introduce un preciso divieto rispetto all’esercizio del potere datoriale di controllo tecnologico sull’adempimento dell’attività lavorativa e, in generale, sui comportamenti. Ma, in questa materia, regole di tutela dei lavoratori sono presenti in diversi ordinamenti degli Stati membri.
Le legislazioni nazionali, come quella italiana, prevedono spesso il coinvolgimento delle rappresentanze sindacali oppure favoriscono il ricorso alla contrattazione collettiva per definire le modalità di esercizio e i limiti del potere di controllo tecnologico nell’impresa. Al contrario, il Progetto di Regolamento europeo sull’IA non attribuisce alcun ruolo specifico alle parti sociali rispetto all’utilizzo dei sistemi aziendali intelligenti, seppure siano universalmente considerati come «sistemi a rischio elevato».
Il testo regolamentare europeo sull’IA sembra allontanarsi anche dall’applicazione del principio-chiave contenuto nel GDPR che prevede l’obbligo della supervisione umana nelle procedure aziendali e nelle decisioni automatizzate (c.d. human in command). Non è prevista, infatti, alcuna formazione specialistica per i soggetti che sono preposti al funzionamento dei sistemi intelligenti e non si riconosce ai lavoratori la possibilità di contestare o di rettificare gli impatti derivanti dall’utilizzo dell’AI sulle condizioni di lavoro.
Se il Regolamento sull’IA sarà approvato dall’Unione europea nel testo attuale, si profila il rischio che le legislazioni dei Paesi membri più garantiste e orientate alla tutela dei diritti sociali vengano superate dall’intervento di taglio “liberista”, diretto soprattutto a facilitare la circolazione e la commercializzazione degli sistemi algoritmici nel mercato unico.
In conclusione, appare urgente stabilire i criteri per un corretto coordinamento - sul piano delle politiche, delle finalità e delle regole - delle diverse fonti europee in materia di IA: il coordinamento normativo risulta essenziale se si vuole evitare un possibile effetto regressivo dei diritti dei lavoratori negli ordinamenti nazionali.
Ballestrero, M.V. (2021), “Ancora sui rider. La cecità discriminatoria della piattaforma”, Labor, 1-10.
Barbera, M. (2021), “Discriminazioni algoritmiche e forme di discriminazione”, Labour & Law Issues, vol. 1.
Barbieri, M. (2021), “Prime osservazioni sulla proposta di direttiva per il miglioramento delle condizioni di lavoro nel lavoro con piattaforma”, Labour & Law Issues, vol. 2, C. 1-20.
De Simone, G. (2022), “Discriminazione”, in Novella, Marco; Tullini, Patrizia (Dir.), Lavoro digitale, Ed. Giappichelli, Torino, 127-151.
Donini, A. (2017), “Profilazione reputazionale e tutela del lavoratore: la parola al Garante privacy”, Labour & Law Issues, vol. 1, 35-
Donini, A. (2019), II lavoro attraverso le piattaforme digitali, Bologna University Press.
Donini, A. (2022), “Piattaforme”, in Novella, Marco; Tullini, Patrizia (Dir.), Lavoro digitale, Ed. Giappichelli, Torino, 25-45.
Finocchiaro, G. (2017), “Introduzione la regolamento europeo sulla protezione dei dati”, Nuove leggi civili commentate, 10-18.
Novella, M. (2021), “La prova della discriminazione nel rapporto di lavoro”, Marvasi, Corrado (Dir.), Le prove nel processo del lavoro, Ed. Giuffré, Milano, 525-552.
Pizzetti, F. (2021), “La proposta di regolamento sull’IA della Commissione Europea presentata il 21.4.2021 tra Mercato unico e competizione digitale globale”, Diritto di Internet, vol. 4, p. 591-599.
Tullini, P. (2020), “La salvaguardia dei diritti fondamentali della persona che lavora nella gig-economy”, Costituzionalismo.it, I, 39-59.
Tullini, P. (2022), “Dati”, in Novella, Marco; Tullini, Patrizia (Dir.), Lavoro digitale, Ed. Giappichelli, Torino, 105-126.
Xenidis, R. (2020), “Tuning EU equality law to algorithmic discrimination: Three pathways to resilience”, Maastricht Journal of European and Comparative Law, vol. 27, 736-758.
[1] Libro Bianco sull’intelligenza artificiale. Un approccio europeo all’eccellenza e alla fiducia – COM(2020)65 final, 1. Cfr. inoltre Un’Unione dell’uguaglianza: la strategia per la parità di genere 2020-2025, COM(2020) 152 final, secondo cui gli algoritmi «se non sufficientemente trasparenti e robusti, rischiano di riprodurre, amplificare o contribuire a pregiudizi di genere di cui i programmatori possono non essere a conoscenza»; EDPB (European Data Protection Board), Guidelines on Automated individual decision-making and Profiling for purposes of Regulation 2016/679; Risoluzione del Parlamento europeo del 14 marzo 2017 sulle implicazioni dei Big Data per i diritti fondamentali: privacy, protezione dei dati, non discriminazione, sicurezza e attività di contrasto (2016/2225(INI).
[2] Finocchiaro 2017, 10.
[3] La pseudonimizzazione è un trattamento dei dati «in modo tale che non possano più essere attribuiti a un interessato specifico senza l’utilizzo di informazioni aggiuntive, a condizione che tali informazioni aggiuntive siano conservate separatamente e soggette a misure tecniche e organizzative intese a garantire che tali dati personali non siano attribuiti a una persona fisica identificata o identificabile» (Considerando 29, GDPR).
[4] Cfr. Trib. Bologna, 31 dicembre 2020, secondo cui la scarsa trasparenza dell’algoritmo della piattaforma «preclude in radice una più approfondita indagine sulla discriminazione» dei lavoratori. Per un commento v. Ballestrero 2021. Cfr. inoltre Consiglio di Stato, sez. VI, 8 aprile 2019, n. 2270, che ha ritenuto illegittimo un concorso pubblico che aveva applicato un algoritmo opaco e non conoscibile da parte dei candidati interessati.
[5] Cass., sez. civ., 25 marzo 2021, n. 14381.
[6] Garante Protezione Dati Personali, Ordinanza ingiunzione nei confronti di Foodinho srl, provv. n. 234 del 10.6.2021, doc. web n. 9675440; Id., Ordinanza ingiunzione nei confronti di Deliveroo Italy srl, provv. n. 285 del 22.7.2021. In dottrina v. Donini 2019; Donini 2017, 35.
[7] Directive of the European Parliament and of the Council on improving working conditions in platform work – COM(2021) 762 final, 9 dicembre 2021. Per un commento della Proposta di direttiva v. Donini 2022, 25; Barbieri 2021, 1.
[8] Cfr. art. 9, par. 1: «Member States shall ensure information and consultation of platform workers’ representatives or, where are no such representatives, of the platform workers».
[9] Cfr. Tullini 2022, 120-126; Tullini 2020, 58.
[10] Libro Bianco sull’intelligenza artificiale, cit. 13.
[11] De Simone 2022, 127; Barbera 2021, 1; Xenidis 2020, 736-758. Al tema della gestione algoritmica delle piattaforme digitali e della discriminazione è dedicato il n. 2/2021 della Rivista Labour& Law Issues, https://labourlaw.unibo.it
[12] Libro Bianco sull’intelligenza artificiale, cit., 12: «Tali rischi potrebbero derivare da difetti nella progettazione …. (ad es., se un sistema è addestrato utilizzando solo o principalmente dati riguardanti gli uomini, il che comporta risultati non ottimali per quanto concerne le donne)». Secondo il Considerando 71 del GDPR, la qualità dai dati raccolti – nel senso della loro esattezza, accuratezza e pertinenza – può scongiurare diversi profili di illegittimità e di discriminazione che si annidano nelle applicazioni dell’IA.
[13] Novella 2021, 525.
[14] Proposta di regolamento del Parlamento europeo e del Consiglio che stabilisce regole armonizzate sull’IA (legge sulla IA) e modifica alcuni atti legislativi del 21 aprile 2021, COM(2021)206, final. Per un commento della Proposta v. Pizzetti 2021, 591.
[15] Comunicazione della Commissione europea, “Plasmare il futuro digitale dell’Europa” (COM(2020) 67 final).