AI at job
dtxexplained

Intelligenza Artificiale e impatti legali nel mondo del lavoro

Raffaella Aghemo

--

a cura di Raffaella Aghemo

Il mondo del lavoro sta cambiando radicalmente. Ognuno di noi, chi più chi meno, deve fare i conti con nuove forme di interazioni, di business, di work flows. Sulla scena sono apparsi nuovi attori, rivestiti anziché di carne ed ossa, di circuiti e transistor, i sistemi di Intelligenza Artificiale, che appaiono sempre più presenti nella gestione, a tutto tondo, del personale di una azienda.

Appare quanto mai interessante il recente lavoro, elaborato dalla Global Legal Group Ltd di Londra, dal titolo “IA, apprendimento automatico & Big Data — Terza edizione”, nel quale si analizzano diverse situazioni, nelle quali questo nuovo attore cibernetico entra di prepotenza sul mercato globale. Come si legge nell’introduzione, sempre più datori di lavoro si affidano a questi sistemi automatizzati per decretare assunzioni, selezionare curricula, emettere provvedimenti disciplinari o effettuare licenziamenti! Tutto questo però, se sembrerebbe agevolare un flusso più agile e più smart in attività estremamente impegnative, in termini di tempi e costi, porta altresì con sé rischi di pregiudizi e di errori di valutazione. E infatti si legge: «Questi algoritmi “imparano” analizzando i set di dati forniti loro e identificando i modelli nei dati. Quando arriva il momento di eseguire i propri compiti, questi algoritmi prendono decisioni nel tentativo di replicare i modelli che hanno identificato. In questo senso, gli algoritmi presuppongono l’accuratezza del processo decisionale umano e si basano su queste decisioni precedenti, da parte dell’uomo, come gold standard da replicare.»

Nel reclutamento, sempre più, è consuetudine affidarsi a sistemi chatbot, in grado di comunicare con i candidati ad una posizione lavorativa, ponendo domande filtro, in grado di raccogliere informazioni decisive sulle skills del candidato. Per non parlare poi, di altri sistemi algoritmici che: «hanno la capacità di tenere traccia dei caratteri digitati sulla tastiera di un dipendente, monitorare se un dipendente presta attenzione allo schermo del proprio computer utilizzando webcam e software di tracciamento oculare, sorvegliare i siti Web e le applicazioni utilizzate dai dipendenti e tenere traccia di quanto tempo trascorrono i dipendenti su vari compiti.»

«Inoltre, alcuni algoritmi possono persino analizzare i modelli di condotta per prevedere quando è probabile che un dipendente lasci, consentendo così l’intervento del datore di lavoro e consentendo alle aziende di agire per trattenere i talenti critici

Molte legislazioni in materia di lavoro sono nate prima dell’avvento di tali tecnologie, per cui ora è opportuno aggiornarsi ai nuovi strumenti utilizzati, come è avvenuto nello Stato americano dell’Illinois, ove si sta promuovendo un nuovo emendamento all’Artificial Intelligence Video Interview Act, per affrontare ulteriormente i pregiudizi razziali, che potrebbero infiltrarsi nell’uso dell’intelligenza artificiale nel processo di assunzione e nelle job interviews: tali datori di lavoro sarebbero tenuti a segnalare allo Stato dell’Illinois, su base annuale, la razza e l’etnia dei candidati sottoposti a screening, utilizzando la tecnologia AI, e a cui non viene offerto un colloquio di persona, nonché la razza e l’etnia dei candidati assunti.

A ottobre 2020, una legge del Maryland richiede ai datori di lavoro di ottenere un consenso del richiedente, prima di utilizzare un servizio di riconoscimento facciale per creare ciò che la legge definisce un “modello facciale” durante un colloquio, che indichi

(i) il nome del richiedente;

(ii) la data del colloquio;

(iii) che il richiedente acconsenta all’uso del riconoscimento facciale durante il colloquio; e

(iv) se il richiedente abbia letto la liberatoria al consenso.

Numerose altre giurisdizioni, tra cui NewYork City e California, hanno proposto progetti di legge volti a regolamentare, tra l’altro, l’uso di algoritmi nel contesto lavorativo. Nello Stato di New York, a novembre dello scorso anno, è stata proposta una regolamentazione dell’uso di IA in contesti lavorativi, e le aziende che utilizzano tali strumenti, dovrebbero informarne i candidati. Tale comunicazione, la quale dovrebbe essere effettuata entro 30 giorni dalla valutazione e altresì indicare i titoli o le caratteristiche considerate dall’algoritmo, mirerebbe a far convogliare le regolamentazioni in questo ambito, nell’alveo della legge sui diritti umani di New York (“NYCHRL”).

La California, con l’Automated Decision Systems Accountability Act del 2021, non si è mostrata da meno.

Tutte queste spinte normative si inseriscono in una strategia più ampia che fa capo alla Equal Employment Opportunity Commission (“EEOC”), ragione per la quale, i legislatori hanno iniziato a chiedere alla Commissione di affrontare le preoccupazioni sollevate sull’uso degli strumenti di intelligenza artificiale nel mondo del lavoro.

Per tornare dalle nostre parti, come sappiamo, il 21 aprile 2021, la Commissione Europea ha presentato un’ampia proposta volta a regolamentare l’IA ad “alto rischio”, ove l’allegato III elenca specificamente come soggetti a regolamentazione, diversi sistemi di IA utilizzati nel rapporto di lavoro, ovvero quelli “destinati a essere utilizzati per il reclutamento o la selezione di persone fisiche, in particolare per la pubblicità di posti vacanti, lo screening o il filtraggio delle domande, la valutazione dei candidati nel corso di colloqui o test” , oltre quelli utilizzati per “prendere decisioni in merito alla promozione e alla cessazione dei rapporti contrattuali di lavoro, per l’assegnazione dei compiti e per il monitoraggio e la valutazione delle prestazioni e dei comportamenti delle persone in tali rapporti”.

Negli Stati Uniti, le denunce di discriminazione, in base a varie leggi federali e statali, possono essere basate su un trattamento discriminatorio o su una teoria di impatto discriminatorio, o su entrambi.

Nel caso delle denunce di trattamento discriminatorio, se un querelante soddisfa i requisiti minimi per rivendicare un trattamento discriminatorio, l’onere si sposta sul datore di lavoro, il quale dovrà offrire una “ragione legittima e non discriminatoria” per l’azione contestata. In definitiva, un ricorrente può prevalere dimostrando che la giustificazione del datore di lavoro per l’azione era semplicemente pretestuosa, cioè l’azione era effettivamente motivata dalla discriminazione. Certo è, che i querelanti che rivendicano una disparità di trattamento possono avere difficoltà a dimostrare la prova dell’intento discriminatorio.

«L’analisi giudiziaria del processo decisionale dell’IA si concentrerà probabilmente sul fatto che le decisioni autonome di un algoritmo possano essere correttamente imputate a un datore di lavoro ai sensi della legge. Se un algoritmo inizia a produrre risultati distorti dopo aver esaminato dati di formazione errati o distorti, costituiti da decisioni precedenti, prese da esseri umani, un querelante può sostenere che l’algoritmo ha semplicemente adottato il preesistente animus discriminatorio dell’organizzazione.» Ecco perché nasce sempre più, l’esigenza di trasparenza e spiegabilità dell’algoritmo attraverso meccanismi di auditing, che possano rendere mano complicato seguirne il percorso decisorio.

Diverso è il caso delle denunce di impatto discriminatorio, teoria in base alla quale, per avere successo con un reclamo di questo tipo, il querelante deve dimostrare che una pratica occupazionale apparentemente neutrale ha avuto un effetto sproporzionato su un gruppo protetto, senza che sia necessaria la prova di un animus discriminatorio. In questi casi «i tribunali generalmente richiedono al ricorrente di:

(1) identificare una specifica pratica o politica occupazionale;

(2) dimostrare che esiste una disparità e

(3) stabilire una relazione causale tra i due.

Una volta che un caso prima facie è stabilito, l’onere della prova passa al datore di lavoro per dimostrare che la politica o pratica è “legata al lavoro e coerente con la necessità aziendale”». In questo caso, al ricorrente non rimarrebbe altro che dimostrare che esistono alternative meno discriminatorie per perseguire lo stesso vantaggio aziendale, ventilato dal datore di lavoro.

Diverse ancora sono le circostanze nelle quali i sistemi algoritmici intervengono per prendere decisioni automatizzate, per esempio, in relazione al trattamento economico del lavoratore, o ad un eventuale licenziamento oppure ancora in relazione all’utilizzo di dati personali e sensibili, ai fini delle regolamentazioni sulla privacy. Su quest’ultimo punto, appare importante il passo ripreso da questo report: «Ad esempio, possono sorgere dubbi se un algoritmo è in grado di accedere ai precedenti penali o ai social media di un candidato. Molti governi statali e locali hanno approvato le cosiddette leggi “ban-the-box” che vietano ai datori di lavoro di considerare alcuni aspetti dei precedenti penali o degli arresti di un candidato, nel prendere una decisione di assunzione. L’intelligenza artificiale progettata per ricercare un candidato, che non è stata programmata per ignorare determinate informazioni, relative ai precedenti penali e/o agli arresti di un candidato, può esporre un datore di lavoro a responsabilità ai sensi di queste leggi

La conclusione diventa un monito ma anche un consiglio che ogni sistema d business non potrà non accogliere: «Poiché la tendenza all’automazione del posto di lavoro continua, i datori di lavoro sono invitati a esaminare attentamente i loro rapporti con l’intelligenza artificiale per garantire la conformità con il corpus di leggi sul lavoro esistente (e in rapida crescita) che influiscono sull’uso di questa tecnologia. Si consiglia inoltre ai datori di lavoro di esaminare attentamente, su base ricorrente, qualsiasi algoritmo utilizzato nel processo decisionale in materia di assunzione per garantire che questi sistemi siano privi di pregiudizi».

Riproduzione Riservata

Avv. Raffaella Aghemo

--

--

Raffaella Aghemo

Innovative Lawyer and consultant for AI and blockchain, IP, copyright, communication, likes movies and books, writes legal features and books reviews