Artificial Intelligence at work
geralt pixabay

La nuova frontiera dell’Intelligenza Artificiale nel Regno Unito: sul luogo di lavoro

a cura di Raffaella Aghemo

A novembre 2021, è stato pubblicato nel Regno Unito, un Rapporto Finale relativo all’utilizzo dell’Intelligenza Artificiale al lavoro, su iniziativa del All-Party Parliamentary Group sul futuro del lavoro, il quale riunisce parlamentari, industria e società civile per favorire la comprensione delle sfide e delle opportunità della tecnologia e del futuro del lavoro. Il titolo del Report è infatti “The New Frontier: Artificial Intelligence at Work”. Compare la collaborazione attiva anche dell’Istituto per il futuro del lavoro, «un think tank indipendente che esplora come le nuove tecnologie stanno trasformando il lavoro e la vita lavorativa. Ricerchiamo e sviluppiamo soluzioni pratiche per promuovere il benessere e la prosperità futuri delle persone. Co-fondato dall’economista vincitore del premio Nobel Sir Christopher Pissarides, dalla tecnologa Naomi Climer CBE e dall’avvocato del lavoro Anna Thomas, lavoriamo all’intersezione di governo, industria e società civile per plasmare un futuro più equo attraverso un lavoro migliore

Si legge infatti, nella parte iniziale, che la strategia AI riconosce gli ampi impatti etici, sociali ed economici della tecnologia moderna e le implicazioni per le industrie, l’offerta di lavoro e le competenze britanniche. In particolare, riconosce la necessità di comprendere e affrontare i rischi e i danni al lavoro e ai lavoratori presentati dall’IA; e di coinvolgere persone di diversa estrazione in questo processo. «Si tratta di esigenze urgenti che devono essere soddisfatte se vogliamo raggiungere gli obiettivi della strategia AI e guidare una trasformazione digitale a beneficio delle persone in tutto il paese.»

«La nostra indagine, che si è svolta da maggio a luglio 2021, ha esaminato l’uso e le implicazioni della sorveglianza e di altre tecnologie di intelligenza artificiale utilizzate sul lavoro; e considerato soluzioni politiche pratiche per affrontare le sfide e le opportunità che abbiamo trovato

I principi alla base del lavoro in questione sono incentrati su una proposta per un Accountability for Algorithms Act (‘l’AAA’), il quale possa offrire un quadro generale basato su principi per governare e regolare l’IA in risposta agli sviluppi in rapida evoluzione nella tecnologia del posto di lavoro, incorporando aggiornamenti ai regimi di regolamentazione esistenti, colmandone le lacune, consentendo nel contempo lo sviluppo di ulteriori norme settoriali. La ricerca e l’indagine saranno orientati ai principi del “Buon lavoro” enunciati nella Carta del buon lavoro, approvata dallo stesso gruppo interparlamentare e che incorpora i diritti e le libertà protetti nella Carta sociale europea e nel Patto internazionale sui diritti economici, sociali e culturali : accesso al lavoro, retribuzione equa, termini e condizioni di lavoro; uguaglianza, dignità e autonomia; sostegno, partecipazione e apprendimento.

Passo nodale è il seguente: «Una fonte fondamentale di ansia è un pronunciato senso di ingiustizia e mancanza di libertà di azione riguardo a decisioni automatizzate che determinano l’accesso o gli aspetti fondamentali del lavoro. I lavoratori non comprendono come le informazioni personali e potenzialmente sensibili vengano utilizzate per prendere decisioni sul lavoro che svolgono; e vi è una marcata assenza di percorsi disponibili per contestare o chiedere un risarcimento. Ne conseguono bassi livelli di fiducia nella capacità delle tecnologie di intelligenza artificiale di prendere o supportare decisioni sul lavoro e sui lavoratori

I CONSIGLI che vengono qui proposti sono cinque e sono i seguenti:

1. Accountability for Algorithms Act: la legge stabilirebbe un nuovo obbligo per le aziende e il settore pubblico di intraprendere, divulgare e agire su valutazioni di impatto algoritmico (Algorithmic Impact Assessments — AIA) preventive. Questo dovere si applicherebbe fin dalla prima fase di progettazione e implementazione di sistemi algoritmici sul lavoro e richiederebbe una rigorosa valutazione ex ante e una valutazione ex post dei rischi e altri impatti sul lavoro e sui lavoratori. Le AIA includerebbero sempre una valutazione d’impatto sulla parità dedicata.

2. Aggiornamento della protezione digitale. L’AAA alzerebbe il piano della protezione essenziale per i lavoratori in risposta a specifiche lacune nella protezione dagli impatti negativi di sistemi algoritmici potenti ma invisibili. Verrebbe introdotto il diritto di essere “coinvolti” nella progettazione e nell’uso di sistemi algoritmici sul lavoro per aiutare a gestire meglio gli impatti sul lavoro e sui lavoratori e per salvaguardare la licenza sociale e la governance democratica di questi sistemi.

3. Consentire un approccio teso a partnerariati. Per applicare il principio di collaborazione nel Piano di regolazione digitale 2021 e riconoscere la dimensione collettiva del trattamento dei dati, sono necessari alcuni diritti collettivi aggiuntivi per i sindacati e le organizzazioni specializzate del terzo settore per esercitare nuovi compiti per conto degli iscritti o di altri gruppi.

4. Applicazione nella pratica. Gestione di sandbox normative per sperimentare nuovi approcci per promuovere attivamente l’uguaglianza come parte delle AIA, nonché per far rispettare rigorosamente gli obblighi esistenti e nuovi.

5. Sostenere l’IA incentrata sull’uomo. I principi del buon lavoro dovrebbero essere riconosciuti come valori fondamentali, incorporando i diritti e le libertà fondamentali ai sensi del diritto nazionale e internazionale.

Circa la prima Raccomandazione, al momento, le aziende non sono tenute a produrre alcuna valutazione di come l’intelligenza artificiale o altri sistemi algoritmici che stanno adottando potrebbero o influire sul lavoro o sulla loro forza lavoro. Ciò significa che gli impatti negativi, compresi gli impatti significativi sul benessere e sull’uguaglianza, tendono a essere trascurati fino a quando il danno non viene fatto. «Proponiamo pertanto che la caratteristica principale dell’AAA sia un nuovo obbligo aziendale di valutazione preventiva e di azioni appropriate. Il dovere di uguaglianza del settore pubblico dovrebbe essere rafforzato per rispecchiare il dovere dell’AIA ed esteso al settore privato. La creazione di un nuovo obbligo di produrre AIA preventive sposterebbe l’enfasi normativa all’intervento attivo e preventivo dalla valutazione più limitata e retrospettiva dei sistemi algoritmici attraverso il sistema giudiziario.»

Il Modello AIA deve poggiare su 4 assi:

- Identificare gli individui e le comunità che potrebbero essere colpiti da decisioni algoritmiche, in particolare gruppi vulnerabili, prima dell’approvvigionamento o della distribuzione. Questa componente di “individuazione” costituirà la base per il coinvolgimento e la partecipazione multi-stakeholder durante tutto il processo di valutazione.

- Intraprendere un’analisi dei rischi volta a delineare potenziali azioni preventive nel contesto in esame, secondo il principio di precauzione.

- Intraprendere azioni appropriate in risposta all’analisi intrapresa, badando alla governance dei dati e in un’ottica di trasparenza.

- Valutazione d’impatto continua e azioni di risposta adeguate.

In questo modo il monitoraggio continuo rappresenterebbe «il meccanismo più pratico per promuovere la buona innovazione, le buone pratiche e il buon governo dell’IA utilizzata sul lavoro, se intraprese rigorosamente prima e dopo l’implementazione».

La seconda Raccomandazione «includerebbe un diritto di facile accesso a una spiegazione completa di finalità, risultati e impatti significativi dei sistemi algoritmici sul lavoro, compresa la valutazione d’impatto stessa. Un diritto ad essere ‘coinvolto’ nel plasmare la progettazione e l’uso di sistemi algoritmici sul lavoro sarebbero introdotti per aiutare a comprendere e gestire meglio gli impatti sul lavoro e sui lavoratori e per salvaguardare la licenza sociale e la governance democratica di questi sistemi.»

Gli sviluppatori hanno sollevato preoccupazioni su come un obbligo di “spiegazione completa” potrebbe esporli alla violazione della Proprietà Intellettuale. Si propone pertanto che l’approccio a strati raccomandato dall’ICO) e dal Turing Institute sia adottato al fine di garantire che spiegazioni significative e legalmente vincolanti possano essere implementate nella pratica, mentre gli interessi legittimi a proteggere la PI e altre sensibilità siano salvaguardati.

Per applicare il principio di collaborazione nel piano di regolamentazione digitale 2021, il governo dovrebbe facilitare e cementare il partenariato sociale che lavora all’interno dell’ecosistema dell’IA. Come primo passo della Terza Raccomandazione devono esser stabiliti nuovi diritti collettivi per i sindacati e le ONG per esercitare nuovi diritti individuali per una piena spiegazione e coinvolgimento, adottando un “approccio collaborativo”, ad esempio, lavorando con le imprese per testare nuovi interventi e modelli.

Per la quarta Raccomandazione, Il Digital Regulation Cooperation Forum (DRCF) del governo, istituito con l’eccellente intenzione di garantire una maggiore cooperazione in materia di regolamentazione digitale e online, e composto dall’ICO, dall’Autorità Garante della Concorrenza e del Mercato (CMA) e dall’Ufficio delle Comunicazioni (Ofcom), dovrebbe essere ampliato con nuovi poteri per creare schemi di certificazione, sospendere l’uso o imporre termini ed emettere orientamenti statutari trasversali, per integrare il lavoro dei singoli regolatori e standard specifici di settore.

La quinta Raccomandazione, infine, si concentrerà sul Buon Lavoro futuro, unendo i Pilastri della Strategia, e garantendo che crescita e innovazione vadano di pari passo con il rispetto dei valori e dei diritti fondamentali dei nostri cittadini. Una maggiore attenzione al buon lavoro per tutti consentirà lo sviluppo di un’IA incentrata sull’uomo e di un ecosistema di IA incentrato sull’uomo.

La conclusione è che sia necessario un nuovo approccio alla regolamentazione per massimizzare le opportunità e affrontare le sfide del ritmo serrato cambiamento tecnologico al lavoro. Il nostro quadro di governance non deve solo tenere il passo con l’uso pervasivo dell’IA sul lavoro. Deve anticipare il cambiamento e plasmare anche un futuro migliore del lavoro. Una nuova attenzione alla creazione di un buon lavoro e ad affrontare le sfide sul posto di lavoro che abbiamo identificato assicurerà l’innovazione e la governance dell’IA migliore e più incentrata sull’uomo che lavora per le persone e l’interesse pubblico.

Riproduzione Riservata

Avv. Raffaella Aghemo

--

--

--

Innovative Lawyer and consultant for AI and blockchain, IP, copyright, communication, likes movies and books, writes legal features and books reviews

Love podcasts or audiobooks? Learn on the go with our new app.

Get the Medium app

A button that says 'Download on the App Store', and if clicked it will lead you to the iOS App store
A button that says 'Get it on, Google Play', and if clicked it will lead you to the Google Play store
Raffaella Aghemo

Raffaella Aghemo

Innovative Lawyer and consultant for AI and blockchain, IP, copyright, communication, likes movies and books, writes legal features and books reviews

More from Medium

Belonging in a multi-reality world

Virtual Agents and the new Al Revolution in Contact Center

Clusters of social and ecological innovation in the European Union, perspectives and experiences —…

Interview Of The Week: Vilas Dhar