
Rapporto “AI nel Regno Unito: Non c’è spazio per reclami” by Raffaella Aghemo
Nel Regno Unito negli ultimi due anni e mezzo si è molto incrementato lo sforzo economico e pratico nella implementazione dei sistemi di Intelligenza Artificiale. Non a caso, poco prima di Natale, il Comitato di Coordinamento della Camera dei Lord ha pubblicato un nuovo rapporto sull’Intelligenza Artificiale (AI): “AI nel Regno Unito: Non c’è spazio per reclami” (AI in the UK: No Room for Complacency), il cui testo integrale potete trovarlo al seguente link https://publications.parliament.uk/pa/ld5801/ldselect/ldliaison/196/196.pdf.
Dopo aver spiegato il funzionamento della nuova procedura con la quale il Comitato si muoverà d’ora in avanti, per meglio agevolare confronti e risultati sui dati acquisiti, il Rapporto analizza il fenomeno dell’IA: «L’adagio di John McCarthy che “non appena funziona nessuno lo chiama più AI “ continua a suonare vero: l’IA è diventata una tale caratteristica prevalente nella vita moderna, che non sempre è chiaro quando e come venga usato. È dunque importante comprendere le sue opportunità e i relativi rischi.» Questa relazione prende le mosse da un lavoro iniziato nel 2018, che aveva stabilito quanto segue: «L’intelligenza artificiale è una parte crescente della vita e dell’attività di molte persone. È importante che il pubblico sia consapevole di come e quando l’intelligenza artificiale viene utilizzata, per prendere decisioni sulle persone, e con quali implicazioni personali. Questa chiarezza, e una maggiore comprensione digitale, aiuterà il pubblico a sperimentare i vantaggi dell’IA, così come a scegliere di non utilizzare tali prodotti, qualora ne possano derivare svantaggi o danni.»
Emerge già nei primi punti un passo a mio parere davvero interessante che riporto di seguito: «Il professor Michael Wooldridge, capo dipartimento e professore di informatica all’Università di Oxford e direttore del programma per l’intelligenza artificiale all’Alan Turing Institute, ha affermato che “dati e privacy” rappresentano uno dei maggiori rischi per l’intelligenza artificiale nei prossimi cinque anni. Ha aggiunto che dall’originaria inchiesta della commissione nel 2017 “noi abbiamo visto infiniti esempi, ogni settimana, di abuso di dati. Ecco il punto: per far funzionare le attuali tecniche di IA per voi, hanno bisogno di dati su di voi! Questa rimane una sfida enorme. La società non ha ancora trovato il suo equilibrio in questo nuovo mondo dei grandi dati e dell’onnipresente computing».
Lo stesso dottor Daniel Susskind afferma che quanto è successo negli ultimi mesi a causa della pandemia non deve innescare meccanismi e consuetudini sbagliate: “C’è un compito importante nei mesi a venire, una volta che la pandemia comincerà ad arrivare alla fine, nel reprimere la discrezione e il potere che abbiamo concesso alle aziende tecnologiche e, in effetti, agli stati di tutto il mondo”.
La Relazione dunque pianifica una serie di raccomandazioni che dovranno servire a guidare una implementazione e una applicazione corretta dei sistemi di Intelligenza Artificiale, partendo da:
1. Comprensione pubblica dei sistemi di intelligenza artificiale: per la salvaguardia della privacy del pubblico, ci si impegna ad affidare un ruolo più forte e più attivo all’AI Council, l’organismo istituito dal governo del Regno Unito per esplorare come sviluppare e distribuire quadri di condivisione dei dati, che siano sicuri, equi, legali ed etici.
2. Creazione di trust di dati: si dovrebbe tenere conto dell’importanza della fiducia del pubblico nei sistemi di IA, e garantire che gli sviluppatori sviluppino sistemi in maniera affidabile /trustworthy, in che modo? Facilitando la condivisione di set di dati tra individui e organizzazioni all’interno di un quadro che consenta il monitoraggio delle decisioni su tali set di dati. Il Rapporto però non stabilisce la pratica per creare questo flusso di fiducia.
3. Etica: l’opportunità e la necessità di un codice etico è fortemente raccomandata, ma badando anche a non ricorrere ad autoregolamentazioni, che rischiano di mancare di uniformità ed applicabilità. Pertanto si suggerisce di ricorrere al CDEI (Center for Data Ethics and Innovation), affinché stabilisca standard nazionali, che dovrebbero convogliare sia verso un quadro di sviluppo etico dell’AI, relativo alle questioni di pregiudizi e distorsioni di bias, sia verso un uso etico da parte di organizzazioni imprenditoriali e istituzionali. «Questi due quadri dovrebbero riflettere i diversi rischi e le diverse considerazioni in ogni fase dell’uso dell’IA.»
4. Lavori: «È urgente analizzare o valutare, su base continuativa, l’evoluzione dell’IA nel Regno Unito e sviluppare risposte politiche.» Un rapporto di Microsoft dell’agosto 2020 ha sottolineato queste preoccupazioni, rilevando che: “Solo il 17% dei dipendenti del Regno Unito afferma di aver partecipato a iniziative di riqualificazione (molto meno del 38% a livello globale), e solo il 32% dei dipendenti del Regno Unito ritiene che il proprio posto di lavoro faccia abbastanza per prepararsi all’IA (ben al di sotto della media globale del 42%)”.
Il Comitato di selezione ha formulato una serie di raccomandazioni per la preparazione del popolo britannico all’adozione diffusa dell’IA, tra cui:
a) l’espansione del National Retraining Scheme (Piano nazionale di riqualificazione): lo Schema Nazionale di Riqualificazione è stato annunciato dal Governo nel suo Bilancio Autunnale 2017, che mirava ad aiutare le persone a “riqualificare e migliorare le proprie competenze in quanto l’economia cambia, anche per effetto dell’automazione;
b) il ripristino dei più ampi aspetti sociali ed etici dell’informatica e dell’intelligenza artificiale;
c) consentire agli insegnanti di acquisire ulteriori competenze in materia di tecnologia e relative aree; e
d) invitare il governo a delineare i suoi piani per affrontare qualsiasi potenziale disuguaglianza sociale o regionale causata dall’IA.
«Non si percepisce chiaramente l’impatto che l’IA avrà sui posti di lavoro. È comunque chiaro che ci sarà un cambiamento, e che l’autocompiacimento rischia di far sì che le persone non siano in grado di partecipare al mercato del lavoro del prossimo futuro.»
Dal lavoro del 2018 è emerso che una regolamentazione specifica per l’IA generale, in questo momento, è superflua, ma emergono anche forti preoccupazioni sulla mancanza di quadri normativi certi, in relazione all’uso dell’IA da parte di società di social media, e in ambito di riconoscimento facciale; l’ICO (insieme a CDEI, Office for AI e Alan Turing Institute) potrebbe sviluppare un corso di formazione, ad uso delle autorità di regolamentazione, per garantire che il proprio personale abbia una base nell’uso etico e appropriato dei dati personali e dei sistemi di IA, e sulle sue opportunità e rischi. Questa formazione dovrebbe essere preparata e lanciata entro luglio 2021.
Sebbene venga lodato il lavoro fin qui svolto dal Governo, si auspica una spinta in più, verso la creazione di un Comitato di gabinetto che coordini le strategie nazionali e locali nell’uso dell’IA.
Il 19 novembre 2020, nell’annunciare un aumento della spesa per la difesa, il Primo Ministro ha detto: “Creeremo un nuovo centro dedicato all’intelligenza artificiale “Si tratta di un Centro di sviluppo dell’autonomia (Autonomy Development Centre) per accelerare la ricerca, lo sviluppo, la sperimentazione, l’integrazione e la diffusione della intelligenza artificiale. Ancora non sono stati forniti dettagli su quando il Centro sarà istituito, se si concentrerà esclusivamente sulle applicazioni di difesa e sicurezza dell’IA, o se sostituirà gli enti esistenti che si occupano di IA.
La corsa ad una leadership tecnologica che però abbracci anche legalità ed etica è in pieno svolgimento.
Riproduzione Riservata
Avv. Raffaella Aghemo