Artificial Intelligence and new report published by the Ada Lovelace Institute
geralt pixabay

Metodologie di valutazione del rischio dei sistemi di Intelligenza Artificiale e recente studio dell’Ada Lovelace Institute

a cura di Raffaella Aghemo

Introduzione

«L’obiettivo di questo documento è contribuire a creare una “IA affidabile”, che bilanci proporzionalmente l’interesse sociale per l’innovazione e una migliore fornitura da parte dell’IA di servizi pubblici, con gli impatti negativi sui diritti fondamentali e sui valori sociali. Questo obiettivo è in linea con quello della proposta di legge sull’Intelligenza Artificiale, che accogliamo in linea di principio come il primo tentativo globale al mondo di regolamentarla dal punto di vista dei diritti fondamentali

Fondamentale è l’incipit di questo recente studio, effettuato dall’Ada Lovelace Institute, fondato dalla Nuffield Foundation all’inizio del 2018, in collaborazione con Alan Turing Institute, Royal Society, British Academy, Royal Statistical Society, Wellcome Trust, Luminate, techUK e Nuffield Council on Bioethics, la cui missione è garantire che i dati e l’Intelligenza Artificiale funzionino per le persone e la società.

«Non ci concentriamo sui tipi di tecnologie che vogliamo costruire, ma sui tipi di società che vogliamo costruire. Attraverso la ricerca, le politiche e la pratica, miriamo a garantire che il potere di trasformazione dei dati e dell’IA sia utilizzato e sfruttato in modi che massimizzino il benessere sociale e mettano la tecnologia al servizio dell’umanità

Questo breve studio, dal titolo “Regolamentazione dell’IA in Europa: quattro problemi e quattro soluzioni”, vuole partire dal presupposto di «considerare come costruire, sviluppare — o forse rifiutare — questo modello, prima che diventi radicato». Si evidenzia come, l’Artificial Intelligence Act sia di per sé un ottimo punto di partenza per un approccio olistico alla regolamentazione dell’IA, pur tuttavia senza rappresentare un solido traino per il resto del mondo!

Ci sono diverse questioni aperte che questo documento analizza.

In primo luogo, c’è un serio dibattito sull’opportunità di uno strumento olistico per regolare i sistemi di IA, rispetto all’utilizzo invece di un sistema di governance in settori come il lavoro, la salute o le applicazioni militari (che potrebbero quindi includere anche codici di condotta, principi etici e standard tecnici).

In secondo luogo, si dibatte sulla definizione di “AI”, e quale sia il suo scopo.

In terzo luogo, ci sono diverse giurisdizioni e organizzazioni internazionali che stanno iniziando anche a regolamentare l’IA e che contribuiscono al discorso su un modello globale per la sua regolamentazione.

Principalmente qui si cerca di evidenziare i difetti chiave dell’AI Act nel suo insieme e, ove possibile, di suggerire soluzioni tratte dall’esperienza di un’organizzazione indipendente, con la missione di far funzionare i dati e l’IA, per le persone e la società.

La critica all’Artificial Intelligence Act prende le mosse da una constatazione di fatto, ovvero una visione piuttosto semplificata di come funziona l’IA, retaggio di un vecchio framework normativo, risalente al 2008, orientato più ai prodotti che circolavano nel mercato interno.

I quattro problemi

Primo punto: l’Intelligenza Artificiale non è un prodotto né un servizio “una tantum”, ma un sistema erogato dinamicamente attraverso più mani (“il ciclo di vita dell’IA”) in contesti diversi con impatti diversi su vari individui e gruppi. La legge trae ispirazione dalla legislazione esistente sulla sicurezza dei prodotti e concepisce in gran parte i “fornitori” di Intelligenza Artificiale come l’equivalente dei produttori di prodotti del mondo reale come per esempio i giocattoli. Per questo tipo di prodotti, è indubbiamente il produttore iniziale la persona che sa meglio come rendere sicuro il prodotto. Pertanto, la maggior parte dei compiti è affidata a questi “produttori”, proprio all’inizio del ciclo di vita dell’IA. Ma qui parliamo invece di un qualcosa di dinamico, in continua evoluzione che proprio per questa ragione richiede un monitoraggio ed una valutazione continua. Va detto anche che qui gli attori sono spesso molteplici e di più realtà e quindi risulterebbe più complicato risalire ad un unico evidente responsabile. Lo stesso prodotto poi potrebbe prestarsi a diversi utilizzi, per esempio, uno sviluppatore di un sistema di riconoscimento facciale potrebbe vendere il proprio prodotto per autenticare l’ingresso nelle carceri o per monitorare i clienti per pubblicità mirata. Valutare in modo olistico il rischio di un tale sistema in astratto è impossibile.

Tradurre questa complessa rete di attori, dati, modelli e servizi in un regime giuridico che attribuisca doveri e diritti a determinati attori identificabili è estremamente difficile. Nell’AI Act, la responsabilità primaria è, per analogia con i fabbricanti di beni fisici, posta su una duplice figura di “deployer”: la legge non si assume il lavoro, che è certamente difficile, di determinare quale dovrebbe essere la distribuzione della responsabilità esclusiva e congiunta contestualmente lungo tutto il ciclo di vita dell’IA, per proteggere i diritti fondamentali degli utenti finali nel modo più pratico e completo.

Soccorre qui un esempio che troviamo a pagina 8 del lavoro: un ricercatore accademico potrebbe mettere gratuitamente a disposizione online un algoritmo che consente l’addestramento di un modello in un modo nuovo ed efficiente. Potrebbe quindi essere adottato da una start-up che fornisce gratuitamente il “machine learning-as-a-service”. Questo modello addestrato potrebbe quindi essere incorporato, a pagamento, da un provider cloud commerciale che offre software-as-a-service (SaaS). Questo SaaS potrebbe quindi essere acquistato da un dipartimento governativo per fornire un servizio rivolto al pubblico. I set di dati, sia per l’addestramento che per i test, nelle varie fasi, possono essere recuperati da vari fornitori globali, con vari gradi di accesso al modo in cui tali set di dati sono stati costruiti. Tale sistema potrebbe essere caratterizzato come “ad alto rischio” solo al momento della messa in servizio da parte dell’ente pubblico. Eppure il sistema sarebbe il prodotto di più mani, non tutte in rapporti contrattuali in corso, e non sarebbe chiaro chi dovesse, o avrebbe dovuto, adempiere agli obblighi per certificare il sistema come compatibile con i “requisiti essenziali”.

Ne deriva, a parte la difficoltà oggettiva di stabilire una responsabilità a monte, anche una concreta impossibilità ad accedere, per l’ultimo anello della catena di sviluppo, ai dati che sono stati presi per l’addestramento, così da poter, eventualmente, modificare ab origine le disfunzionalità che il software potrebbe presentare! Training data che quasi sempre sono appannaggio delle Big Tech, esonerando, in tal guisa, fornitori di tecnologia come Amazon, Google e Microsoft, il cui coinvolgimento nella certificazione dell’IA come sicura, è vitale, poiché hanno un controllo effettivo sull’infrastruttura tecnica, sui dati e sui modelli di formazione, nonché sulle risorse e potere di modificarli e testarli.

Secondo punto: quelli interessati dai sistemi di Intelligenza Artificiale, siano essi utenti finali, interessati o consumatori, non hanno diritti e quasi nessun ruolo nell’AI Act. Ciò è incompatibile con uno strumento la cui funzione è quella di salvaguardare i diritti fondamentali.

Derivando il disegno dell’AI Act principalmente dalla sicurezza dei prodotti e non da altri strumenti, il ruolo degli utenti finali dei sistemi di IA come soggetti di diritti, non solo come oggetti impattati, è stato oscurato e la loro dignità umana è stata trascurata.

«L’attuale proposta fallisce in molti punti chiave del ciclo di regolamentazione e applicazione. Non consulta gli utenti all’inizio quando i fornitori di IA “ad alto rischio” devono certificare che soddisfano vari requisiti in materia di diritti fondamentali, anche se gli utenti subiranno potenziali impatti; non dà agli utenti la possibilità di far valere le proprie ragioni quando organismi tecnici non eletti e dominati dall’industria trasformano regole democraticamente stabilite in standard che in realtà dicono alle aziende che producono IA come costruirla; e, soprattutto, non consente agli utenti di contestare o lamentarsi dei sistemi di Intelligenza Artificiale su tutta la linea quando sbagliano e violano i loro diritti

«La società civile, in quanto rappresentante degli utenti, deve avere il potere e le risorse necessarie per entrare nel processo di definizione degli standard per loro conto

Si auspica qui la creazione di una figura super partes, una sorta di difensore civico che potrebbe non solo ricevere e far avanzare i reclami degli utenti ma, su base europea, raggrupparli, individuare i modelli di reclamo e eventualmente istruire o aiutare le autorità di regolamentazione o la società civile a intraprendere azioni rappresentative!

Terzo punto. La presunta natura “basata sul rischio” della legge AI ACT, è illusoria e arbitraria. È necessaria un’autentica valutazione del rischio basata su criteri verificabili.

L’IA Act non stabilisce criteri per quando l’IA pone rischi inaccettabili per la società e gli individui. Designa semplicemente elenchi prestabiliti di quali categorie di sistemi di IA sono ritenuti “rischio inaccettabile” e quindi banditi dall’UE (un numero limitato di sistemi, in particolare alcuni sistemi biometrici dello spazio pubblico, in tempo reale e delle forze dell’ordine). Le tassonomie su sistemi ad alto o basso rischio sono talmente generiche e poco approfondite da non rappresentare, secondo questo studio, una garanzia di difesa dei diritti fondamentali delle persone.

Quarto punto: la legge manca di una valutazione generale del rischio dei diritti fondamentali. E qui si pongono due domande fondamentali:

1. Quali criteri dovremmo utilizzare per certificare la sicurezza dei sistemi di IA nella società? È sufficiente certificare la conformità ai diritti fondamentali del tipo tutelato dalla Carta dell’UE e dalla Convenzione europea dei diritti dell’uomo?

2. Se possiamo essere d’accordo su questi criteri, dovrebbero essere certificati prima che il sistema sia immesso sul mercato o nella società (valutazione ‘ex ante’) o dopo che sono stati spenti e hanno avuto un impatto (valutazione ‘post factum’ o audit); o una combinazione di entrambi?

Portando l’Artificial Intelligence Act su un piano di confronto con il GDPR, il primo risulta essere un passo indietro rispetto al secondo, nel quale tutti i sistemi di apprendimento automatico che elaborano i dati personali sono già necessari per eseguire una valutazione dell’impatto sulla protezione dei dati (DPIA).

Si aggiunge un altro aspetto, non meno critico, ovvero la mancanza di una preoccupazione sistematica per gli impatti sui gruppi, in particolare i gruppi costituiti algoritmicamente. «Molti studiosi nel campo dei diritti umani hanno sostenuto che concentrarsi solo sui diritti individuali lascia lacune cruciali in relazione agli interessi comuni e delle minoranze e consente alla discriminazione strutturale di persistere e crescere. I diritti individuali tendono a conferire potere a coloro che sono già maggiormente autorizzati a esercitare i propri diritti e non riescono a sostenere le comunità emarginate e colpite dal punto di vista socioeconomicoL’Ada Lovelace Institute ha già definito un quadro per le modalità partecipative di gestione dei dati e questi metodi potrebbero essere applicati alla governance e alla progettazione di algoritmi di Intelligenza Artificiale.

Stante una certa arbitrarietà del controllo ex ante e un aggravio notevole di costi per uno ex post, si suggerisce qui di prendere in considerazione seriamente di incentivare una valutazione d’impatto algoritmica (AIA — algorithmic impact assessment).

Conclusioni E Soluzioni

Le soluzioni proposte sono pertanto:

1. La legge sull’IA dovrebbe essere riformulata per fornire un’adeguata sorveglianza dei sistemi IA di uso generale da parte di fornitori e deployers;

2. La partecipazione di coloro che sono colpiti dai sistemi automatizzati nella loro progettazione e salvaguardia deve essere consentita, e deve essere data la dovuta considerazione se del caso, delle loro opinioni, in tutte le fasi della supervisione dei sistemi IA. «Fondamentalmente, i reclami da parte di coloro che sono interessati dai sistemi, così come i loro implementatori, devono anche essere reinseriti nella progettazione del sistema in questione. Ciò è particolarmente importante per i sistemi di IA generici in cui abbiamo visto che pregiudizi e iniquità possono essere incorporati “a monte” prima dell’implementazione in contesti particolari e quindi tale avviso è particolarmente cruciale.»

Certamente diventa indispensabile una terzietà, ovvero un organismo terzo in grado di fare da ponte tra segnalazioni o reclami degli utenti e responsabilizzazione dei produttori e sviluppatori; sebbene riformulare interamente il processo attuale, significherebbe stracciare e rifare da capo il Capitolo III dell’Artificial Intelligence Act, si suggerisce di applicare nuove metodologie pratiche che possano “accompagnare” un nuovo e più conforme processo di valutazione del rischio dei sistemi automatizzati.

Riproduzione Riservata

Avv. Raffaella Aghemo

--

--

--

Innovative Lawyer and consultant for AI and blockchain, IP, copyright, communication, likes movies and books, writes legal features and books reviews

Love podcasts or audiobooks? Learn on the go with our new app.

Get the Medium app

A button that says 'Download on the App Store', and if clicked it will lead you to the iOS App store
A button that says 'Get it on, Google Play', and if clicked it will lead you to the Google Play store
Raffaella Aghemo

Raffaella Aghemo

Innovative Lawyer and consultant for AI and blockchain, IP, copyright, communication, likes movies and books, writes legal features and books reviews

More from Medium

The Carbon Tax: A Solution to Combating Carbon Dioxide Emissions

Rihanna’s Lingerie Brand Savage X Fenty Considers an IPO

Savage X Fenty Lingerie

With Financial Sector Cyber Risks Soaring, What Are Your Options?

WeChat: a unique “super-app” model