EXECUTIVE ORDER ON AI AND FCC NOI

Considerazioni sul recente Executive Order della Casa Bianca e primi approcci pratici a difesa dei consumatori americani

Raffaella Aghemo
4 min readNov 7, 2023

a cura di Raffaella Aghemo

Come sappiamo, il 30 ottobre, il Presidente degli Stati Uniti, Biden, ha emesso un EO, un Executive Order on the Safe, Secure, and Trustworthy Development and Use of Artificial Intelligence, ove si prevedono otto principi guida:

1. nuovi standard per la sicurezza dell’IA;

2. data protection e privacy;

3. equità e difesa dei diritti civili;

4. protezione degli utenti, siano essi consumatori, pazienti o studenti;

5. difesa del lavoro umano;

6. innovazione e concorrenza;

7. leadership americana all’estero;

8. uso responsabile ed efficace dell’IA da parte del governo attraverso l’incarico alle agenzie federali sia di redigere linee guida per l’IA responsabile sia di adottare misure per regolamentare le sue applicazioni.

Prendendo spunto dal Blueprint for an AI Bill of Rights e dal NIST AI Risk Management Framework, dei quali vi ho parlato diffusamente in precedenti approfondimenti, la presidenza statunitense sembra voler ricalcare l’approccio europeo con l’AI Act.

Sebbene uno degli impulsi maggiormente sottolineati è la difesa dei diritti civili, e l’identificazione di discriminazioni nell’utilizzo di sistemi algoritmici per l’aggiudicazione di benefici economici e sociali, c’è da chiedersi come verranno approntati i giusti rimedi per far valere un eventuale danno verso categorie svantaggiate, o escluse da questi benefici, e quali agenzie federali saranno deputate a supervisionare un sistema che sia congruo e che funzioni. Qui occorrerà investire anche le Autorità finanziarie del delicato compito di mitigare, in campi delicati, come il credito al consumo, o come la richiesta di prestiti, la estesa sperequazione nell’assegnazione di benefici economici, a tutto svantaggio di fasce di popolazione poco riconosciute o totalmente ignorate.

Gli Stati Uniti, per ottenere la leadership tecnologica e regolatoria, si fanno portavoce di valori e principi, come la sostenibilità e l’attenzione per la cura ambientale, ma ancora devono chiarire come pensano di poter mitigare l’enorme dispendio di energia che comporta l’addestramento dei LLM, e come migliorare la trasparenza nell’utilizzo delle risorse e nelle emissioni dei sistemi di IA, adeguandosi al percorso già iniziato dall’Unione Europea e dal Regno Unito, nella rendicontazione delle emissioni di carbonio da parte delle aziende.

Importante è lo sforzo di questo documento di equilibrare due situazioni che sembrano essere antitetiche: da un lato proteggere i lavoratori da un utilizzo massivo di sistemi IA, in grado di togliere lavoro alla componente umana, dall’altro lo sfruttamento di risorse umane sottopagate e sottostimate, per incarichi di etichettatura e di addestramento, selezionate al di fuori del territorio statunitense. Occorre pertanto incentivare la formazione di risorse all’interno del sistema Paese, per una crescita giusta e locale di talenti tecnologici.

L’EO proclama la giusta difesa dei consumatori americani dai rischi dell’IA, proprio per questo occorre un maggiore coinvolgimento delle aziende, in quanto principali attori nell’integrazione di tools algoritmici nei loro business, ma anche una forte e sempre maggiore alfabetizzazione del popolo americano su Intelligenza Artificiale, su privacy e sull’utilizzo dei dati.

Obiettivo primario del documento è sempre la promozione dell’innovazione e della concorrenza, tanto che mai, nell’intero Executive Order appare l’espressione “interesse pubblico”, visto che non è un caso che i Big Player, i quali si son fatti portavoce degli ultimi progressi tecnologici, avendo a disposizione dati in quantità tali da diventare gli unici a poter addestrare i modelli più evoluti, sono tutti nati, fioriti e alloggiati proprio in terra americana!

Sebbene si faccia menzione dell’importanza di un costante controllo della disinformazione, con conseguente supervisione dei contenuti da parte delle agenzie federali, attraverso applicazioni di filigrane digitali, nulla è detto, o ancora è stato fatto, in merito a contenuti provenienti da fonti esterne, che pertanto abbisognerebbero di ulteriori disposizioni normative a contrasto delle fake news.

Infine, proprio a valle di questo titanico programma governativo, la FCC, ovvero la Federal Communications Commission ha redatto e pubblicato un progetto di avviso di indagine, una Notice of Inquiry (“NOI”), volta ad indagare l’utilizzo illegittimo dell’AI per chiamate e messaggi indesiderati e illegali, ai sensi della legge sulla protezione dei consumatori telefonici (“TCPA” — Telephone Consumer Protection Act), disegno normativo che proibisce già chiamate e messaggi indesiderati che utilizzino un “sistema di composizione telefonica automatica” o che contengono una voce artificiale o preregistrata. In questo documento si solleciterebbe la Commissione di vigilanza a andare più a fondo e verificare se le nuove intelligenze generative travalichino, con simulazione di voci “umane”, le barriere create dalle disposizioni attuali, e pertanto se occorra aggiornare ed integrare tale normativa, a tutela dei consumatori. Inoltre si auspicherebbe un utilizzo di queste più recenti ed evolute tecnologie, per identificare truffe e bloccarle prima di giungere ai destinatari, oltre che per rafforzare le difese di persone con disabilità, affinché siano in grado di meglio esercitare il proprio diritto di revocare il consenso a chiamate e messaggi futuri.

In linea con l’EO, si chiederebbe anche una verifica di autenticità della provenienza delle fonti, attraverso utilizzo di filigrane, certificati o altre forme di etichettatura in grado di segnalare e distinguere voci o testi attendibili, da altri partoriti da fonti non affidabili.

La FCC voterà sulla NOI alla prossima riunione aperta della Commissione del 15 novembre 2023.

In conclusione gli Stati Uniti, come più volte anticipato, hanno messo il booster. per poter ottenere una leadership tecnologica ma anche normativa, soprattutto in previsione della prossima approvazione dell’Artificial Intelligence Act europeo, che, a questo punto, corre il serio rischio di “imbavagliare” il rapidissimo progresso tecnologico e di rivelarsi anche non opportunamente tempestivo!

Riproduzione Riservata

Avv. Raffaella Aghemo

--

--

Raffaella Aghemo
Raffaella Aghemo

Written by Raffaella Aghemo

Innovative Lawyer and consultant for AI and blockchain, IP, copyright, communication, likes movies and books, writes legal features and books reviews

No responses yet