Artificial Intelligence kit for children from WEF
stempemedia

Kit di strumenti per una Intelligenza Artificiale a misura di bambino, a cura del WEF, di marzo 2022

a cura di Raffaella Aghemo

Avendo già precedentemente affrontato la questione afferente ad un corretto approccio verso i minori, nell’utilizzo degli strumenti di Intelligenza Artificiale, sulla stessa linea, oggi voglio parlare del recente “Kit di sopravvivenza”, che il World Economic Forum ha stilato, dal titolo “Intelligenza artificiale per bambini — KIT DI STRUMENTI”, pubblicato a marzo 2022.

Si legge nella introduzione: «Per la prima volta nella storia, una generazione di bambini sta crescendo in un mondo plasmato dall’intelligenza artificiale (IA). L’IA è un insieme di potenti algoritmi progettati per raccogliere e interpretare i dati per fare previsioni basate sui modelli trovati nei dati.»

Questo toolkit, prodotto da un team eterogeneo di giovani, tecnologi, accademici e leader aziendali, è progettato per aiutare le aziende a sviluppare un’Intelligenza Artificiale (AI) affidabile per bambini e giovani e per aiutare genitori, tutori, ad acquistare responsabilmente e utilizzare in sicurezza i sistemi di IA prodotti.

In questo breve passaggio, le parole che ho evidenziato racchiudono i pilastri necessari alla pianificazione e costruzione di una infrastruttura tecnologica che possa rivelarsi solida e ben salda su principi etici universalmente riconosciuti e che possa svilupparsi entro un percorso normativo e regolatorio orientato al progresso. «La tecnologia dell’IA deve essere creata in modo che sia innovativa e responsabile. L’IA responsabile è sicura, etica, trasparente, equa, accessibile e inclusiva. Progettare un’IA responsabile e affidabile fa bene ai consumatori, alle aziende e alla società

Mi è particolarmente piaciuto il seguente passaggio che gioca sulle priorità nello sviluppo dell’IA verso i bambini con i seguenti punti di attenzione, o come vorrei definirli io, paradigmi:

«Putting children and youth FIRST checklist

· Fair

· Inclusive

· Responsible

· Safe

· Transparent»

Le linee guida sono progettate per essere utilizzate da ingegneri, sviluppatori, product manager e altri membri del team di prodotto durante l’intero ciclo di vita del prodotto, professionisti che all’interno delle aziende devono orientare il lavoro pensando che ogni prodotto di una certa tipologia, potrebbe essere utilizzato da bambini o adolescenti. Proprio in virtù di ciò, questo toolkit suggerisce, in primis, un sistema di etichettatura di AI: esso è progettato per essere incluso in tutti i prodotti AI sulla loro confezione fisica e accessibile online tramite un codice QR. Come le informazioni nutrizionali sulle confezioni degli alimenti, il sistema di etichettatura è progettato per raccontare in modo conciso ai consumatori — inclusi genitori e tutori, nonché bambini e giovani — come funziona, nonché le opzioni a disposizione degli utenti. Tutte le aziende sono incoraggiate ad adottare questo strumento per contribuire a creare maggiore fiducia e trasparenza verso gli acquirenti e gli utenti di minore età, dei loro prodotti.

Ancora più importante è il paragrafo relativo a dove le aziende potrebbero non essere all’altezza, da cui emergono quattro comportamenti rischiosi da evitare:

- Non rivelare come viene utilizzata l’IA;

- Amplificazione e perpetuazione del pregiudizio;

- Salto della convalida incentrata sull’utente;

- Lasciare lacune in ambito privacy e di sicurezza.

Vediamoli nel dettaglio: nel primo caso si consiglia una assoluta trasparenza, soprattutto per evitare situazioni per le quali le aziende, pensando ad una possibile opposizione da parte degli acquirenti all’utilizzo di sistemi di IA, potrebbero nasconderne o minimizzarne l’uso.

Nel secondo caso occorre porre molta attenzione, in quanto la modellazione dell’IA può contenere imprecisioni e semplificazioni eccessive, le quali porterebbero a inaccessibilità e pregiudizi nei confronti di gruppi emarginati, come comunità di disabili e utenti provenienti da contesti culturali e socioeconomici diversi.

Nel terzo caso, bypassare la convalida dell’idoneità, da parte di utenti ed esperti, potrebbe minare la piena riuscita di un sistema IA e creare danni. Esattamente come nel quarto caso ove un domani, i giovani potrebbero rivendicare il diritto all’oblio dei loro dati, man mano che invecchiano.

Occorre pertanto seguire queste azioni:

1. Conoscere i doveri legali e i vincoli normativi.

2. Costruire un team diversificato e capace.

3. Formare il tuo team e fornire risorse per il successo.

4. Offrire competenze per lo sviluppo di regolamenti e linee guida standard.

5. Accogliere favorevolmente gli sforzi di principio per etichettare prodotti e servizi.

La Convenzione delle Nazioni Unite sui diritti del bambino stabilisce numerosi principi per la tutela dei diritti, della dignità, dell’autonomia e della sicurezza dei bambini. Ma il primo principio dell’articolo 3, guida molti degli altri: «In tutte le azioni riguardanti i minori, siano esse intraprese da istituzioni pubbliche o private di assistenza sociale, tribunali, autorità amministrative o organi legislativi, l’interesse superiore del minore deve essere una considerazione primaria».

Il miglior punto di partenza è con una semplice domanda: “Il sistema che sto costruendo ha in mente il miglior interesse dei bambini?”

Ulteriore precisazione viene fornita da questo Kit del WEF, ovvero la definizione di bambini: «Non esiste una definizione univoca di bambini e giovani. Sono persone i cui corpi e cervelli si stanno ancora sviluppando. La maggior parte non può ancora guidare un’auto o svolgere un lavoro. L’ONU definisce i bambini come persone di età inferiore ai 18 anni. È anche possibile considerare bambini e giovani fino a 26 anni, poiché la corteccia prefrontale completa il suo sviluppo solo fino a quell’età.»

Queste linee guida non esplorano fino in fondo i rischi dei social network per bambini e giovani, ma qualora un prodotto includa una componente social, consigliano quanto segue:

- Concentrarsi sulla sicurezza, guardandosi da attori nefasti (ad es. virus informatici, sfruttamento minorile, bullismo)

- Concentrarsi sull’equità, progettando alternative creative a gerarchie sociali implicite nelle esperienze.

Le notizie sono piene di esempi di modelli di IA distorti e discriminatori. Senza un’attenta progettazione, i modelli di intelligenza artificiale possono essere prevenuti e ingiusti, violare la fiducia e il consenso e causare danni emotivi e dello sviluppo a utenti di bambini e giovani.

Occorre anche impiegare una governance etica per l’equità. Un design etico del prodotto non è una procedura una tantum: i manager potrebbero verificare regolarmente con i propri dipendenti come sta procedendo il loro lavoro o valutare lo stato di salute generale di un progetto, per la “salute” etica del proprio progetto.

Il vademecum su possibili percorsi di risoluzione di situazioni complesse prosegue con altri consigli, relativi, per esempio ad:

Un utilizzo dannoso, obliquo o ingenuo non intenzionale. La tecnologia può supportare involontariamente comportamenti e risultati negativi in diversi modi. Si tratta spesso di sviste non intenzionali da parte dei team di prodotto, ma sono comunque sotto la loro responsabilità. Alcune categorie di utilizzo riguardano in particolare bambini e giovani:

Intento malizioso: l’individuo ha l’intenzione esplicita di causare danni o utilizzare il prodotto in modo pericoloso per sé o per gli altri.

Ingenuità/ignoranza: ciò accade quando un utente ignora gli avvisi di sicurezza o si assume intenzionalmente dei rischi senza riconoscerne le conseguenze. Ciò è particolarmente preoccupante tra i bambini e i giovani con lobi frontali non completamente sviluppati o quelli con stili di apprendimento alternativi.

Uso obliquo: le persone non usano sempre le creazioni nel modo in cui era stato pensato. Questo può dimostrare la mancanza di immaginazione del creatore, di sfruttare un’opportunità per mitigare il rischio e realizzare un prodotto più sicuro.

Un altro modo in cui la tecnologia può ignorare le esigenze degli utenti vulnerabili è non affrontare l’uso eccessivo o la mitigazione della dipendenza. Se un bambino o un giovane usa ossessivamente un prodotto, si è in grado di saperlo? O di conoscere quale danno l’uso ossessivo o l’uso eccessivo potrebbe causare all’ utente? Affaticamento degli occhi, lesioni da sforzo, instabilità emotiva, disturbi del sonno, vertigini e ridotta capacità di distinguere tra fantasia e realtà sono tra le conseguenze indesiderate dell’uso eccessivo della tecnologia.

Sempre nell’ottica di quei cinque paradigmi enunciati al principio che sono prioritari (FIRST) e fondamentali per un approccio sano ed olistico all’implementazione tecnologica, un altro suggerimento importante riguarda la trasparenza e i rischi alla privacy e alla sicurezza: l’onere della sicurezza e della privacy è lasciato all’utente.

Idealmente, si è in grado di creare un’IA che funzioni ancora bene anche se le impostazioni di sicurezza e privacy sono abilitate e portate alle impostazioni massime. Questo è ancora più imperativo per la tecnologia basata sull’Intelligenza Artificiale per bambini, in cui le impostazioni predefinite dovrebbero essere più restrittive e conservative per la protezione di questo tipo di clienti. Inoltre, dovrebbe essere responsabilità del produttore/sviluppatore rivelare sia i vantaggi che i rischi dell’adeguamento delle leve di sicurezza e privacy. In qualsiasi fase di utilizzo, i clienti dovrebbero essere in grado di comprendere le implicazioni (buone e cattive, relative ai loro dati o all’esperienza della tecnologia) delle loro decisioni.

Qualsiasi tecnologia destinata a bambini e giovani ha due utenti principali: il bambino e il suo tutore. La relazione che la tecnologia in questione instaura con il tutore è importante per l’uso sicuro dell’IA quanto la tecnologia stessa. Si dovrebbe informare, integrare e, se possibile, ascoltare i tutori del destinatario/utente del prodotto che si è sviluppato.

Nelle battute finali una serie di infografiche fa realmente capire il bel lavoro fatto, soprattutto ad uso e consumo di produttori, sviluppatori e aziende, ma anche di tutti coloro che hanno la responsabilità di vigilare sulla sicurezza fisica e mentale dei bambini e degli adolescenti di oggi e di domani.

Riproduzione Riservata

Avv. Raffaella Aghemo

--

--

Innovative Lawyer and consultant for AI and blockchain, IP, copyright, communication, likes movies and books, writes legal features and books reviews

Love podcasts or audiobooks? Learn on the go with our new app.

Get the Medium app

A button that says 'Download on the App Store', and if clicked it will lead you to the iOS App store
A button that says 'Get it on, Google Play', and if clicked it will lead you to the Google Play store