Richiesta di Informazioni (RFI) per carta dei diritti dell’Intelligenza Artificiale, in difesa da un distorto e massivo utilizzo dei sistemi biometrici, a cura dell’OSTP statunitense
geralt pixabay

Richiesta di Informazioni (RFI) per carta dei diritti dell’Intelligenza Artificiale, in difesa da un distorto e massivo utilizzo dei sistemi biometrici, a cura dell’OSTP statunitense

a cura di Raffaella Aghemo

L’Office of Science and Technology Policy (OSTP) della Casa Bianca, ha annunciato un piano per sviluppare una “carta dei diritti” per proteggere da eventuali conseguenze potenzialmente dannose dell’Intelligenza Artificiale, che faccia uso di dati biometrici come riconoscimento facciale, analisi vocale e rilevatori di frequenza cardiaca.

Cos’è l’OSTP: la sua missione è triplice: «primo, fornire al presidente e al suo staff senior una consulenza scientifica e tecnica accurata, pertinente e tempestiva su tutte le questioni rilevanti; secondo, assicurare che le politiche del ramo esecutivo siano basate su una scienza solida; terzo, assicurare che il lavoro scientifico e tecnico del ramo esecutivo sia coordinato correttamente in modo da fornire il massimo beneficio alla società

Eric Lander e Alondra Nelson, consulenti scientifici della presidenza Biden, hanno foraggiato questa RFI, request for information, per il concreto timore che un utilizzo di set di dati incompleto possa alimentare esponenzialmente la discriminazione, rifacendosi a dati del passato, che incorporano pregiudizi. Questo passaggio di apertura a commenti e interventi pubblici potrebbe aiutare, secondo loro, a “codificare” dati valori e principi, a salvaguardia di una corretta democrazia e di una società più equa. Pubblicata il 10 agosto di quest’anno, invita a commenti e informazioni da parte di quelle realtà che fanno uso di tecnologie biometriche, con scadenza il 15 gennaio 2022.

L’OSTP «richiede input dalle parti interessate su implementazioni, proposte, progetti pilota o sperimentazioni passate e sull’uso attuale delle tecnologie biometriche ai fini della verifica dell’identità, dell’identificazione degli individui e dell’inferenza di attributi, tra cui l’individualità mentale e stati emotivi. Lo scopo di questa RFI è comprendere l’estensione e la varietà delle tecnologie biometriche nell’uso passato, attuale o pianificato; i domini in cui vengono utilizzate queste tecnologie; gli enti che ne fanno uso; principi, pratiche o politiche correnti che ne regolano l’uso; e le parti interessate che sono, o potrebbero essere, influenzate dal loro uso o regolamentazione. OSTP incoraggia l’input su casi d’uso del settore pubblico e privato

“Informazioni biometriche” fa riferimento a qualsiasi misurazione o dato derivato delle caratteristiche fisiche di un individuo (ad es. DNA, impronte digitali, scansioni del viso o della retina) e comportamentali (ad es. gesti, andatura, voce), in particolare relativa all’uso per:

Riconoscimento. Ciò include l’uso di informazioni biometriche per la verifica (associazione di un’identità dichiarata a un’identità di riferimento) e l’identificazione (identificazione in tempo reale o successiva di un individuo o di tutti gli individui in mezzo a una folla, sia nel perseguimento di un caso legale o come parte di ampia sorveglianza in vari ambiti); e

Inferenza dello stato cognitivo e/o emotivo. Ciò include l’uso di informazioni biometriche per l’inferenza di stati cognitivi e/o emotivi (come attenzione, stanchezza mentale, stress, ansia, paura o allegria).

Da questo quadro, si mira a raggiungere dati traguardi quali:

1. Diritto di sapere quando e come l’IA sta influenzando una decisione che incide sui diritti civili e sulle libertà civili di un individuo.

2. Libertà dall’essere soggetti a un’IA che non sia stata “attentamente” verificata per garantire che sia accurata e imparziale.

3. Diritto alla sicurezza, nei sistemi formati su set di dati “sufficientemente rappresentativi”.

4. Libertà da sorveglianza e monitoraggio pervasivi o discriminatori in casa, comunità e luogo di lavoro.

5. Diritto a un “ricorso significativo” nel caso in cui l’uso di un algoritmo provochi un danno.

Le informazioni che vengono richieste possono essere di diverse tipologie che vengono elencate di seguito:

1. Descrizioni dell’uso delle informazioni biometriche per il riconoscimento e l’inferenza: informazioni sugli usi pianificati, sviluppati o implementati delle informazioni biometriche, comprese, ove possibile, qualsiasi dimensione rilevante del contesto in cui le informazioni vengono utilizzate o possono essere utilizzate, eventuali obiettivi dichiarati di utilizzo, la natura e la fonte dei dati utilizzati, lo stato della distribuzione (ad es. distribuzione passata, attuale o pianificata) e, se applicabile, le comunità interessate.

2. Procedure e risultati della convalida scientifica e basata sui dati delle tecnologie biometriche: informazioni sulle procedure di convalida pianificate o in uso e sui risultati della convalida risultanti per le tecnologie biometriche progettate per garantire che i risultati del sistema siano scientificamente validi, comprese misure specifiche di validità e precisione, tassi di errore risultanti e descrizioni della configurazione di misurazione specifica e dei dati utilizzati per la convalida. Sono benvenute anche informazioni sulla ricerca sull’esperienza dell’utente, sulla valutazione dell’impatto o su altre valutazioni dell’efficacia delle tecnologie biometriche quando utilizzate in un contesto sociale specifico.

3. Considerazioni sulla sicurezza associate a una particolare tecnologia biometrica. Informazioni sulla convalida della sicurezza di una tecnologia biometrica o vulnerabilità note (come spoofing o violazioni di accesso). Informazioni su perdite esibite o potenziali di informazioni di identificazione personale tramite lo sfruttamento della tecnologia biometrica, le sue vulnerabilità o modifiche al contesto in cui viene utilizzata. Informazioni sulle misure di sicurezza che si sono dimostrate efficaci per le parti interessate, tra cui l’industria, i ricercatori, gli utenti finali e le comunità interessate.

4. Danni esposti e potenziali di una particolare tecnologia biometrica: considerare i danni inclusi ma non limitati a: danni dovuti a domande sulla validità della scienza utilizzata nel sistema per generare i dati biometrici o a domande sul processo di inferenza; danni dovuti a disparità di efficacia del sistema per diversi gruppi demografici; danni dovuti alla limitazione dell’accesso alle pari opportunità, come pretesto per profilazione selettiva, o come forma di molestia; danni dovuti alla tecnologia costruita per l’uso in un contesto specifico e poi utilizzata in un altro contesto o utilizzata in contrasto con le specifiche del prodotto; o danni dovuti alla mancanza di privacy e dell’infrastruttura di sorveglianza associata all’uso del sistema. Informazioni su prove di danno (in caso di danno manifestato) o proiezioni, ricerche,

5. Benefici dimostrati e potenziali di una particolare tecnologia biometrica: considerare i vantaggi inclusi, ma non limitati a: vantaggi derivanti dall’uso in un dominio specifico (vantaggio assoluto); benefici derivanti dall’utilizzo di una specifica modalità di tecnologia biometrica rispetto ad altre modalità in un dominio specifico (beneficio relativo); e/o benefici derivanti da miglioramenti in termini di costi, coerenza e affidabilità. Sono benvenute anche informazioni su prove di beneficio (nel caso di un beneficio mostrato) o proiezioni, ricerche o prove storiche rilevanti (in caso di beneficio potenziale).

6. Programmi, pratiche o procedure di governance applicabili al contesto, all’ambito e all’uso dei dati di un caso d’uso specifico.

Già a Luglio 2021, L’OSTP, in collaborazione con the National Science Foundation (NSF) aveva indetto un’altra RFI, conclusasi il 1/10/2021, per costituire un piano di attuazione nazionale sull’IA, e i cui contributi ricevuti guideranno il lavoro della National Artificial Intelligence Research Resource (NAIRR) Task Force.

Riproduzione Riservata

Avv. Raffaella Aghemo

--

--

--

Innovative Lawyer and consultant for AI and blockchain, IP, copyright, communication, likes movies and books, writes legal features and books reviews

Love podcasts or audiobooks? Learn on the go with our new app.

Get the Medium app

A button that says 'Download on the App Store', and if clicked it will lead you to the iOS App store
A button that says 'Get it on, Google Play', and if clicked it will lead you to the Google Play store
Raffaella Aghemo

Raffaella Aghemo

Innovative Lawyer and consultant for AI and blockchain, IP, copyright, communication, likes movies and books, writes legal features and books reviews

More from Medium

Spleeft is a valid and reliable app to measure movement velocity at resistance training

January 2022

ODROID-HC4 64 Camera NVR

FHSS — Frequency Hopping Spread Spectrum