Ricerca su aspetti sociali, etici e legali dei cosiddetti VAPAs, gli assistenti ad attivazione vocale

Ricerca su aspetti sociali, etici e legali dei cosiddetti VAPAs, gli assistenti ad attivazione vocale

a cura di Raffaella Aghemo

Appare quanto mai attuale oltre che utile dal punto di vista etico-normativo, lo studio e l’analisi effettuata da tre ricercatori, Clovia Hamilton (SUNY Korea), William Swart (East Carolina University) e Gerald M. Stokes (SUNY Korea), sul fenomeno dei cosiddetti VAPAs, acronimo che sta per Voice Activated Personal Assistants, di cui esemplari famosi sono Alexa di Amazon, Siri di Apple o tanti altri. Questa ricerca, dal titolo “Developing a Measure of Social, Ethical, and Legal Content for Intelligent Cognitive Assistants”, fa una panoramica dell’espansione del fenomeno e delle conseguenze etiche e normative del suo utilizzo.

Già nel 2019, negli Stati Uniti si manifestò il proposito di ottenere e mantenere una leadership, in materia di Intelligenza Artificiale, che, combinando l’utilizzo di nuove forme di analisi computazionale e collaborazione uomo-computer, veicolasse la ricerca alla creazione di Intelligent Cognitive Assistants (ICAs), i quali dovrebbero incorporare architetture e capacità intelligenti dotate di conoscenza e ragionamento di buon senso, “integrando, piuttosto che sostituendo, le capacità umane”.

«C’è la sensazione che siamo sull’orlo della creazione di un’Intelligenza Artificiale Cognitiva che arricchirà la vita degli esseri umani per l’intera durata della loro vita, dalla culla alla tomba. Il miglioramento delle capacità fisio-cognitive umane, pur rispettando le preoccupazioni sociali, etiche e legali, è un obiettivo primario

Precursori di queste intelligenze cognitive, sono appunto gli assistenti personali digitali, i VAPAs, appunto, che sebbene non abbiamo le stesse attitudini delle ICAs, ne costituiscono un’ottima premessa! Secondo un sondaggio del 2017, condotto negli Stati Uniti, quasi la metà degli adulti afferma di utilizzarli, dei quali, il 14% li usa sui computer e l’8% su dispositivi autonomi.

«Gli obiettivi di questo documento sono definire il quadro per lo sviluppo di tale misura. A tal fine, esamineremo prima la situazione attuale in merito ai problemi di privacy che sono e stanno sorgendo attraverso l’uso di VAPAs. Segue una revisione delle linee guida politiche sviluppate da sei diverse organizzazioni che coprono lo sviluppo di tali dispositivi. Successivamente, abbiamo analizzato queste linee guida politiche e riassunto il loro contenuto in una serie di categorie che, insieme, incarnano le linee guida per lo sviluppo delle future ICAs in modo che possano effettivamente evitare di mancare di rispetto ad alcune delle preoccupazioni legali, etiche, sociali e funzionali che emergono attraverso il loro uso.»

La pandemia non ha fatto altro che aumentare il tempo passato all’interno del proprio spazio privato, creando anche un aumento esponenziale degli assistenti vocali e del loro utilizzo in ambiti sempre più intimi e quotidiani, comportando, di conseguenza, si legge nel documento, a «l’acquisizione di informazioni più private e personali nel cloud e potenzialmente accessibili a chiunque abbia un “buon” pretesto. Questo metterà in discussione il concetto di casa come spazio privato

«Aziende come Amazon che sostengono di aver bisogno di raccogliere dati per migliorare i propri algoritmi, vedono i dati come conoscenza. La raccolta e l’elaborazione dei dati “promuove una maggiore comprensione scientifica e commerciale del comportamento e dei desideri individuali”

Ma l’intrusione costante ed invasiva degli apparecchi solleva una serie di questioni che sembrerebbero persino rendere impossibile difendersi facendo appello al Quarto Emendamento statunitense! «Alcuni studiosi affermano che poiché gli utenti di VAPAs trattano questi dispositivi e applicazioni antropomorfizzate come assistenti che sono persone, la legge dovrebbe trattarli come se fossero persone.» I ricercatori dell’IA insistono sul fatto che le loro macchine non pensano come le persone, ma se possono ascoltare e parlare come gli umani, questo, cosa le rende? Man mano che gli esseri umani insegnano alle macchine ad essere sempre più capaci di usare il linguaggio, la linea di demarcazione tra loro, una volta ovvia, si confonderà.

Sembrerebbe però che la comodità lasci il passo ad una tutela rigorosa della propria riservatezza, in quanto tale elusione sarebbe concepita dagli utenti come un giusto prezzo da pagare per i vantaggi offertigli dagli assistenti virtuali!

Negli Stati Uniti i VAPAs vengono sempre più adottati in strutture sanitarie, in quanto sembrerebbe che «possano essere particolarmente adatti per lo screening dei sintomi, in quanto le persone con condizioni stigmatizzate spesso evitano di cercare assistenza sanitaria e istruzione e sono più disposte a divulgare informazioni personali sensibili ai VAPAs che agli esseri umani

«I chatbot sanitari potrebbero potenzialmente aumentare l’accesso all’assistenza sanitaria, migliorare la comunicazione medico-paziente e clinica o aiutare a gestire la crescente domanda di servizi sanitari come test a distanza, monitoraggio dell’aderenza ai farmaci o teleconsulti. Alison Darcy, psicologa della ricerca clinica presso la Stanford University, ha creato il chatbot Woebot per aiutare i pazienti depressi. Chatta con gli utenti con Facebook Messenger. Darcy ha studiato 70 giovani utenti adulti e ha scoperto che hanno sperimentato minori episodi di depressione e ansia dopo due settimane di chat con Woebot.» Da un sondaggio, è però emerso che la tutela della privacy e la diffidenza verso i sistemi algoritmici aumentava quando si confessava ai pazienti di aver fatto utilizzo di chatbot, e che la “rinuncia” alla riservatezza è più agevole in un ambiente domestico di quanto avvenga in contesti clinico –sanitari o professionali.

Anche le banche hanno implementato l’utilizzo di VAPAs, sebbene questo abbia sollevato preoccupazioni per la sicurezza, pur di fronte alle rassicurazioni dell’USAA, compagnia di investimento finanziario statunitense, la quale afferma di aver collaborato con Amazon per garantire conformità legale, sicurezza e privacy, esercitando la trasparenza e notificando agli utenti i dati condivisi con Amazon.

Tre sono i dilemmi etici nell’uso di servizi finanziari artificialmente intelligenti ed includono:

(1) conseguenze non intenzionali come il problema con il chatbot Tay di Microsoft (dismesso per commenti offensivi e razzisti);

(2) il potenziale per cambiare i processi e le metodologie del pensiero umano, come nella valutazione delle start-up; e

(3) il fatto che le applicazioni AI/S non sono in grado di spiegare le decisioni in un modo da soddisfare i requisiti normativi.

Maggiori apparirebbero i vantaggi dell’utilizzo dei VAPAs in ambiente educational e di insegnamento, potendo meglio modulare il percorso istruttivo a seconda delle capacità cognitive del singolo studente. Ma «I VAPA richiedono il cloud computing per analizzare le richieste e personalizzare le risposte. Quando gli utenti fanno clic su “Accetto i termini e le condizioni d’uso”, acconsentono all’utilizzo dei propri dati personali. Danno il consenso all’uso da parte di terzi. È stato affermato che questo tipo di consenso non richiede molta attenzione e che gli utenti probabilmente non comprendono appieno che stanno divulgando i propri dati personali in modo continuativo.» Ed inoltre «Ai sensi del GDPR, i minori beneficiano di una protezione specifica per quanto riguarda i loro dati personali. Sono considerati una popolazione vulnerabile perché probabilmente sono meno consapevoli dei rischi, delle salvaguardie e delle conseguenze della condivisione dei dati personali. In un sondaggio su 500 studenti, alcuni temevano che i robot che agiscono come insegnanti potessero essere hackerati e produrre informazioni false o scoprire le informazioni personali degli studenti. La preoccupazione per un potenziale hacking non è infondata. Un utente tedesco di VAPA ha ascoltato il suo archivio e ha scoperto 1.700 file audio di una persona che non conosceva.»

La Mattel ha abbandonato i piani per costruire un VAPA chiamato Aristotele dopo che sono state presentate denunce secondo cui il dispositivo sarebbe invasivo della privacy dei bambini. Il prodotto doveva essere basato su tecnologia Alexa e doveva essere lanciato nel 2018. Una petizione con 15.000 firme di membri di gruppi di difesa dei minori lo ha bloccato. Sebbene molti sostengano che le parti interessate nell’uso dell’IA necessitino di trasparenza, “alcuni scienziati considerano il compito della trasparenza troppo difficile da raggiungere” perché gli algoritmi complessi dell’IA sono troppo difficili da capire. Quindi, la trasparenza è illusoria perché, anche se possiamo vedere cosa sta facendo il sistema, non possiamo capirlo. Invece della regolamentazione umana, dovrebbe esserci una regolamentazione da parte di un algoritmo “guardiano” per assicurarsi che i dispositivi autonomi rimangano entro parametri predefiniti.

Emerge pertanto cruciale stabilire linee guida a salvaguardia di un corretto, equo e legittimo utilizzo dei sistemi algoritmici, e nella seconda sezione del documento si citano le 6 organizzazioni che forniscono risorse ai responsabili politici su questioni rilevanti per i VAPA:

1. la Partnership on AI fondata da cinque delle principali società di alta tecnologia negli Stati Uniti;

2. il partenariato globale dell’OCSE sull’intelligenza artificiale che opera a livello nazionale in tutto il mondo;

3. l’organizzazione di beneficenza Future of Life Institute;

4. l’IEEE Global Initiative on Ethics of Autonomous and Intelligent Systems che si è concentrata sulla fornitura di standard etici ai progettisti;

5. la British Standards Institution (BSI) che ha pubblicato il British Standard (BS) 8611 per la progettazione etica e l’applicazione di robot e sistemi robotici; e

6. la Privacy Coalition.

Nella sezione finale si legge: «Abbiamo analizzato le linee guida della politica AI delle sei importanti organizzazioni di cui sopra e le abbiamo classificate in cinque categorie

Esse sono:

· Padronanza: quando può applicare o utilizzare una serie di conoscenze, attitudini ed abilità correlate, necessarie per svolgere con successo i compiti che è stato progettato per svolgere nell’ambiente di lavoro previsto. Deve avere cinque tratti: deve essere competente; deve essere efficace — ad esempio, deve essere in grado di svolgere il compito previsto; deve avere un potenziale minimo per interrompere i posti di lavoro e la natura del lavoro; deve avere un sistema di registrazione; e, deve avere un sistema di conservazione dei registri.

· Giustizia: significa che l’IA deve essere in grado di rilevare quando particolari utenti necessitino di un trattamento diverso per trarre dal loro utilizzo lo stesso beneficio di altri. Anche qui cinque tratti: un’IA giusta deve essere non discriminatoria in base alla progettazione; deve essere giusta; deve essere in grado di rilevare e correggere le distorsioni; deve contenere disposizioni per gestire il pluralismo, l’inclusività e la diversità culturale e deve essere equa.

· Diritti Umani: può essere visto come un insieme di principi morali che si applicano a tutti e i paesi spesso incorporano i diritti umani nelle proprie leggi nazionali, statali e locali, con i cinque tratti per i quali devono essere in linea con i valori umani; devono riflettere una chiara comprensione e fiducia in merito a situazioni e controllo umano che possono indicare una violazione dei diritti umani; devono rispettare i diritti umani; devono essere progettati per sostenere i valori democratici (o la loro violazione); e devono essere progettati per promuovere il benessere umano.

· Riservatezza nei due tratti sicurezza/protezione e privacy. Mentre la privacy riguarda la salvaguardia dell’identità dell’utente, la sicurezza riguarda la protezione contro l’accesso non autorizzato ai dati.

· Affidabilità: sebbene i sistemi di IA non possano essere responsabili o assumersi la responsabilità delle proprie azioni o risposte, i loro progettisti devono farlo. Per fare ciò, sono state definite i seguenti sette tratti che i progettisti/produttori di AI devono possedere: devono essere responsabili, ovvero qualcuno nell’organizzazione deve avere la responsabilità ultima delle loro prestazioni; devono essere etici; devono educare gli utenti dei loro dispositivi; devono svolgere lavoro di squadra efficace durante la fase di ricerca e sviluppo dello sviluppo dell’IA attraverso collaborazioni ponderate e un dialogo aperto; devono assegnare una chiara responsabilità per il loro sistema; devono essere trasparenti; e devono essere affidabili.

In ultima analisi sorge la domanda su come possiamo “misurare” quanto il sistema AI è conforme alle linee guida e chi dovrebbe eseguire la misurazione. E qui si entra nel tecnico: «notiamo che le sei organizzazioni hanno identificato un totale di 24 tratti che definiscono le cinque categorie che comprendono le loro linee guida politiche. Pertanto, più organizzazioni includono una caratteristica particolare nelle linee guida, più importante è la caratteristica

Da questo studio emerge «Affidabilità è la categoria più importante, seguita da Giustizia, Diritti Umani, Riservatezza, e Padronanza, in questo ordine

In conclusione «La crescita esplosiva nell’uso dei VAPA insieme alla loro sofisticatezza in rapido aumento sta mettendo a rischio la privacy e la riservatezza personali. I consumatori sono presi in un dilemma. O rinunciano alla comodità di un VAPA o mettono a rischio la propria privacy e riservatezza, anche nelle proprie case. Abbiamo dimostrato che, nonostante affermazioni contrarie, le informazioni personali possono e saranno utilizzate.» «Abbiamo proposto un modello che richiede che venga determinato un peso di importanza per ciascuno dei tratti che è stato definito da una o più delle sei organizzazioni che hanno studiato le questioni politiche associate ai VAPA….Tuttavia, ci sono molti altri approcci che possono essere invocati per valutare i criteri. Indipendentemente da come vengono determinati i pesi, dovrebbero essere mantenuti in posizione fino a quando non si presenta una buona e valida ragione per cambiarli

Riproduzione Riservata

Avv. Raffaella Aghemo

--

--

--

Innovative Lawyer and consultant for AI and blockchain, IP, copyright, communication, likes movies and books, writes legal features and books reviews

Love podcasts or audiobooks? Learn on the go with our new app.

Get the Medium app

A button that says 'Download on the App Store', and if clicked it will lead you to the iOS App store
A button that says 'Get it on, Google Play', and if clicked it will lead you to the Google Play store
Raffaella Aghemo

Raffaella Aghemo

Innovative Lawyer and consultant for AI and blockchain, IP, copyright, communication, likes movies and books, writes legal features and books reviews

More from Medium

Property Management Solutions: Visual Assistance Helps Homeowners And Tenants

Cirilab Knowledge Generating Technology Updated by Renald Carriere

Upcoming Impact of Artificial Intelligence and Hybrid Cloud in 2022

Conversational AI to Boost Holiday Sales