Artificial Intelligence and the fear of the robot
depositphotos

La Robofobia: distorsione dei bias nella direzione opposta

Raffaella Aghemo
7 min readJun 21, 2022

--

a cura di Raffaella Aghemo

Ho letto spesso in questi giorni commenti più o meno consapevoli sulla notizia di una Intelligenza Artificiale “cosciente”, la cui rivelazione sarebbe costata il posto ad un ricercatore di Google, a capo di questo progetto, denominato Lamda.

Trovo a questo punto utile e fertile, per la riflessione, questo lungo articolo di Andrew Keane Woods, Professore di diritto all’Università dell’Arizona, che ha un titolo che è tutto un programma: “Robofobia”, pubblicato a marzo, su The University of Colorado Law Review, Volume 93.

Punto di partenza, di questa corposa disamina, è un assioma quanto mai veritiero, ovvero che ad oggi, troppo spesso ci occupiamo dei pregiudizi che le macchine possono avere verso gli esseri umani e molto meno del contrario, ovvero dei pregiudizi che noi umani abbiamo verso le cosiddette macchine artificiali, non in senso deontologico, quanto nel senso più pratico del termine, in quanto, come il Professore afferma: «Tolleriamo rischi enormi dai nostri simili, ma quasi nessuno da macchine. Una letteratura consistente, quasi del tutto ignorata dagli studiosi di diritto che si occupano di pregiudizi algoritmici, suggerisce che di solito preferiamo esseri umani con prestazioni peggiori rispetto a robot con prestazioni migliori. Lo facciamo sulle nostre strade, nei nostri tribunali, tra i nostri militari e nei nostri ospedali. Il nostro pregiudizio nei confronti dei robot è costoso e lo diventerà solo man mano che i robot diventeranno più capaci.»

Nella introduzione, Woods fa emergere un dato inequivocabile: oggetto delle questioni più dibattute a livello governativo e istituzionale, è dove posizionare questi sistemi decisionali algoritmici, spesso mettendo in secondo piano, o addirittura tralasciando chi sia più bravo, performante ed efficace a svolgere quel determinato compito se l’uomo o la macchina; proprio questo è quello che l’autore chiama “robofobia”, ovvero poniamo richieste irragionevoli al robot o al sistema decisionale, creando una sorta di diffidenza verso le decisione algoritmiche, rispetto a quelle umane, sebbene talora più fallaci. Lo si riscontra in ambito sanitario, dove spesso si preferisce un consulto esclusivamente umano, piuttosto che coadiuvato da strumenti di IA, o nei perimetri aziendali, ove normative sempre più stringenti “chiudono” all’utilizzo di “macchine”.

Secondo Woods, viviamo in una perpetua e continua lotta tra l’accoglimento delle nuove tecnologie, e la costruzione di barriere per limitarle o abbatterle (n.d.r. non solo in riferimento all’IA).

Woods non vuole fare una crociata a favore dei cosiddetti robot, ma suggerisce un approccio più equilibrato e cauto, che sappia “valorizzare” le molteplici attitudini della tecnologia e che aiuti a comprendere come le “macchine” svolgano alcuni compiti, soprattutto quelli ripetitivi e “meccanici”, molto meglio della controparte umana: «.. dobbiamo valutare attentamente non solo se le decisioni di un robot hanno conseguenze distributive, ma anche come si confrontano con l’alternativa.» Nel settore sanitario, è stato notato come alcuni medici abbiano pregiudizi verso categorie sottorappresentate e questo cagiona i medesimi danni che se lo stesso bias fosse applicato da una macchina.

Nella seconda parte, Woods elenca i 4 tipi di robofobia: essi si distinguono, anzitutto in due macrocategorie, i pregiudizi antirobot in generale e quelli invece codificati in leggi e regolamenti. Per l’autore tutto si riduce a un problema fondamentale: «- uso improprio umano di attori non umani -», che si presenta sotto varie forme.

Forme violente come la seguente: «Quando due robotici universitari hanno rilasciato HitchBOT, un robot da autostop in grado di comunicare con gli umani per richiedere un passaggio in una determinata direzione, il loro scopo era semplicemente quello di vedere se ci si poteva fidare di un robot nelle mani del pubblico. Il robot iniziò il suo viaggio a Salem, nel Massachusetts, con l’obiettivo di raggiungere San Francisco, in California, ma due settimane dopo l’inizio del viaggio fu trovato decapitato e smembrato in un vicolo di Filadelfia

Da sempre, la letteratura ci ha mostrato i robot come creature create dall’uomo, che finiscono per ribellarsi al loro creatore e distruggerlo, e, proprio in virtù di questo mito che è nato, quello che Woods definisce il complesso di Frankenstein, che incarna la «paura che l’uomo si introduca, attraverso la tecnologia, nel regno di Dio e non sia in grado di controllare le proprie creazioni

Anche nel mainstream, si è notato che è diverso l’impatto che viene dato, a livello mediatico, ad un incidente in cui è coinvolto un veicolo a guida autonoma, rispetto a un qualunque incidente automobilistico, e nonostante le statistiche dimostrino come la percentuale di errore dei veicoli a guida autonoma sia minima rispetto a quelli cagionati da esseri umani, la robofobia non fa altro che fortificare e rafforzare il senso di incertezza e “non sicurezza” del futuro tecnologico rispetto allo stato attuale, creando quindi un pregiudizio al contrario.

«anche nel settore sanitario. Uno studio recente ha mostrato che gli algoritmi hanno individuato le malattie ai raggi X delle popolazioni svantaggiate quando quelle stesse malattie non sono state rilevate dai medici a causa di pregiudizi impliciti. Eppure i pazienti sono riluttanti a fidarsi di questa tecnologia. Numerosi studi hanno dimostrato che le persone generalmente preferiscono l’assistenza sanitaria fornita dagli esseri umani rispetto alle macchine, anche quando ciò significa che l’assistenza sanitaria sarà più costosa e meno efficace

Anche nella giustizia penale, si è da sempre sottolineata la parzialità delle decisioni algoritmiche, soprattutto a sfavore delle popolazioni afroamericane, il che è indubbiamente vero, ma non si è mai magari posto l’accento, riporto fedelmente le considerazioni di Woods, quanto sia incostituzionale la cauzione in contanti (che richiede agli imputati di depositare denaro come garanzia. Se l’imputato non si presenta in tribunale, perde i suoi soldi), cauzione che permette ai detenuti ricchi di ottenere la libertà ma che penalizza esclusivamente e in maniera massiva le popolazioni meno abbienti, ma che mai è stata oggetto di pronunce antidiscriminatorie o di articoli sensazionalistici.

Ma il problema è un altro: «un cattivo algoritmo moltiplicato su milioni di decisioni farà più danni di un singolo cattivo decisore umano. Chiaramente, in entrambi gli scenari, dobbiamo valutare attentamente i rischi prima che queste macchine siano destinate all’uso previsto

In tutti i casi, che questo bel paper riporta, appare evidente come gli standard che vengono richiesti ai cosiddetti robot, siano molto più elevati rispetto a quelli che si richiederebbero ad un essere umano nelle medesime condizioni, addirittura rasentano la richiesta di perfezione; inoltre ai sistemi di Intelligenza Artificiale si richiede piena trasparenza, ovvero totale spiegabilità dei processi decisionali, ma non si fa altrettanto per le decisioni umane. E anche a livello di fiducia, si tende a credere alla performance della macchina fino a che non sbaglia, per essere poi pronti a togliergli quella stessa fiducia, in maniera più forte e molto più duramente rispetto ad un errore commesso da un uomo alle stesse condizioni.

Esempio di questa stessa sfiducia di cui sopra, è il paradigma “human in the loop” che ricorre in molti report sull’utilizzo dell’Intelligenza Artificiale.

La terza parte, spiega il perché della robofobia, che potremmo sintetizzare nei punti seguenti:

- Paura dell’ignoto

- Paura per la mancanza di trasparenza delle decisioni algoritmiche

- Perdita di controllo (qui mi sento di suggerire di andarsi a rivedere War Games, il film del 1983)

- Ansia da lavoro, ovvero la paura di essere sostituiti dalle macchine

- DisgustoNegli anni ’70, il robotista Masahiro Mori ipotizzò che le persone sarebbero state più disposte ad accettare i robot man mano che le macchine diventavano più umane, ma solo fino a un certo punto, e quindi l’accettazione umana di robot quasi umani sarebbe diminuita. Questo declino è stato chiamato la “valle misteriosa” e si è rivelato essere un’intuizione profonda su come gli esseri umani reagiscono agli agenti non umani. Ciò significa che man mano che i robot prendono il posto degli umani con una frequenza crescente — robot di accompagnamento per gli anziani, robot sessuali per i single, robot medici per i malati — è probabile che le segnalazioni di caratteristiche inquietanti dei robot aumenteranno.»)

- Azzardo sulla decisione perfettaUna spiegazione è che stanno scommettendo per un risultato a bassa probabilità ma ad alta ricompensa: una decisione perfetta….In altre parole, gli esseri umani possono essere in media peggiori decisori, ma con una decisione umana, c’è la possibilità di vincere il jackpot e ottenere una decisione perfetta.») «Ciò si riferisce all’idea di “negligenza dell’unicità”, la paura che l’intelligenza artificiale non spieghi adeguatamente l’unicità di ogni individuo.»

- Eccessiva fiducia nelle decisioni umane.

Nella quarta parte, l’autore dà una equilibrata panoramica dei giustificati motivi di questo fenomeno della robofobia, che sintetizzo di seguito:

- Preoccupazioni per l’uguaglianza, in quanto le discriminazioni algoritmiche sono amplificate in ogni settore di utilizzo, dalla giustizia penale, ai veicoli a guida autonoma, pertanto «se le auto a guida autonoma riducono i decessi complessivi ma aumentano i decessi per un particolare sottogruppo della popolazione, potremmo ragionevolmente decidere che questa distribuzione ineguale dei danni neghi il beneficio complessivo delle auto.»

- L’economia politica dei robot, per la quale lo sviluppo di un algoritmo in mano alle cosiddette Big tech potrebbe far derivare la seguente fenomenologia: «l’uso diffuso potrebbe dare al proprietario dell’algoritmo troppa potenza con poca responsabilità

- Bias pro-macchina, o pregiudizio di automazione, di cui spesso vi ho parlato, per cui anche i giudici tendono a ritenere più validi dei risultati algoritmici rispetto a quelli umani, per una preconcetta idea che i sistemi di IA siano infallibili.

Nella quinta parte, Woods conclude con questa affermazione: «In particolare, nella maggior parte dei domini, dovremmo accettare molti più rischi dagli algoritmi rispetto a quanto facciamo attualmente. Dovremmo valutare le loro prestazioni in modo comparativo, di solito confrontando i robot con il decisore umano che sostituirebbero, e dovremmo preoccuparci dei tassi di miglioramento. Ciò significa che dovremmo abbracciare i decisori robotici ogni volta che sono migliori dei decisori umani. Dovremmo anche abbracciare i decisori robotici quando sono meno efficaci degli umani, purché abbiamo un alto livello di fiducia che presto diventeranno migliori degli umani.»

La robofobia però ha spesso impatti anche sull’ambiente circostante e su coloro che ci circondano, motivo per il quale se io scegliessi un medico empatico e meno efficiente ad un robot freddo ma più preciso, l’effetto della mia scelta impatterebbe esclusivamente su di me, autore, ma qualora io la medesima scelta la facessi per mio figlio, in quel momento sotto la mia responsabilità, in quel caso potrei cagionargli un danno, non prevedibile.

La conclusione di questo bellissimo viaggio compiuto da Woods, non vuole indicarci una destinazione, vuole solo farci orientare sempre meglio, in un futuro in cui la convivenza uomo-macchina sarà sempre più presente, e in cui l’abbattimento dei pregiudizi dovrà passare da un reset completo e totale, che consenta a coloro che ideano e sviluppano la tecnologia, di permetterle di apprendere sempre di più, per migliorarne le prestazioni, ma anche di valutare sempre, con la maggiore obiettività possibile, i vantaggi sia dell’uomo, sia della macchina e soprattutto del connubio uomo-macchina.

Riproduzione Riservata

Avv. Raffaella Aghemo

--

--

Raffaella Aghemo

Innovative Lawyer and consultant for AI and blockchain, IP, copyright, communication, likes movies and books, writes legal features and books reviews