REPORT AI PER LE FORZE DELL’ORDINE (PRIMA PARTE) by Raffaella Aghemo
In questi giorni mi sono dedicata allo studio ed alla lettura di un corposo documento emesso dalla Interpol, in collaborazione con la Unicri (United Nations Interregional Crime and Justice Research Institute), dal titolo “Innovazione verso una Intelligenza Artificiale Responsabile. Secondo Rapporto Unipol-Unicri sull’Intelligenza Artificiale per le forze dell’ordine”, che delinea le migliori strategie per far fronte ad una realtà criminosa mai stagnante ma sempre dinamica ed in continua evoluzione! Proprio per questo si legge: «Finché il crimine e la criminalità mantengono questo natura dinamica, le forze dell’ordine devono essere preparate a tenere il passo, ed adattarsi, in modo flessibile, alle tendenze di crescita e sviluppo, per garantire la sicurezza della nostra comunità globale.»
L’IA rappresenta in questo contesto, uno strumento fondamentale, per «la capacità dell’IA di alterare la natura delle attività di polizia e di migliorare l’efficienza e l’efficacia nell’ identificare, ad esempio, le persone di interesse in spazi affollati; prevedere e prevenire la violenza; ordinare, etichettare e classificare automaticamente i grandi dati operativi della polizia, come prove o materiali nocivi; e persino monitorare i fattori di radicalizzazione.»
Questo Rapporto è il prodotto di una lunga e laboriosa attività, sorta dalla collaborazione tra INTERPOL e UNICRI, che già nel 2018 avevano dato vita ad un forum, proprio per confrontarsi sulle potenzialità dei nuovi strumenti a difesa dal crimine, e che ha come prossimo obiettivo, per di più imminente, il terzo incontro annuale INTERPOL-UNICRI Global Meeting on AI for Law Enforcement che si terrà all’Aia, nei Paesi Bassi, nel novembre 2020. Ma la premessa termina anche con un monito importate: «Infatti, se da un lato c’è un grande potenziale nell’IA, dall’altro l’uso di questa tecnologia da parte delle forze dell’ordine solleva anche preoccupazioni molto reali e serie, sui diritti umani, che possono essere estremamente dannose e minare la fiducia che le comunità ripongono nelle forze dell’ordine.» Questo Rapporto, pertanto, frutto delle discussioni emerse nell’ultimo Global Meeting, svoltosi a Singapore nel luglio 2019, pone l’accento sulla dualità della IA e sulle trappole che si presentano nel suo utilizzo.
Il primo capitolo descrive il panorama generale dell’uso dell’IA in questo ambito, sottolineando, in particolare, il crescente interesse della comunità delle forze dell’ordine e sottolineando la necessità di una collaborazione tra queste e le autorità di polizia. stakeholder, in modo da imparare gli uni dagli altri, dai successi e dai fallimenti ed essere in grado di mitigare meglio qualsiasi impatto dannoso derivante dall’uso di questa tecnologia.
Nel capitolo due, si descrivono i quattro principali settori dell’IA considerati rilevanti per l’applicazione della legge, da INTERPOL e UNICRI, che sono l’elaborazione audio, l’elaborazione visiva, l’ottimizzazione delle risorse e l’elaborazione del linguaggio naturale.
Il capitolo tre fornisce una panoramica di una selezione di casi d’uso dell’IA che vengono progettati, sviluppati o pilotati in Australia, Germania, Giappone e Norvegia dalle forze dell’ordine nazionali e locali.
Il capitolo quattro inizia con la presentazione dei principi generali che le forze dell’ordine dovrebbero cercare di rispettare, vale a dire il rispetto dei diritti umani, della democrazia, della giustizia e dello stato di diritto, nonché i relativi requisiti di equità, responsabilità, trasparenza e spiegabilità che dovrebbero essere adottati affinché le forze dell’ordine possano rispettare questi principi.
Nel capitolo cinque, inizia il cammino verso la realizzazione di un uso responsabile dell’IA, con l’individuazione di specifiche esigenze di polizia e di azioni raccomandate che sono state presentate e discusse dai rappresentanti delle forze dell’ordine.
Il capitolo sei presenta una proposta, di INTERPOL e UNICRI, per lo sviluppo di un kit di strumenti operativi a supporto e guida della legge. l’applicazione nella progettazione, nello sviluppo e nella diffusione dell’IA in modo responsabile.
Il rapporto si conclude con il capitolo sette, che definisce una selezione di punti di azione per la comunità internazionale delle forze dell’ordine, i responsabili politici e le organizzazioni intergovernative.
Analizziamo meglio i vari punti.
1. LA CONTINUA ESPANSIONE DELLA IA PER L’APPLICAZIONE DELLA LEGGE
Costruire la cooperazione sull’IA con gli stakeholder del settore pubblico, dell’industria, del mondo accademico, così come enti di sicurezza correlati, agenzie di intelligence, organismi antiterrorismo e così via, è un passo essenziale. In effetti, l’obiettivo delle forze dell’ordine non dovrebbe essere quello di creare programmi paralleli di R&S sull’IA, ma piuttosto quello di aumentare e promuovere la condivisione di conoscenze e tecnologie, la costruzione di relazioni e la collaborazione tra le parti interessate, al fine di far avanzare il lavoro che viene richiesto sulle applicazioni tecniche. Che si tratti di servizi di posizionamento globale (GPS), del cellulare, di Internet, dei droni o delle valute criptate, i criminali sono da tempo i primi ad adottare la tecnologia. In quest’ultimo anno, la possibilità di utilizzare l’IA per scopi malevoli, così come l’abuso da parte di gruppi criminali dei sistemi di IA esistenti, utilizzati da imprese o enti pubblici , è diventata sempre più reale, con sviluppi sostanziali preoccupanti.
Se, nel 2019, il phishing è stato il metodo di distribuzione più comune per il malware ed è stato responsabile del 32% delle violazioni di dati e del 78% degli incidenti di cyberspionaggio, un’altra minaccia crescente è l’uso malevolo di piccoli veicoli aerei senza equipaggio (UAV — unmanned aeral vehicles), comunemente noti come droni. Sebbene il loro utilizzo avvenga principalmente attraverso il funzionamento manuale a distanza, e non sfrutti completamente l’IA, le capacità in continua evoluzione potrebbero presto portare a una maggiore autonomia (finora i droni sono stati utilizzati con dispositivi esplosivi improvvisati — IEDs — in attacchi in zone di conflitto). La minaccia forse più malevola è rappresentata dal crescente fenomeno dei cosiddetti deepfake, in grado di creare sconvolgimenti anche a livello politico.
2. DOMINI DELL’AI TECHNOLOGY
A seguito del primo Global Meeting, INTERPOL e UNICRI hanno svolto un’analisi preliminare della situazione, e hanno identificato quattro domini principali che coinvolgono tecnologie basate sull’IA, di immediata rilevanza per le forze dell’ordine. Questi domini della tecnologia AI sono:
· l’elaborazione audio,
· l’elaborazione visiva,
· l’ottimizzazione delle risorse e
· l’elaborazione del linguaggio naturale.
Elaborazione Audio: è la manipolazione delle caratteristiche di un segnale audio per, ad esempio, migliorare audio, separare le fonti, creare interi nuovi suoni o comprimere, memorizzare o trasmettere dati, al fine di effettuare profili vocali basati sull’IA.
Il profiling è una tecnica comune utilizzata per estrapolare informazioni rilevanti dalle caratteristiche psicologiche e comportamentali di un individuo. Nelle forze dell’ordine, è spesso utilizzato come strumento investigativo per sostenere l’identificazione di possibili sospetti o collegare casi apparentemente disparati che possono essere stati commessi da un solo colpevole. Oltre alle caratteristiche psicologiche e comportamentali, la voce è un mezzo prezioso, che porta con sé notevoli informazioni personali che, se opportunamente decifrate, possono supportare le indagini.
L’impronta vocale unica di un individuo può essere legittimamente raccolta dalle forze dell’ordine attraverso intercettazioni telefoniche, voci radiotrasmesse, dispositivi intelligenti indossabili o altri dispositivi di sorveglianza. Le applicazioni di profilazione vocale AI possono utilizzare tali impronte vocali dopo che i campioni sono stati suddivisi in frammenti di millisecondi.
Esaminando questa impronta vocale e analizzando come il suono vibra verso l’esterno, il sistema può dedurre tratti fisici come altezza, peso, struttura facciale, età e persino fare previsioni sulla personalità, sulla salute fisica e sul benessere mentale. Inoltre, dalle informazioni sull’ambiente fisico che circonda un altoparlante, si può dedurre, ad esempio: se la persona si trova all’interno o all’esterno, le dimensioni della stanza in cui sta parlando, il materiale delle pareti circostanti, se ci sono finestre, che tipo di attrezzatura viene utilizzata nelle vicinanze, e anche l’ora del giorno sulla base di firme lasciate nella registrazione dalle fluttuazioni della rete elettrica locale.
Utilizzando queste intuizioni, si può generare una costruzione del volto o dell’intero corpo di una persona di interesse, fornendo, alle forze dell’ordine, una rappresentazione realistica e perseguibile. È possibile, con questa tecnologia, generare in cinque o dieci anni, una previsione delle caratteristiche fisiche di un individuo, basandosi solo su registrazioni vocali. Il voice profiling non è stato ancora ampiamente esplorato dalle forze dell’ordine e c’è ancora un po’ di strada da fare prima che diventi praticabile in tribunale. Ciononostante, nel 2014, un’applicazione di profilazione vocale, sviluppata dalla Carnegie Mellon University, ha svolto un ruolo fondamentale in un’indagine sulle chiamate di soccorso per truffa alla Guardia Costiera degli Stati Uniti, che ha portato ad un arresto.
Ma la tecnologia deve ancora affrontare diversi problemi pratici, sfide, quali:
Ø Il degrado della qualità che si verifica in condizioni di rumore, ambienti e canali acustici non ideali e di qualità insufficiente;
Ø sovrapposizione di voci umane, come conversazioni multiple simultanee, conversazioni con più altoparlanti e conversazioni che si svolgono in spazi affollati;
Ø tenere il passo con l’aumento del numero di nuove tecnologie che possono essere utilizzate per registrare o trasmettere l’audio, ognuno dei quali produce diverse firme acustiche;
Ø la manipolazione della voce o l’arte vocale che può mascherare la vera voce di un oratore; l’emergere di applicazioni vocali false e profonde che possono generare voci false credibili; e..,
Ø il trend, pur se decrescente, di alcune gamme di caratteristiche uniche nelle voci portato da fattori come la globalizzazione, la tecnologia, i media e l’intrattenimento.
Elaborazione visiva: o computer vision, è l’imitazione del sistema visivo umano da parte di una macchina e riguarda l’estrazione, l’analisi e la comprensione delle informazioni dalle immagini.
Sebbene si tratti di applicazioni, attraverso le telecamere di sorveglianza, risalenti agli anni 70, le tecnologie di sorveglianza hanno subito notevoli progressi nel corso degli anni, comprese le telecamere indossate dagli agenti di polizia (bodycam) e i droni pattuglia, è con l’IA che forse possono materializzarsi i risultati più impressionanti. Attraverso tecniche sempre più raffinate di deep learning, sistemi avanzati possono condurre il rilevamento e il riconoscimento dei volti, così come il riconoscimento delle espressioni facciali. Possono anche condurre il rilevamento del corpo umano, l’identificazione della persona, il riconoscimento degli attributi, il riconoscimento del comportamento umano e il riconoscimento del movimento del corpo (andatura). Per quanto riguarda gli oggetti, possono condurre il tracciamento degli oggetti, l’identificazione e la ri-identificazione dei veicoli, il riconoscimento delle targhe e la classificazione della scena del crimine. I sistemi di elaborazione visiva abilitati per l’IA possono essere utilizzati per identificare comportamenti anomali e, sia per le persone in lista nera che per quelle in lista bianca, per facilitare o limitare l’ingresso in specifici edifici o eventi chiusi, come concerti e festival. Ciò può aumentare significativamente la preparazione delle forze dell’ordine e delle forze di sicurezza, incaricate della protezione di tali eventi. Questi sistemi devono però affrontare una serie di sfide pratiche significative, tra cui soggetti non frontali o soggetti coperti e l’uso di accessori per il viso, come occhiali, gioielli e maschere.
Ottimizzazione delle risorse: insieme ai sensori intelligenti, l’Internet of Things, la rete di telecomunicazioni di prossima generazione (5G, Wi-Fi 6), e la realtà aumentata, l’IA è la chiave per realizzare il concetto di “smart policing”, supportando la pianificazione strategica e i processi decisionali, aumentando l’efficienza consentendo una migliore allocazione di agenti, veicoli e attrezzature e riducendo i tempi di risposta alle emergenze. I progressi tecnologici e le migliori strategie di incontro dinamico, tra domanda e offerta di risorse, hanno già ha contribuito a ridurre i tempi di risposta per le chiamate di emergenza. Migliorare ulteriormente questi sistemi dinamici e i processi si tradurranno, idealmente, in una maggiore sicurezza, operando su cinque aree:
1. Mappatura dei punti caldi — la raccolta di dati storici sulla criminalità da parte delle forze dell’ordine locali, combinata con ulteriori set di dati, tra cui le previsioni meteorologiche, la storia delle pattuglie di polizia e la storia criminologica. per prevedere i punti caldi del crimine in una giurisdizione.
2. Dispiegamento di risorse su richiesta — l’assegnazione di risorse di polizia (ad esempio, personale, veicoli ecc) in base all’effettiva domanda dell’area in cui sono stati individuati i punti caldi della criminalità.
3. Programmazione del percorso di pattugliamento — l’uso dei punti caldi identificati per ottimizzare i percorsi e gli orari di pattugliamento.
4. Invio di risorse per le chiamate — l’invio delle risorse disponibili più vicine per rispondere alle chiamate di servizio in base al tempo di risposta previsto.
5. Tracciatura del percorso di risposta — identificare il percorso ottimale calcolando la distanza e il tempo e poi dispiegare la risorsa o le risorse in base alla disponibilità e al tempo di risposta ottimale.
Controllori umani dovrà effettuare una valutazione continua delle prestazioni di questi sistemi, dato che il modello di apprendimento delle macchine costruisce i successi e i fallimenti del passato.
Elaborazione del linguaggio naturale: Natural Language Processing (NLP) — altrimenti noto come linguistica computazionale — è un campo dell’IA che, in sostanza, permette alle macchine di leggere, comprendere e trarre significato dalle lingue umane. Viene utilizzato, in ambito giudiziario, estraendo informazioni e analisi da fonti testuali, quali e-mail, chat online, documenti scritti o dattiloscritti o immagini degli stessi. In questo modo, le forze dell’ordine possono risparmiare tempo e risorse per estrarre le informazioni rilevanti dai dati e convertirle in informazioni utili per le indagini forensi digitali. La NLP ha anche il potenziale per essere utile per migliorare la sicurezza digitale. Ad esempio, i filtri abilitati alla NLP possono classificare e analizzare le e-mail per bloccare gli attacchi di phishing. Nell’era delle notizie false, può anche aiutare a combattere disinformazione determinando se una fonte è accurata e affidabile. Tuttavia, è un compito molto impegnativo e un lavoro considerevole quello richiesto nello sviluppo di un’applicazione NLP. Fortunatamente, attraverso il transfer learning — condividendo parti di codifica/script, moduli di modelli o librerie per algoritmi — gli esperti possono aiutarsi a vicenda. Ad esempio, la Polizia Nazionale olandese ha in particolare iniziato progetti di dati open-source per migliorare il successo e i risultati in questo ambito.
Riproduzione Riservata
Avv. Raffaella Aghemo