REPORT AI PER LE FORZE DELL’ORDINE (SECONDA PARTE) by Raffaella Aghemo
Proseguiamo in questa analisi del documento emesso dalla Interpol, in collaborazione con la Unicri (United Nations Interregional Crime and Justice Research Institute), dal titolo “Innovazione verso una Intelligenza Artificiale Responsabile. Secondo Rapporto Unipol-Unicri sull’Intelligenza Artificiale per le forze dell’ordine”, che delinea le migliori strategie per far fronte ad una realtà criminosa mai stagnante ma sempre dinamica ed in continua evoluzione!
Dopo aver descritto, nel capitolo uno, il panorama generale dell’uso dell’IA in questo ambito, e nel capitolo due, i quattro principali settori che fanno dell’Intelligenza Artificiale uno strumento utile, se non indispensabile per i tutori dell’ordine, nel capitolo, di cui si parla nel presente editoriale, si analizzano interessanti casi d’uso dell’IA che vengono progettati, sviluppati o pilotati in Norvegia, Australia, Germania, e Giappone, dalle forze dell’ordine nazionali e locali.
3. UTILIZZARE I CASI DELLE FORZE DELL’ORDINE
Questo interesse per l’IA per le forze dell’ordine è stato visto anche in un aumento del numero di unità, centri e Laboratori di ricerca e sviluppo focalizzati sull’IA che sono stati recentemente istituiti: per esempio, il Big Data Team in Germania ha recentemente istituito l’Ufficio Centrale per l’Informatica nel settore della sicurezza (ZITiS); il Laboratorio di Intelligenza Artificiale per l’applicazione della legge sulla sicurezza della comunità (AiLECS) istituito dalla Polizia Federale Australiana in collaborazione con l’Università di Monaco; e la Squadra di Machine Learning e Big Data nella pianificazione delle tecnologie avanzate, all’interno della Agenzia della polizia nazionale giapponese (NPA).
In linea con questo, diverse forze dell’ordine hanno iniziato ad esplorare nuovi concetti e applicazioni attraverso progetti pilota e una maggiore apertura alla collaborazione e ad affrontare l’etica intrinseca, sfide legali e sociali che accompagnano l’uso dell’IA.
Questo Report analizza alcuni casi, il primo dei quali è quello relativo a:
A. SISTEMI DI SORVEGLIANZA NON INTRUSIVI NORVEGIA
I video e le immagini raccolte dalle forze dell’ordine attraverso i sistemi di sorveglianza, come la televisione a circuito chiuso (CCTV) e le telecamere sulle volanti o indossate dagli agenti di pattuglia, sono spesso essenziali per prevenire e indagare sui crimini e garantire il perseguimento dei trasgressori all’interno del sistema giudiziario. Allo stesso tempo, tuttavia, le immagini, i video e i suoni contengono informazioni che possono rivelare l’identità delle persone, la cui gestione e il cui utilizzo possono presentare preoccupazioni per quanto riguarda la privacy.
Nel perseguire la trasparenza, il Distretto di Polizia di Oslo in Norvegia ha lavorato con partner sia all’interno delle forze di polizia che all’esterno con l’industria e il mondo accademico per esplorare l’applicazione dell’IA per la creazione di sistemi di sorveglianza non intrusivi fortemente sensibili all’utente che possono essere impiegati nelle smart city. L’anonimizzazione dei video e delle immagini raccolte con l’IA è al centro di tutto questo. Più specificamente, le immagini delle persone catturate nei filmati di sorveglianza vengono automaticamente rese anonime dal sistema di IA, coprendo il loro volto con un personaggio dei cartoni animati o emoji. In questo modo i set di dati anonimi possono essere gestiti e condivisi dalla polizia e con i partner della polizia per essere utilizzati in modo non intrusivo; ad esempio, i dati resi anonimi possono essere liberamente utilizzati per il riconoscimento di modelli per identificare atti come atti vandalici, risse di strada e movimenti che indicano intossicazione. Questo progetto segna uno dei primi processi delle forze dell’ordine in cui il riconoscimento dei modelli è combinato con mezzi di anonimizzazione automatizzata. Questo progetto pilota è anche degno di nota in quanto potrebbe rappresentare una soluzione parziale per affrontare il problema del rispetto del Regolamento generale sulla protezione dei dati dell’Unione Europea (UE), in base al quale le forze dell’ordine devono essere in grado di effettuare un monitoraggio non intrusivo e un’analisi delle prove per quanto riguarda la privacy dei “passanti” o delle non-persone-di-interesse (non-POI).
B. BLOCCO DATI E RICONOSCIMENTO DEI MATERIALI NOCIVI AUSTRALIA
La Polizia Federale Australiana (AFP) ha implementato l’uso dell’AI e del ML per automatizzare o assistere con compiti come l’etichettatura e l’organizzazione dei dati. Questo include la creazione di un sistema di ricerca, simile a quello di Google, per dati di indagine, che supportino l’AFP nell’utilizzare le grandi quantità di dati strutturati e dati non strutturati nei suoi database, e nel renderli sensati. L’AFP sta inoltre lavorando alla creazione di un sistema di “data airlock”, che permette ai ricercatori di sviluppare nuovi algoritmi senza avere accesso ai dati. La camera di compensazione dei dati è dotata di crittografia, per fornire un ambiente isolato e sicuro, dove i ricercatori possono mettere i loro algoritmi e modelli, eseguirli ed estrarre i risultati della ricerca e dell’analisi, ma in modo che i dati non lascino mai l’ambiente proprietario, una caratteristica particolarmente rilevante per le organizzazioni che trattano dati sensibili.
C. SISTEMA DI RACCOMANDAZIONI GERMANIA
Qui il nucleo ZITiS ha creato un sistema recommender, come quello di Amazon e Netflix: tali sistemi di raccomandazione funzionano partendo dal presupposto che, in grandi e diversi set di dati, utenti simili selezionano elementi simili. Sulla base di questo conoscenza, e dopo un periodo iniziale di apprendimento, gli elementi di potenziale interesse sono automaticamente consigliati all’utente, particolarmente per soddisfare le esigenze delle moderne indagini sui crimini finanziari che, di solito, richiedono il controllo di grandi quantità di dati.
Chiaramente ci sono alcune sfide che riguardano la creazione di sistemi di raccomandazione efficaci per le forze dell’ordine. In primo luogo, è essenziale che un sistema di raccomandazione con capacità decisionale non sia di parte. La parzialità influenzerà l’accuratezza e la veridicità delle informazioni e potrebbe compromettere un’indagine. Questa sarà una sfida significativa per le forze dell’ordine per navigare con attenzione.
D. SCREENING DEI GRANDI EVENTI, SORVEGLIANZA E OLTRE GIAPPONE
Il governo del Giappone ha avviato una cooperazione con diverse aziende tecnologiche nell’ambito di una politica di sviluppo dell’IA per massimizzare la sicurezza e prevenire la criminalità o il terrorismo che interferiscono con il successo dei grandi eventi. Nell’aprile 2019, l’NPA ha istituito un nuovo ufficio di “Advanced Technology Planning” che cerca di sfruttare l’uso vantaggioso di tecnologie avanzate, come l’IA.
Il Police Information Communication Research Centre, dell’Accademia Nazionale di Polizia, sta inoltre esplorando tre applicazioni pilota che potrebbero rafforzare la sicurezza intorno ai grandi eventi. Questi includono l’uso dell’IA per: identificare i modelli di auto nei filmati di sorveglianza, analizzare sospette transazioni finanziarie che possano indicare il riciclaggio di denaro sporco e aiutare ad identificare movimenti o azioni che possano essere considerate sospette. Anche la polizia della prefettura di Tokyo sta sviluppando strumenti abilitati all’IA in forma pilota, che si concentrano sull’identificazione delle aree ad alto rischio di criminalità, a supporto per determinare i percorsi di pattugliamento ottimali o le tecniche di prevenzione del crimine.
Per chi avesse perso la prima parte può trovarla qui.
Tra qualche giorno pubblicherò la terza ed ultima parte.
Riproduzione Riservata
Avv. Raffaella Aghemo