
Memorandum of Understanding sulla scienza della sicurezza dell’IA
a cura di Raffaella Aghemo
Il 1° aprile 2024, il Regno Unito e gli Stati Uniti hanno firmato un memorandum d’intesa, cosiddetto MoU (Memorandum of Understanding), sulla scienza della sicurezza dell’IA. Firmata dal ministro del Commercio statunitense Gina Raimondo e dal segretario alla tecnologia del Regno Unito Michelle Donelan, questa partnership è la prima nel suo genere e vedrà i due paesi lavorare insieme per valutare i rischi e sviluppare test di sicurezza per i modelli di intelligenza artificiale più avanzati.
La Raimondo ha dichiarato: «L’intelligenza artificiale è la tecnologia che definisce la nostra generazione. Questa partnership accelererà il lavoro di entrambi i nostri Istituti — (l’AI Safety Institute del Regno Unito, costituito lo scorso novembre, e l’AI Safety Institute degli Stati Uniti, ai primi vagiti) — nell’intero spettro dei rischi, sia per la nostra sicurezza nazionale che per la nostra società in generale. La nostra partnership chiarisce che non stiamo fuggendo da queste preoccupazioni: le stiamo affrontando. Grazie alla nostra collaborazione, i nostri Istituti acquisiranno una migliore comprensione dei sistemi di intelligenza artificiale, condurranno valutazioni più solide e pubblicheranno linee guida più rigorose».
Nello specifico l’impegno condiviso avrà come oggetto:
· sviluppare un approccio condiviso alle valutazioni dei modelli, comprese le metodologie, le infrastrutture e i processi alla base
· eseguire almeno un esercizio di test congiunto su un modello accessibile al pubblico
· collaborare alla ricerca tecnica sulla sicurezza dell’IA, per far avanzare la conoscenza scientifica internazionale dei modelli di intelligenza artificiale di frontiera e per facilitare l’allineamento delle politiche sociotecniche sulla sicurezza e la protezione dell’IA
· esplorare gli scambi di personale tra i rispettivi istituti
· condividere informazioni tra loro nell’ambito delle loro attività, in conformità con le leggi, i regolamenti e i contratti nazionali
Gli Istituti intendono lavorare a stretto contatto per sviluppare un programma di lavoro e un approccio interoperabile alla ricerca sulla sicurezza, per raggiungere i loro obiettivi condivisi sulla sicurezza dell’IA, collaborando con altri governi su standard internazionali per i test di sicurezza dell’IA e altri standard applicabili allo sviluppo, all’implementazione e all’uso di modelli di IA di frontiera.
Riproduzione Riservata
Avv. Raffaella Aghemo