Cina e Stati Uniti fanno parte di un patto multilaterale per collaborare sui rischi dell’intelligenza artificiale
Pubblicata dal Regno Unito, la Dichiarazione di Bletchley riunisce 28 nazioni in un accordo per identificare e gestire collettivamente i potenziali rischi derivanti dall’intelligenza artificiale “di frontiera”.
Un gruppo di 28 nazioni, tra cui Cina e Stati Uniti, ha accettato di lavorare insieme per identificare e gestire i potenziali rischi derivanti dall’intelligenza artificiale (AI) “di frontiera”, segnando il primo accordo multilaterale di questo tipo.
Pubblicata dal Regno Unito, la Dichiarazione di Bletchley sulla sicurezza dell’intelligenza artificiale delinea il riconoscimento da parte dei paesi dell’“urgente necessità” di garantire che l’intelligenza artificiale sia sviluppata e utilizzata in “modo sicuro e responsabile” a beneficio di una comunità globale. Questo sforzo richiede una più ampia cooperazione internazionale, secondo la Dichiarazione, che è stata approvata da paesi di tutta l’Asia, l’UE e il Medio Oriente, tra cui Singapore, Giappone, India, Francia, Australia, Germania, Corea del Sud, Emirati Arabi Uniti e Nigeria. .
I paesi riconoscono che rischi significativi possono emergere da un uso improprio intenzionale o da problemi non intenzionali di controllo dell’IA di frontiera, in particolare i rischi derivanti dalla sicurezza informatica, dalla biotecnologia e dalla disinformazione. La Dichiarazione sottolinea i danni potenzialmente gravi e catastrofici derivanti dai modelli di intelligenza artificiale, nonché i rischi associati a pregiudizi e privacy.
Oltre a riconoscere che i rischi e le capacità non sono ancora del tutto compresi, le nazioni hanno concordato di collaborare e costruire una “comprensione scientifica e basata sull’evidenza” condivisa dei rischi dell’IA di frontiera.
La Dichiarazione descrive l’IA di frontiera come sistemi che comprendono “modelli di IA per scopi generali altamente capaci”, compresi i modelli di base, che possono svolgere un’ampia gamma di compiti, nonché un’IA specifica e ristretta.
"Decidiamo di lavorare insieme in modo inclusivo per garantire un'intelligenza artificiale incentrata sull'uomo, affidabile e responsabile che sia sicura e sostenga il bene di tutti attraverso i forum internazionali esistenti e altre iniziative pertinenti", afferma la Dichiarazione.
"Così facendo, riconosciamo che i paesi dovrebbero considerare l'importanza di una governance e di un approccio normativo proporzionato e pro-innovazione che massimizzi i benefici e tenga conto dei rischi associati all'intelligenza artificiale".
Questo approccio potrebbe includere la definizione di classificazioni e categorizzazioni dei rischi basate sulle circostanze locali di un paese e sui quadri giuridici applicabili. Potrebbe anche essere necessaria una cooperazione su nuovi approcci, come principi comuni e codici di condotta.
Gli sforzi del gruppo si concentreranno sulla costruzione di politiche basate sul rischio in tutti i paesi, collaborando ove appropriato e riconoscendo che gli approcci a livello nazionale possono differire. Oltre alla necessità di una maggiore trasparenza da parte degli attori privati che stanno sviluppando capacità di intelligenza artificiale di frontiera, questi nuovi sforzi includono lo sviluppo di metriche di valutazione e strumenti pertinenti per i test di sicurezza, nonché le capacità del settore pubblico e la ricerca scientifica.
Il primo ministro britannico Rishi Sunak ha dichiarato: “Questo è un risultato fondamentale che vede le più grandi potenze mondiali nel campo dell’intelligenza artificiale concordare sull’urgenza di comprendere i rischi dell’intelligenza artificiale”.
Michelle Donelan, segretaria britannica per la tecnologia, ha aggiunto: "Abbiamo sempre affermato che nessun paese può affrontare da solo le sfide e i rischi posti dall'intelligenza artificiale, e la storica dichiarazione di oggi segna l'inizio di un nuovo sforzo globale per costruire la fiducia del pubblico garantendo lo sviluppo sicuro della tecnologia. ."
Questa settimana è stato annunciato anche un progetto guidato da Singapore, noto come Sandbox, con l'obiettivo di fornire una serie standard di parametri di riferimento per valutare i prodotti di intelligenza artificiale generativa. L'iniziativa riunisce risorse dei principali attori globali, tra cui Anthropic e Google, ed è guidata da una bozza di catalogo che classifica i benchmark e i metodi attuali utilizzati per valutare modelli linguistici di grandi dimensioni.
Il catalogo raccoglie strumenti di test tecnici di uso comune, organizzandoli in base a ciò che testano e ai relativi metodi, e raccomanda una serie di test di base per valutare i prodotti di intelligenza artificiale generativa. L’obiettivo è stabilire un linguaggio comune e sostenere “un’adozione più ampia, sicura e affidabile dell’intelligenza artificiale generativa”.
Il mese scorso le Nazioni Unite (ONU) hanno istituito un gruppo consultivo per esaminare come governare l’intelligenza artificiale per mitigare i rischi potenziali, con l’impegno ad adottare un approccio “globalmente inclusivo”. L'organismo comprende attualmente 39 membri e comprende rappresentanti di agenzie governative, organizzazioni private e mondo accademico, come il capo responsabile dell'intelligenza artificiale del governo di Singapore, il segretario di Stato spagnolo per la digitalizzazione e l'intelligenza artificiale e il CTO di OpenAI.