OpenAI e Anthropic collaboreranno con il governo degli Stati Uniti sulla sicurezza dell'IA
Mentre la popolarità dell’intelligenza artificiale generativa aumenta vertiginosamente, le misure politiche e di sicurezza stanno cercando di tenere il passo.
Esistono molti motivi per nutrire dubbi sulla sicurezza dell'intelligenza artificiale generativa (generativa AI): il modo in cui raccoglie e utilizza i dati di addestramento, la protezione incoerente degli utenti da contenuti dannosi, potenziali allucinazioni, diffusione di disinformazione e altro ancora. Una nuova partnership tra il governo degli Stati Uniti e le principali aziende di intelligenza artificiale cerca di affrontare questi problemi.
Giovedì, l'Istituto statunitense per la sicurezza dell'intelligenza artificiale presso il National Institute of Standards and Technology (NIST) del Dipartimento del commercio degli Stati Uniti ha annunciato accordi con Anthropic e OpenAI per collaborare formalmente su ricerca, test e valutazione.
"Con questi accordi in vigore, non vediamo l'ora di iniziare le nostre collaborazioni tecniche con Anthropic e OpenAI per far avanzare la scienza della sicurezza dell'IA", ha affermato Elizabeth Kelly, direttrice dell'AI Safety Institute statunitense, nel comunicato. "Questi accordi sono solo l'inizio, ma rappresentano una pietra miliare importante mentre lavoriamo per aiutare a gestire in modo responsabile il futuro dell'intelligenza artificiale".
Entrambe le società hanno concordato di concedere all’Istituto statunitense per la sicurezza AI l’accesso ai principali nuovi modelli prima e dopo il rilascio pubblico in modo che possa valutare e mitigare i rischi.
Secondo il comunicato, l’AI Safety Institute statunitense lavorerà anche con i suoi partner dell’AI Safety Institute del Regno Unito per fornire alle aziende feedback sui potenziali miglioramenti in termini di sicurezza. Gli Stati Uniti e il Regno Unito hanno già collaborato sulla sicurezza dell'intelligenza artificiale, collaborando a maggio per sviluppare test di sicurezza per i modelli di intelligenza artificiale.
Sia Anthropic che OpenAI sono i principali leader nella corsa all'intelligenza artificiale, responsabili della creazione di alcuni dei più popolari modelli linguistici di grandi dimensioni (LLM) e chatbot disponibili. GPT-4o di OpenAI, il LLM dietro ChatGPT, è attualmente al primo posto nella Chatbot Arena, mentre Claude 3.5 Sonnet di Anthropic è al sesto posto nella categoria generale.
OpenAI ha compiuto sforzi per aumentare la trasparenza dei suoi modelli, più recentemente rilasciando una scheda di sistema GPT-4o, un rapporto approfondito che delinea la sicurezza del LLM sulla base delle valutazioni dei rischi di OpenAI, del red-teaming esterno e altro ancora.