Come Apple, Google e Microsoft possono salvarci dai deepfake dell'intelligenza artificiale
Per combattere la disinformazione guidata dall’intelligenza artificiale, i giganti della tecnologia devono collaborare per adottare questi standard aperti. L'assenza di Apple e X desta preoccupazioni.
L’ascesa dei contenuti generati dall’intelligenza artificiale ha portato sia l’innovazione che la preoccupazione in prima linea nel panorama dei media digitali. Immagini, video e registrazioni vocali iperrealistiche, un tempo opera di designer e ingegneri esperti, possono ora essere create da chiunque abbia accesso a strumenti come DALL-E, Midjourney e Sora. Queste tecnologie hanno democratizzato la creazione di contenuti, consentendo ad artisti, operatori di marketing e hobbisti di ampliare i confini creativi.
Tuttavia, questa accessibilità comporta anche un lato oscuro: disinformazione, furto di identità e frode. Gli autori malintenzionati possono utilizzare questi strumenti per impersonare personaggi pubblici, diffondere notizie false o manipolare il pubblico per guadagni politici o finanziari.
La decisione della Disney di ricreare digitalmente la voce di James Earl Jones per i futuri film di Star Wars è un vivido esempio di come questa tecnologia sia diventata di uso comune. Sebbene ciò dimostri il potenziale dell’intelligenza artificiale nell’intrattenimento, serve anche a ricordare i rischi posti dalla tecnologia di replicazione vocale quando sfruttata per scopi dannosi.
Mentre i contenuti generati dall’intelligenza artificiale confondono il confine tra realtà e manipolazione, i giganti della tecnologia come Google, Apple e Microsoft devono guidare gli sforzi per salvaguardare l’autenticità e l’integrità dei contenuti. La minaccia rappresentata dai deep fake non è ipotetica: è una preoccupazione in rapida crescita che richiede collaborazione, innovazione e standard rigorosi.
Il ruolo di C2PA nell'autenticità dei contenuti
La Coalition for Content Provenance and Authenticity, guidata dalla Linux Foundation, è un organismo di standard aperti che lavora per stabilire la fiducia nei media digitali. Incorporando metadati e filigrane in immagini, video e file audio, la specifica C2PA consente di tracciare e verificare l'origine, la creazione e qualsiasi modifica del contenuto digitale.
Negli ultimi mesi Google ha aumentato significativamente il suo coinvolgimento con C2PA, unendosi al comitato direttivo. Questo passo fa seguito alla decisione di Meta di aderire allo stesso comitato all’inizio di settembre 2024, segnando un aumento significativo nella partecipazione del settore.
Google sta ora integrando le credenziali di contenuto C2PA nei suoi servizi principali, tra cui Ricerca Google, Annunci e, infine, YouTube. Consentendo agli utenti di visualizzare i metadati e identificare se un'immagine è stata creata o modificata utilizzando l'intelligenza artificiale, Google mira a combattere la diffusione di contenuti manipolati su vasta scala.
Microsoft ha inoltre incorporato C2PA nei suoi strumenti di punta, come Designer e CoPilot, garantendo che tutti i contenuti AI creati o modificati rimangano tracciabili. Questo passaggio integra il lavoro di Microsoft su Project Origin, che utilizza firme crittografiche per verificare l'integrità del contenuto digitale, creando un approccio a più livelli alla provenienza.
Sebbene Google e Microsoft abbiano compiuto passi significativi adottando tecnologie di provenienza dei contenuti come C2PA, l'assenza di Apple da queste iniziative solleva preoccupazioni sul suo impegno in questo sforzo fondamentale. Sebbene Apple abbia costantemente dato priorità alla privacy e alla sicurezza in programmi come Apple Intelligence, la sua mancanza di coinvolgimento pubblico nel C2PA o in tecnologie simili lascia un notevole divario nella leadership del settore. Collaborando con Google e Microsoft, Apple potrebbe contribuire a creare un fronte più unito nella lotta contro la disinformazione guidata dall’intelligenza artificiale e rafforzare l’approccio generale all’autenticità dei contenuti.
Altri membri del C2PA
Oltre a Google, Microsoft e Meta, diverse organizzazioni chiave contribuiscono al comitato direttivo C2PA. Anche Adobe e OpenAI si sono uniti al comitato, svolgendo un ruolo fondamentale nel progresso delle tecnologie di provenienza dei contenuti. Adobe, uno dei membri fondatori, integra le credenziali dei contenuti nelle più diffuse applicazioni Creative Cloud, tra cui Photoshop, Lightroom ed Express, garantendo l'autenticità dei contenuti dal punto di creazione. Adobe Firefly, il modello di intelligenza artificiale generativa di Adobe, associa inoltre credenziali di contenuto a tutti gli output generati dall'intelligenza artificiale, migliorando ulteriormente la trasparenza.
OpenAI è diventata membro del comitato direttivo nel maggio 2024 e ha iniziato ad allegare credenziali di contenuto alle immagini generate da DALL·E 3. L'azienda prevede di estendere questa funzionalità agli output video generati dal suo modello testo-video Sora, ampliando la portata dei contenuti provenienza attraverso i tipi di media.
Inoltre, TikTok è entrato a far parte di C2PA come membro generale all’inizio di quest’anno, diventando la prima piattaforma di social media a implementare le credenziali di contenuto. Questo passo pionieristico sottolinea l’impegno di TikTok verso la trasparenza, utilizzando le credenziali per etichettare i contenuti generati dall’intelligenza artificiale sulla sua piattaforma.
Queste organizzazioni e altre come Intel, Arm, Truepic, BBC e Sony rappresentano un ampio spaccato di settori impegnati ad adottare gli standard C2PA e a garantire l’autenticità dei contenuti nell’ecosistema digitale.
Creazione di un ecosistema end-to-end per la verifica dei contenuti
Una panoramica dell'architettura di C2PA
Creazione di un ecosistema end-to-end per la verifica dei contenuti
Per gestire in modo efficace i deepfake e i contenuti generati dall’intelligenza artificiale, è necessario creare un ecosistema end-to-end completo per la verifica dei contenuti. Questo ecosistema abbraccia sistemi operativi, strumenti per la creazione di contenuti, servizi cloud e piattaforme social, garantendo che i media digitali siano verificabili in ogni fase del loro ciclo di vita.
I sistemi operativi come Windows, macOS, iOS, Android e i sistemi integrati per dispositivi e fotocamere IoT devono integrare C2PA come libreria principale. Ciò garantirebbe che qualsiasi file multimediale creato, salvato o modificato su questi sistemi includa automaticamente i metadati, garantendone l’autenticità e impedendo la manipolazione dei contenuti.
Particolarmente importanti sono i sistemi operativi integrati in dispositivi come fotocamere e registratori vocali, che generano grandi volumi di contenuti multimediali. Ad esempio, i filmati di sicurezza o le registrazioni vocali acquisite da questi dispositivi devono essere filigranati per evitare manomissioni. L'integrazione di C2PA garantisce la tracciabilità dei contenuti, indipendentemente dall'applicazione utilizzata.
Le piattaforme per la creazione di contenuti come Adobe Creative Cloud, Microsoft Office e Final Cut Pro devono incorporare gli standard C2PA nei loro servizi. Adobe ha già integrato le credenziali di contenuto in strumenti popolari come Photoshop, Lightroom e Firefly, il suo modello di intelligenza artificiale generativa. Anche gli strumenti open source come GIMP dovrebbero adottare questi standard per promuovere un processo di verifica coerente su piattaforme professionali e amatoriali.
Le piattaforme cloud, tra cui Google Cloud, Azure, AWS, Oracle Cloud e Apple iCloud, devono adottare C2PA per garantire che i contenuti generati dall'intelligenza artificiale e ospitati nel cloud siano tracciabili dal momento in cui vengono creati. Gli strumenti di intelligenza artificiale basati sul cloud generano grandi quantità di media digitali e l’integrazione di C2PA garantirà che queste creazioni siano verificabili durante tutto il loro ciclo di vita.
Gli SDK delle app per dispositivi mobili devono incorporare C2PA come parte delle API principali, garantendo che tutti i contenuti multimediali creati o modificati su smartphone e tablet siano immediatamente contrassegnati e verificabili. Che si tratti di fotografia, editing video o registrazione vocale, le app devono garantire che i contenuti dei propri utenti rimangano autentici e tracciabili.
Ecosistema di social media e app
Le piattaforme di social media come Meta, TikTok, X e YouTube sono tra i maggiori canali di distribuzione di contenuti digitali. Poiché queste piattaforme continuano a integrare funzionalità di intelligenza artificiale generativa, il loro ruolo nella verifica dei contenuti diventa ancora più critico. La vasta scala di contenuti generati dagli utenti e l’aumento della creazione di media basati sull’intelligenza artificiale rendono queste piattaforme fondamentali per garantire l’autenticità dei media digitali.
Sia X che Meta hanno introdotto strumenti GenAI per la generazione di immagini. Grok 2 recentemente rilasciato da xAI consente agli utenti di creare immagini altamente realistiche da istruzioni di testo. Tuttavia, mancano misure di protezione per impedire la creazione di contenuti controversi o fuorvianti, come rappresentazioni realistiche di personaggi pubblici. Questa mancanza di supervisione solleva preoccupazioni sulla capacità di X di gestire la disinformazione, soprattutto data la riluttanza di Elon Musk a implementare una solida moderazione dei contenuti.
Allo stesso modo, lo strumento Imagine with Meta di Meta, basato sul modello di generazione di immagini Emu e Llama 3 AI, incorpora GenAI direttamente in piattaforme come Facebook, WhatsApp, Instagram e Threads. Considerato il predominio di X e Meta nella creazione di contenuti basati sull’intelligenza artificiale, dovrebbero essere ritenuti responsabili dell’implementazione di solidi strumenti di provenienza dei contenuti che garantiscano trasparenza e autenticità.
Nonostante Meta abbia aderito al comitato direttivo C2PA, non ha ancora implementato completamente gli standard C2PA su tutte le sue piattaforme, lasciando lacune nel suo impegno verso l’integrità dei contenuti. Sebbene Meta abbia fatto passi da gigante nell'etichettare le immagini generate dall'intelligenza artificiale con tag "Imagined with AI" e incorporare filigrane e metadati C2PA con contenuti generati sulla sua piattaforma, questo progresso deve ancora estendersi a tutte le sue app, inclusa la fornitura di una catena di provenienza per i contenuti caricati. materiali che sono stati generati o alterati esternamente, indebolendo la capacità di Meta di garantire l'affidabilità dei media condivisi sulle sue piattaforme.
Al contrario, X non si è impegnato in alcun modo con C2PA, creando una vulnerabilità significativa nel più ampio ecosistema di verifica dei contenuti. L'incapacità della piattaforma di adottare standard di verifica dei contenuti e le capacità sfrenate di generazione di immagini di Grok espongono gli utenti a media realistici ma fuorvianti. Questo divario rende X un facile bersaglio per la disinformazione e la disinformazione, poiché gli utenti non dispongono di strumenti per verificare le origini o l’autenticità dei contenuti generati dall’intelligenza artificiale.
TikTok è diventata la prima piattaforma di social media a implementare le credenziali di contenuto C2PA. Nell’ambito del suo impegno per la trasparenza, TikTok ha integrato le credenziali di contenuto per etichettare i media generati dall’intelligenza artificiale sulla sua piattaforma, creando un importante precedente che altre piattaforme seguiranno. In qualità di membro di C2PA, l'adozione anticipata di TikTok segna un passo significativo verso la garanzia dell'autenticità dei contenuti nel panorama dei social media.
Adottando gli standard C2PA, sia Meta che X potrebbero proteggere meglio i propri utenti e l’ecosistema digitale più ampio dai rischi posti dalla manipolazione dei media generata dall’intelligenza artificiale. Senza tali misure, l’assenza di solidi sistemi di verifica dei contenuti lascia lacune critiche nella protezione dalla disinformazione, rendendo più facile per i malintenzionati sfruttare queste piattaforme. Il futuro della creazione di contenuti basata sull’intelligenza artificiale deve includere forti strumenti di provenienza per garantire trasparenza, autenticità e responsabilità.
Presentazione di una blockchain di tracciabilità per le risorse digitali
Una blockchain di tracciabilità può stabilire un sistema a prova di manomissione per il tracciamento delle risorse digitali per migliorare la verifica dei contenuti. Ogni modifica apportata a un supporto viene registrata su un registro blockchain, garantendo trasparenza e sicurezza dalla creazione alla distribuzione. Questo sistema consentirebbe ai creatori di contenuti, alle piattaforme e agli utenti di verificare l’integrità dei media digitali, indipendentemente da quante volte siano stati condivisi o alterati.
- Hash crittografici: a ogni contenuto verrà assegnato un hash crittografico univoco al momento della creazione. Ogni modifica successiva aggiorna l’hash, che viene poi registrato sulla blockchain.
- Registri immutabili: il registro blockchain, gestito dai membri C2PA come Google, Microsoft e altre principali parti interessate, garantirebbe che qualsiasi modifica ai media rimanga visibile e verificabile. Ciò creerebbe una storia permanente e inalterabile del ciclo di vita del contenuto.
- Catena di custodia: ogni modifica a un contenuto verrebbe registrata, formando una catena di custodia ininterrotta. Ciò garantirebbe che, anche se il contenuto viene condiviso, copiato o modificato, la sua autenticità e le sue origini possano sempre essere ricondotte alla fonte.
Combinando gli standard C2PA con la tecnologia blockchain, l’ecosistema digitale otterrebbe una maggiore trasparenza, rendendo più semplice tenere traccia dei media generati e alterati dall’intelligenza artificiale. Questo sistema rappresenterebbe una salvaguardia fondamentale contro i deepfake e la disinformazione, contribuendo a garantire che i contenuti digitali rimangano affidabili e autentici.
Il recente annuncio da parte della Linux Foundation di istituire un'iniziativa di trust decentralizzato, che comprende oltre 100 membri fondatori, rafforza ulteriormente questo modello. Questo sistema creerebbe un quadro per la verifica delle identità digitali su tutte le piattaforme, migliorando gli sforzi di tracciabilità della blockchain e aggiungendo un altro livello di responsabilità consentendo identità digitali sicure e verificabili. Ciò garantirebbe che i creatori, gli editori e i distributori di contenuti siano autenticati durante l’intero ciclo di vita dei contenuti.
Il percorso da seguire per la provenienza dei contenuti
Uno sforzo di collaborazione tra Google, Microsoft e Apple è essenziale per contrastare l’aumento della disinformazione generata dall’intelligenza artificiale. Sebbene Google, Microsoft e Meta abbiano iniziato a integrare gli standard C2PA nei loro servizi, l'assenza di Apple e X in questi sforzi lascia un divario significativo. Il framework della Linux Foundation, che combina tracciabilità blockchain, provenienza dei contenuti C2PA e verifica dell'identità distribuita, offre una soluzione completa per gestire le sfide dei contenuti generati dall'intelligenza artificiale.
Adottando queste tecnologie su tutte le piattaforme, l’industria tecnologica può garantire maggiore trasparenza, sicurezza e responsabilità. L’integrazione di queste soluzioni aiuterà a combattere i deepfake e a mantenere l’integrità dei media digitali, rendendo la collaborazione e gli standard aperti fondamentali per costruire un futuro digitale affidabile.