Ricerca nel sito web

Meta aggiungerà etichette AI a Facebook, Instagram e Threads


Poiché non puoi credere a tutto ciò che vedi nell'era dell'intelligenza artificiale generativa, Meta sta agendo. Ecco cosa aspettarsi.

L’intelligenza artificiale generativa ha reso possibile creare immagini realistiche che sembrano scattate da un essere umano, rendendo più difficile distinguere tra ciò che è reale e ciò che è generato dall’intelligenza artificiale. Di conseguenza, Meta ha annunciato diversi sforzi riguardanti le immagini generate dall’intelligenza artificiale per aiutare a combattere la disinformazione. 

Martedì, Meta ha annunciato tramite un post sul blog che nei prossimi mesi aggiungerà nuove etichette su Instagram, Facebook e Threads che indicheranno quando un'immagine è stata generata dall'intelligenza artificiale. 

Meta sta attualmente collaborando con partner del settore per determinare standard tecnici comuni che segnalino quando il contenuto è stato creato utilizzando l’intelligenza artificiale generativa. Quindi, utilizzando questi segnali, Meta sta costruendo una capacità che emette etichette in tutte le lingue sui post sulle sue piattaforme, delineando che l'immagine è stata generata dall'intelligenza artificiale, come si vede nella foto all'inizio dell'articolo.

"Mentre la differenza tra contenuti umani e sintetici diventa sempre più sfumata, le persone vogliono sapere dove si trova il confine", ha affermato Nick Clegg, presidente degli affari globali di Meta. "Quindi è importante aiutare le persone a sapere quando i contenuti fotorealistici che stanno vedendo sono stati creati utilizzando l'intelligenza artificiale."

Questa etichettatura funzionerebbe in modo simile alle etichette dei contenuti generati dall’intelligenza artificiale di TikTok, rilasciate a settembre, che appaiono sui video TikTok contenenti immagini, audio o video realistici generati dall’intelligenza artificiale. 

Meta include marcatori visibili, filigrane invisibili e metadati IPTC incorporati in ogni immagine generata utilizzando le funzionalità di fotogenerazione di Meta AI. L'azienda quindi etichetta quelle immagini con l'etichetta "Imagined by AI" per indicare che sono state create artificialmente. 

Meta afferma che sta costruendo strumenti leader del settore in grado di rilevare filigrane invisibili, come i metadati IPTC, nelle immagini generate da generatori di intelligenza artificiale di diverse aziende. Questi includono Google, OpenAI, Microsoft, Adobe, Midjourney e Shutterstock, per includere etichette AI anche per quelle immagini. 

Naturalmente, questo lascia una scappatoia per gli attori malintenzionati. Se l'azienda non rispetta l'aggiunta di metadati al suo generatore di immagini AI, Meta non avrà modo di taggare l'immagine con l'etichetta. Tuttavia, sembra essere un passo nella giusta direzione. 

Nonostante gli sforzi delle aziende per includere segnali nelle immagini generate dall’intelligenza artificiale, lo stesso sforzo deve ancora essere fatto per quanto riguarda i video e l’audio generati dall’intelligenza artificiale. Nel frattempo, Meta sta aggiungendo una funzionalità in cui le persone possono rivelare di aver utilizzato l'intelligenza artificiale per generare un'immagine in modo che Meta possa aggiungere un'etichetta. 

L'azienda sta imponendo la divulgazione volontaria minacciando di aggiungere sanzioni se un utente non effettua la divulgazione. L'azienda mantiene inoltre la possibilità di aggiungere un'etichetta più evidente a immagini, audio o video che presentano un rischio particolarmente elevato di ingannare il pubblico. 

"Chiederemo alle persone di utilizzare questo strumento di divulgazione ed etichettatura quando pubblicano contenuti organici con un video fotorealistico o un audio dal suono realistico creato o alterato digitalmente e potremmo applicare sanzioni se non lo fanno", ha aggiunto Clegg. 

Gli sviluppi di questi strumenti arrivano in un momento particolarmente critico con le elezioni all’orizzonte. Creare una disinformazione credibile è più facile che mai e può avere un impatto negativo sull’opinione pubblica dei candidati e ostacolare il processo di voto democratico. Di conseguenza, anche altre società, tra cui OpenAI, hanno adottato misure per implementare i guardrail prima delle elezioni. 

Articoli correlati