Ricerca nel sito web

Meta promette di etichettare meglio video, immagini e audio generati dall'intelligenza artificiale


L’azienda promette di cambiare il modo in cui gestisce i contenuti generati dall’intelligenza artificiale su Facebook, Instagram e Threads, sulla base del feedback del suo comitato di vigilanza indipendente.

A febbraio, Meta ha annunciato l'intenzione di aggiungere nuove etichette su Instagram, Facebook e Threads per indicare quando un'immagine è stata generata dall'intelligenza artificiale. Ora, utilizzando gli standard tecnici creati dall’azienda e dai partner del settore, Meta prevede di applicare le etichette “Made with AI” a video, immagini e clip audio generati dall’intelligenza artificiale, sulla base di determinati segnali condivisi dal settore. (L'azienda aggiunge già un tag "Immaginato con l'intelligenza artificiale" alle immagini fotorealistiche create utilizzando i propri strumenti di intelligenza artificiale.)

In un post sul blog pubblicato venerdì, Meta ha annunciato l'intenzione di iniziare a etichettare i contenuti generati dall'intelligenza artificiale nel maggio 2024 e di interrompere la rimozione automatica di tali contenuti nel luglio 2024. In passato, la società faceva affidamento sulla sua politica sui media manipolati per determinare se l'intelligenza artificiale fosse o meno -le immagini e i video creati devono essere rimossi. Meta ha spiegato che il cambiamento deriva dal feedback del suo comitato di vigilanza, nonché da sondaggi di opinione pubblica e consultazioni con accademici e altri esperti.

"Se stabiliamo che immagini, video o audio creati digitalmente o alterati creano un rischio particolarmente elevato di ingannare materialmente il pubblico su una questione importante, potremmo aggiungere un'etichetta più evidente in modo che le persone abbiano più informazioni e contesto", ha affermato Meta. nel suo post sul blog. "Questo approccio generale fornisce alle persone più informazioni sul contenuto in modo che possano valutarlo meglio e quindi avere un contesto se vedono lo stesso contenuto altrove."

Il comitato di supervisione di Meta, istituito nel 2020 per rivedere le politiche di moderazione dei contenuti dell'azienda, ha rilevato che l'attuale approccio di moderazione dell'intelligenza artificiale di Meta è troppo ristretto. Scritta nel 2020, quando i contenuti generati dall'intelligenza artificiale erano relativamente rari, la politica copriva solo i video creati o modificati dall'intelligenza artificiale per far sembrare che una persona avesse detto qualcosa che non aveva detto. Considerati i recenti progressi nell’intelligenza artificiale generativa, il consiglio ha affermato che la politica ora deve coprire anche qualsiasi tipo di manipolazione che mostri qualcuno che fa qualcosa che non ha fatto.

Inoltre, il consiglio sostiene che la rimozione dei media manipolati dall’intelligenza artificiale che non violano altrimenti gli standard comunitari di Meta potrebbe limitare la libertà di espressione. Pertanto, il consiglio ha raccomandato un approccio meno restrittivo in cui Meta avrebbe etichettato i media come generati dall’intelligenza artificiale ma avrebbe comunque consentito agli utenti di visualizzarli.

Meta e altre società hanno dovuto affrontare lamentele secondo cui l'industria non ha fatto abbastanza per reprimere la diffusione di notizie false. L’uso di media manipolati è particolarmente preoccupante poiché gli Stati Uniti e molti altri paesi stanno organizzando le elezioni del 2024 per le quali i video e le immagini dei candidati possono essere facilmente falsificati.

"Vogliamo aiutare le persone a sapere quando le immagini fotorealistiche sono state create o modificate utilizzando l'intelligenza artificiale, quindi continueremo a collaborare con colleghi del settore attraverso forum come Partnership on AI e resteremo in dialogo con i governi e la società civile - e lo faremo continuare a rivedere il nostro approccio man mano che la tecnologia avanza", ha aggiunto Meta nel suo post.

Articoli correlati