Ricerca nel sito web

Pensi di poter individuare una notizia falsa generata dall'intelligenza artificiale? Rispondi a questo quiz per scoprirlo


Circa il 47% delle persone intervistate da Netskope ritiene che una notizia falsa creata dall’intelligenza artificiale sia reale. Puoi fare di meglio?

Hai notato una notizia su Internet con il titolo "Una svolta rivoluzionaria afferma che l'intelligenza artificiale può ora prevedere con precisione il tempo con 2 mesi di anticipo". Sembra intrigante. Ma è vero? Uhm, non necessariamente.

Capire quali informazioni trovi online siano vere e quali false è sempre stato impegnativo. Ma l’intelligenza artificiale ha trasformato questo compito in un compito ancora più complicato. Un recente sondaggio condotto dal fornitore di sicurezza informatica Netskope ha rilevato che molte persone non sono in grado di distinguere tra notizie vere e quelle inventate dall’intelligenza artificiale.

Come test, Netskope ha mostrato a 1.000 persone negli Stati Uniti e a 500 nel Regno Unito una notizia falsa sull’intelligenza artificiale accanto a una vera. Circa l’84% degli intervistati nel Regno Unito si è vantato di essere abile nell’individuare una storia falsa, ma la metà di loro ha scelto la storia falsa come vera. E negli Stati Uniti, l’88% si sentiva sicuro di poter individuare una storia falsa, ma il 44% di loro pensava che la storia generata dall’intelligenza artificiale fosse legittima.

Per vedere come te la caveresti nel riconoscere una storia falsa basata sull'intelligenza artificiale rispetto a una vera, Netskope ti invita a rispondere al suo quiz sulle notizie false. Qui ti vengono presentate 12 storie diverse e ti viene chiesto di indovinare se pensi che ciascuna sia falsa o legittima.

Le persone intervistate da Netskope hanno affermato di utilizzare i social media e di essere interessate alle notizie. È stato chiesto di individuare il servizio più affidabile per le notizie, i giornali e i tabloid più nominati. Ma le piattaforme basate su video come TikTok e Snapchat sono arrivate al secondo posto.

Nell’ambito della sua ricerca, Netskope ha anche esaminato le notizie e le foto false più diffuse del 2023 sulla base di opinioni social, coinvolgimento e altri fattori per determinarne l’impatto. L'elemento principale era un'immagine di Papa Francesco che indossava un piumino bianco oversize. Sebbene la foto fosse falsa, ha collezionato più di 20 milioni di visualizzazioni sui social media ed è stata evidenziata da più di 300 pubblicazioni sui media.

Un altro elemento generato dall'intelligenza artificiale che ha guadagnato terreno è stata l'immagine di Donald Trump arrestato a Washington DC lo scorso marzo. Sebbene Trump si sia trovato nei guai con la legge in diverse occasioni, questa immagine è stata creata utilizzando il generatore di immagini AI Midjourney. Sebbene fosse falsa, la foto ha ottenuto più di 10 milioni di visualizzazioni su Twitter (ora X) ed è stata coperta da 671 pubblicazioni di notizie.

Queste foto fasulle mostrano quanto possa essere facile ingannare le persone con immagini ingannevoli. Utilizzando strumenti come Midjourney e DALL-E, praticamente chiunque può creare un'immagine così realistica da poter non solo ingannare la persona media, ma anche ingannare editori di notizie e professionisti che altrimenti sarebbero più esigenti.

E ora sempre più strumenti di intelligenza artificiale sono in grado di generare video falsi. Alcuni di quelli fasulli evidenziati da Netskope per il 2023 includevano uno di Hillary Clinton che appoggiava il repubblicano Ron DeSantis alla presidenza e un altro di Elon Musk che pubblicizzava i benefici del consumo di un commestibile alla cannabis.

Una volta che una notizia o una foto falsa è stata promossa online, identificarla come fasulla può richiedere del tempo. In media, la maggior parte di questi elementi impiegavano circa sei giorni per essere individuati e confutati. Ma un video modificato dall’intelligenza artificiale di Bill Gates che termina un’intervista con la giornalista di ABC News Sarah Ferguson su domande sul suo coinvolgimento nella distribuzione del vaccino COVID-19 ha impiegato ben 15 giorni per essere etichettato come falso.

Per aiutare le persone a distinguere meglio il reale da quello falso, Netskope offre i seguenti suggerimenti e trucchi:

Per le notizie

  • Prova a trovare la fonte originale della storia. Se vedi una storia che fa affermazioni insolite o stravaganti, controlla la fonte. Potresti essere in grado di scoprire da dove ha avuto origine scansionando i social media. Se si tratta di un'immagine, esegui una ricerca inversa delle immagini utilizzando Google Reverse Image Search, TinEye o Yandex.

Per storie basate su immagini

  • Ingrandisci l'immagine per verificare la presenza di errori. L'ingrandimento dell'immagine può rivelare dettagli imprecisi o di scarsa qualità, indicando un possibile coinvolgimento dell'IA.
  • Controlla le proporzioni dell'immagine. Le immagini generate dall’intelligenza artificiale spesso sbagliano con le proporzioni di mani, dita, denti, orecchie, occhiali e altre parti e oggetti del corpo.
  • Esamina lo sfondo. Con immagini false o alterate, lo sfondo è spesso distorto, ripetuto o comunque privo di dettagli.
  • Verifica la presenza di imperfezioni. Nelle immagini AI, le caratteristiche che normalmente sarebbero dettagliate o addirittura approssimative sono spesso fluide e perfette. Pelle, capelli, denti e volti spesso sembrano troppo impeccabili per essere reali.
  • Scansiona i dettagli. Le incoerenze nelle immagini possono spesso indicare la falsità dell’intelligenza artificiale. Forse il colore degli occhi della persona non corrisponde nelle diverse immagini o il modello cambia da un'immagine all'altra.

Per storie basate su video

  • Controlla le dimensioni del video. I video più piccoli e con una risoluzione inferiore a quella che dovrebbero essere a volte sono un segno della generazione dell'intelligenza artificiale.
  • Guarda eventuali sottotitoli. Con i video fasulli, i sottotitoli sono spesso posizionati in modo da coprire i volti, quindi è più difficile vedere che l'audio non corrisponde ai movimenti delle labbra.
  • Verifica la presenza di forme delle labbra disallineate. Le forme delle labbra disallineate sono un altro segno di manipolazione dell'IA, soprattutto se l'area giuntata è visibile vicino al centro della bocca.

Articoli correlati