Le truffe telefoniche basate sull'intelligenza artificiale sembrano davvero spaventose. Fai queste 5 cose per proteggere te stesso e la tua famiglia
I truffatori utilizzano sempre più la tecnologia di clonazione vocale basata sull’intelligenza artificiale per spaventare le persone e indurle a consegnare i propri soldi. Ecco come evitare di diventare la loro prossima vittima.
Potresti aver sentito storie di famiglie che prendono in mano il telefono per ascoltare le voci dei loro cari singhiozzanti e terrorizzati, seguite da quelle dei loro rapitori che chiedono un trasferimento immediato di denaro.
Ma non ci sono rapimenti in questi scenari. Quelle voci sono reali: sono state semplicemente manipolate da truffatori che utilizzano modelli di intelligenza artificiale per generare deepfake (proprio come quando qualcuno ha alterato la voce di Joe Biden alle primarie del New Hampshire per dissuadere gli elettori dal votare). Spesso alle persone basta fare una breve telefonata per dimostrare che nessun figlio, coniuge o genitore è stato rapito, nonostante quanto queste voci siano stranamente autentiche.
Il problema è che, quando la verità verrà fuori, le famiglie in preda al panico potrebbero aver già versato ingenti somme di denaro a questi falsi rapitori. Quel che è peggio è che, man mano che queste tecnologie diventano più economiche e onnipresenti – e i nostri dati diventano più facilmente accessibili – sempre più persone potrebbero diventare sempre più vulnerabili a queste truffe.
Allora come proteggersi da queste truffe?
Come funzionano le truffe telefoniche basate sull'intelligenza artificiale
Innanzitutto, alcuni retroscena: in che modo i truffatori replicano le voci individuali?
Mentre i deepfake video sono molto più complessi da generare, i deepfake audio sono facili da creare, soprattutto per una truffa mordi e fuggi. Se tu o la persona amata avete pubblicato video su YouTube o TikTok, ad esempio, a un truffatore bastano solo tre secondi di registrazione per clonare la tua voce. Una volta ottenuto il clone, i truffatori possono manipolarlo per dire qualsiasi cosa.
OpenAI ha creato un servizio di clonazione vocale chiamato Voice Engine, ma ne ha sospeso l'accesso pubblico a marzo, apparentemente a causa del dimostrato potenziale di uso improprio. Anche così, su GitHub sono già disponibili diversi strumenti gratuiti per la clonazione vocale di varie qualità.
Tuttavia, esistono anche versioni con guardrail di questa tecnologia. Utilizzando la tua voce o quella a cui hai accesso legale, la società di intelligenza artificiale vocale ElevenLabs ti consente di creare 30 minuti di audio clonato da un campione di un minuto. I livelli di abbonamento consentono agli utenti di aggiungere più voci, clonare una voce in una lingua diversa e ottenere più minuti di audio clonato; inoltre, l'azienda dispone di diversi controlli di sicurezza per prevenire la clonazione fraudolenta.
Nelle giuste circostanze, la clonazione della voce AI è utile. ElevenLabs offre una gamma straordinariamente ampia di voci sintetiche provenienti da tutto il mondo e in diverse lingue che puoi utilizzare solo con suggerimenti di testo, il che potrebbe aiutare molti settori a raggiungere più facilmente una varietà di pubblico.
Con il miglioramento dell’intelligenza artificiale vocale, un minor numero di pause irregolari o problemi di latenza potrebbero rendere più difficile individuare i falsi, soprattutto quando i truffatori possono far sembrare che le loro chiamate provengano da un numero legittimo. Ecco cosa puoi fare per proteggerti ora e in futuro.
1. Ignora le chiamate sospette
Può sembrare ovvio, ma il primo passo per evitare le truffe telefoniche basate sull’intelligenza artificiale è ignorare le chiamate provenienti da numeri sconosciuti. Certo, potrebbe essere abbastanza semplice rispondere, determinare che una chiamata è spam e riagganciare, ma rischi di perdere i tuoi dati vocali.
I truffatori possono utilizzare queste chiamate per il phishing vocale o per simulare chiamate specifiche per raccogliere quei pochi secondi di audio necessari per clonare con successo la tua voce. Soprattutto se il numero è irriconoscibile, rifiutatelo senza dire nulla e cercate il numero online. Ciò potrebbe determinare la legittimità del chiamante. Se hai voglia di rispondere per controllare, di' il meno possibile.
Probabilmente sai che non dovresti fidarti di chiunque ti chiami per informazioni personali o relative alla banca. Puoi sempre verificare l'autenticità di una chiamata contattando direttamente l'istituto, tramite telefono o altre linee di comunicazione verificate come SMS, chat di supporto o e-mail.
Per fortuna, la maggior parte dei servizi cellulari ora esamina preventivamente i numeri sconosciuti e li etichetta come potenziale spam, facendo parte del lavoro per te.
2. Chiama i tuoi parenti
Se ricevi una chiamata allarmante che sembra quella di qualcuno che conosci, il modo più rapido e semplice per sfatare una truffa di rapimento tramite intelligenza artificiale è verificare che la persona amata sia al sicuro tramite un SMS o una telefonata. Potrebbe essere difficile da fare se sei in preda al panico o non hai un altro telefono a portata di mano, ma ricorda che puoi inviare un messaggio mentre rimani al telefono con il probabile truffatore.
3. Stabilire una parola in codice
Con i tuoi cari, in particolare i bambini, decidi una parola segreta condivisa da usare se sono nei guai ma non riescono a parlare. Saprai che potrebbe trattarsi di una truffa se ricevi una chiamata sospetta e la tua presunta persona cara non riesce a pronunciare la tua parola in codice.
4. Fai domande
Puoi anche chiedere al truffatore che si spaccia per la persona amata un dettaglio specifico, ad esempio cosa ha mangiato a cena ieri sera, mentre cerchi di contattare la persona amata separatamente. Non muoverti: è probabile che il truffatore getti la spugna e riattacchi.
5. Sii consapevole di ciò che pubblichi
Riduci al minimo la tua impronta digitale sui social media e sui siti disponibili al pubblico. Puoi anche utilizzare filigrane digitali per assicurarti che i tuoi contenuti non possano essere manomessi. Questo non è infallibile, ma è la cosa migliore finché non troviamo un modo per proteggere i metadati dall'alterazione.
Se hai intenzione di caricare clip audio o video su Internet, valuta la possibilità di inserirli tramite Antifake, un software gratuito sviluppato dai ricercatori della Washington University di St. Louis.
Il software, il cui codice sorgente è disponibile su GitHub, infonde all'audio suoni e interruzioni aggiuntivi. Sebbene questi non interrompano il suono dell'altoparlante originale per gli esseri umani, renderanno il suono audio completamente diverso da un sistema di clonazione AI, vanificando così gli sforzi per alterarlo.
6. Non fare affidamento sui rilevatori di deepfake
Diversi servizi, tra cui Pindrop Security, AI or Not e AI Voice Detector, affermano di essere in grado di rilevare l'audio manipolato dall'intelligenza artificiale. Tuttavia, la maggior parte richiede un canone di abbonamento e alcuni esperti non pensano che valga nemmeno la pena. V.S. Subrahmanian, professore di informatica alla Northwestern University, ha testato 14 strumenti di rilevamento disponibili al pubblico. "Oggi non è possibile fare affidamento sui rilevatori di deepfake audio e non posso consigliarne uno da usare", ha detto a Poynter.
"Direi che nessun singolo strumento è ancora considerato completamente affidabile per il grande pubblico per rilevare l'audio deepfake", ha aggiunto Manjeet Rege, direttore del Center for Applied Artificial Intelligence dell'Università di St. Thomas. "Un approccio combinato che utilizza più metodi di rilevamento è ciò che consiglierò in questa fase."
Nel frattempo, gli scienziati informatici hanno lavorato su sistemi di rilevamento dei deepfake migliori, come il DeepFake-O-Meter dell'Università di Buffalo Media Forensic Lab, che sarà lanciato a breve. Fino ad allora, in assenza di un servizio affidabile e disponibile al pubblico, fidati del tuo giudizio e segui i passaggi precedenti per proteggere te stesso e i tuoi cari.