Attenzione: l’intelligenza artificiale generativa aumenterà il livello degli attacchi informatici, secondo il nuovo rapporto di Google
Con l’intelligenza artificiale generativa, gli attacchi informatici diventeranno molto più intelligenti. Ecco cosa aspettarsi.
Man mano che la tecnologia diventa più intelligente con sviluppi come l’intelligenza artificiale generativa, lo stesso accade con gli attacchi alla sicurezza informatica. Le nuove previsioni sulla sicurezza informatica di Google rivelano che l’ascesa dell’intelligenza artificiale porta con sé nuove minacce di cui dovresti essere a conoscenza.
Mercoledì, Google ha lanciato il suo Google Cloud Cybersecurity Forecast 2024, un rapporto realizzato grazie alla collaborazione con numerosi team di sicurezza di Google Cloud che approfondisce il panorama informatico per il prossimo anno.
Il rapporto ha rilevato che l’intelligenza artificiale generativa e i modelli linguistici di grandi dimensioni (LLM) verranno utilizzati in vari attacchi informatici come phishing, SMS e altre operazioni di ingegneria sociale con lo scopo di far apparire più legittimi contenuti e materiali, come voce e video.
Ad esempio, i segnali evidenti di attacchi di phishing come errori di ortografia, errori grammaticali e mancanza di contesto culturale saranno più difficili da individuare quando viene impiegata l’intelligenza artificiale generativa poiché fa un ottimo lavoro nell’imitare il linguaggio naturale.
In altri casi, gli aggressori possono alimentare un contenuto legittimo LLM e generare una versione modificata che si adatta agli obiettivi dell'aggressore ma mantiene lo stesso stile dell'input originale.
Il rapporto prevede inoltre come verranno sviluppati sempre più i LLM e altri strumenti di intelligenza artificiale generativa offerti come servizio a pagamento per aiutare gli aggressori a implementare i loro attacchi in modo più efficiente e con meno sforzi.
Tuttavia, l'intelligenza artificiale o i LLM dannosi non saranno nemmeno del tutto necessari poiché l'utilizzo dell'intelligenza artificiale generativa per creare contenuti, come la stesura di un sollecito di fattura, non è di per sé dannoso, ma può essere sfruttato dagli aggressori per prendere di mira le vittime per i propri obiettivi.
Ad esempio, ZDNET ha già spiegato in che modo i truffatori utilizzano l'intelligenza artificiale per impersonare le voci di familiari o amici che hanno bisogno di truffare loro denaro.
Un’altra potenziale minaccia dell’intelligenza artificiale generativa include le operazioni di informazione. Semplicemente utilizzando i suggerimenti dell’intelligenza artificiale, gli aggressori possono utilizzare modelli di intelligenza artificiale generativa per creare notizie false, telefonate false e foto e video deepfake.
Secondo il rapporto, queste operazioni potrebbero entrare nel ciclo delle notizie mainstream. La scalabilità di queste operazioni potrebbe ridurre la fiducia del pubblico nelle notizie e nelle informazioni online, al punto che tutti diventeranno più scettici o smetteranno di fidarsi delle notizie che consumano.
"Ciò potrebbe rendere sempre più difficile per le imprese e i governi interagire con il proprio pubblico nel prossimo futuro", afferma il rapporto.
Sebbene gli aggressori utilizzino l’intelligenza artificiale per rendere i loro attacchi più forti, i difensori informatici possono anche sfruttare la tecnologia per contrastare con difese più avanzate.
"L'intelligenza artificiale sta già fornendo un enorme vantaggio ai nostri difensori informatici, consentendo loro di migliorare le capacità, ridurre la fatica e proteggersi meglio dalle minacce", ha affermato Phil Venables, CISO, Google Cloud on AI. “Ci aspettiamo che queste capacità e vantaggi aumentino nel 2024 poiché i difensori possiedono la tecnologia e quindi ne dirigono lo sviluppo tenendo presente casi d’uso specifici”.
Alcuni casi d’uso dell’IA generativa per i difensori includono il suo sfruttamento per sintetizzare grandi quantità di dati, produrre rilevamenti utilizzabili e agire a una velocità più rapida.