L’utilizzo di tecnologie avanzate come ChatGPT e applicazioni simili ha aperto la porta a un fenomeno in rapida crescita nel campo della sicurezza informatica: il social engineering. Questa pratica manipolativa sfrutta l’intelligenza artificiale per creare testi di email, SMS o landing page che sembrano autentici, privi di errori linguistici e in grado di ingannare anche gli utenti più attenti.
L’aumento del cybercrime legato all’uso diffuso delle tecnologie di autoapprendimento a basso costo è stato confermato da un recente studio condotto dall’agenzia UE Europol e da un report realizzato da Darktrace Research. Queste indagini hanno rivelato un vero e proprio boom degli attacchi di social engineering (+135%) durante i mesi in cui ChatGPT ha guadagnato popolarità, sfruttando gli automatismi dell’AI generativa.
Fattori di rischio
I tre principali fattori di rischio per la sicurezza dei dati legati all’uso massivo dell’AI generativa sono quindi:
- Landing page fasulle: Si stanno moltiplicando i siti web che sfruttano l’interesse attorno all’AI generativa e a ChatGPT. Questi siti sembrano autentici, con domini simili a quelli delle pagine ufficiali, ma sono progettati per rubare credenziali di registrazione e informazioni personali o finanziarie.
- Spear phishing: Gli attacchi di spear phishing sono personalizzati e basati sulle informazioni che gli utenti condividono online tramite account social o navigazione web. La produzione rapida di contenuti di alta qualità, privi di errori che solitamente generano sospetto, consente ai criminali di realizzare campagne di smishing (SMS phishing) o diffondere malware tramite annunci pubblicitari a basso costo, ma altamente efficaci. L’uso di ChatGPT viene utilizzata dagli hacker per automatizzare la personalizzazione di ogni comunicazione, rendendo gli attacchi ancora più difficili da riconoscere ed evitare.
- Furto di dati sensibili: Fornendo dati economici, nomi di partner commerciali o codici di programmazione, gli algoritmi possono estrarre informazioni critiche per le aziende, come dati sui brevetti.
Inoltre, l’AI generativa come ChatGPT è strumento ideale per la creazione e diffusione su larga scala di fake news, disinformazione e propaganda, grazie alla sua velocità e precisione nella scrittura di testi.
Come difendersi
A causa di queste nuove minacce, alcune aziende hanno iniziato a vietare o limitare l’uso di servizi come ChatGPT e strumenti AI simili, citando la preoccupazione di violazioni di brevetti e segreti aziendali.
Per difendersi da queste minacce, gli esperti di sicurezza suggeriscono di adottare le seguenti precauzioni:
- Essere cauti nell’esaminare messaggi inattesi: I truffatori utilizzano strumenti AI per creare messaggi automatici e inviarli a migliaia di persone contemporaneamente. Prima di rispondere a un messaggio inatteso o di cliccare su un link, è importante verificare l’autenticità del mittente e del messaggio stesso.
- Verificare sempre la fonte: Le truffe basate sull’AI spesso includono marchi e loghi simili a quelli originali, rendendoli difficilmente distinguibili. È fondamentale controllare attentamente il nome del dominio del sito web, l’indirizzo email del mittente e le informazioni di contatto dell’azienda per accertarsi della loro legittimità.
- Gestire con attenzione le informazioni personali: Evitare di fornire password o informazioni di pagamento in risposta a messaggi di posta elettronica, SMS o telefonate.
Le minacce legate all’AI generativa richiedono una maggiore consapevolezza e una vigilanza costante da parte degli utenti. Solo attraverso precauzioni e attenzione potremo mitigare gli effetti dannosi del social engineering e proteggere i nostri dati sensibili.
Se stai cercando una consulenza in materia di cybersecurity per proteggere la tua azienda, non esitare a metterti in contatto con noi all’indirizzo tech@millergroup.it. Saremo lieti di offrirti il nostro supporto.