Il boom del social engineering: nuove minacce e difese necessarie

L’utilizzo di tecnologie avanzate come ChatGPT e applicazioni simili ha aperto la porta a un fenomeno in rapida crescita nel campo della sicurezza informatica: il social engineering. Questa pratica manipolativa sfrutta l’intelligenza artificiale per creare testi di email, SMS o landing page che sembrano autentici, privi di errori linguistici e in grado di ingannare anche gli utenti più attenti.

L’aumento del cybercrime legato all’uso diffuso delle tecnologie di autoapprendimento a basso costo è stato confermato da un recente studio condotto dall’agenzia UE Europol e da un report realizzato da Darktrace Research. Queste indagini hanno rivelato un vero e proprio boom degli attacchi di social engineering (+135%) durante i mesi in cui ChatGPT ha guadagnato popolarità, sfruttando gli automatismi dell’AI generativa.

 

Fattori di rischio

I tre principali fattori di rischio per la sicurezza dei dati legati all’uso massivo dell’AI generativa sono quindi:

  • Landing page fasulle: Si stanno moltiplicando i siti web che sfruttano l’interesse attorno all’AI generativa e a ChatGPT. Questi siti sembrano autentici, con domini simili a quelli delle pagine ufficiali, ma sono progettati per rubare credenziali di registrazione e informazioni personali o finanziarie.
  • Spear phishing: Gli attacchi di spear phishing sono personalizzati e basati sulle informazioni che gli utenti condividono online tramite account social o navigazione web. La produzione rapida di contenuti di alta qualità, privi di errori che solitamente generano sospetto, consente ai criminali di realizzare campagne di smishing (SMS phishing) o diffondere malware tramite annunci pubblicitari a basso costo, ma altamente efficaci. L’uso di ChatGPT viene utilizzata dagli hacker per automatizzare la personalizzazione di ogni comunicazione, rendendo gli attacchi ancora più difficili da riconoscere ed evitare.
  • Furto di dati sensibili: Fornendo dati economici, nomi di partner commerciali o codici di programmazione, gli algoritmi possono estrarre informazioni critiche per le aziende, come dati sui brevetti.

Inoltre, l’AI generativa come ChatGPT è strumento ideale per la creazione e diffusione su larga scala di fake news, disinformazione e propaganda, grazie alla sua velocità e precisione nella scrittura di testi.

 

Come difendersi

A causa di queste nuove minacce, alcune aziende hanno iniziato a vietare o limitare l’uso di servizi come ChatGPT e strumenti AI simili, citando la preoccupazione di violazioni di brevetti e segreti aziendali.

Per difendersi da queste minacce, gli esperti di sicurezza suggeriscono di adottare le seguenti precauzioni:

  • Essere cauti nell’esaminare messaggi inattesi: I truffatori utilizzano strumenti AI per creare messaggi automatici e inviarli a migliaia di persone contemporaneamente. Prima di rispondere a un messaggio inatteso o di cliccare su un link, è importante verificare l’autenticità del mittente e del messaggio stesso.
  • Verificare sempre la fonte: Le truffe basate sull’AI spesso includono marchi e loghi simili a quelli originali, rendendoli difficilmente distinguibili. È fondamentale controllare attentamente il nome del dominio del sito web, l’indirizzo email del mittente e le informazioni di contatto dell’azienda per accertarsi della loro legittimità.
  • Gestire con attenzione le informazioni personali: Evitare di fornire password o informazioni di pagamento in risposta a messaggi di posta elettronica, SMS o telefonate.

Le minacce legate all’AI generativa richiedono una maggiore consapevolezza e una vigilanza costante da parte degli utenti. Solo attraverso precauzioni e attenzione potremo mitigare gli effetti dannosi del social engineering e proteggere i nostri dati sensibili.

 

Se stai cercando una consulenza in materia di cybersecurity per proteggere la tua azienda, non esitare a metterti in contatto con noi all’indirizzo tech@millergroup.it. Saremo lieti di offrirti il nostro supporto.

Condividi l'articolo

Condividi l'articolo

SUPPORTO ALLE IMPRESE

COME POSSIAMO ESSERTI D'AIUTO?

Inviaci un'email