Gli strumenti di intelligenza artificiale generativa sono sempre più potenti, convenienti e accessibili e i cybercriminali li utilizzano ormai in ogni tipologia di attacco, dalle frodi aziendali alle estorsioni e furti di identità. Lo rivela “
Deepfake it ’til You Make It: A Comprehensive View of the New AI Criminal Toolset”, l’ultima ricerca
Trend Micro.
Lo studio illustra la portata e la maturità che hanno raggiunto i deepfake in ambito cybercriminale. Questa minaccia, dopo l’iniziale momento di
hype, è diventata una tattica comune per gli attaccanti, che sono riusciti a mettere in dubbio la fiducia nel mondo digitale, esponendo le aziende a nuovi rischi e accelerando i modelli di business criminali.
Lo studio rivela che i cybercriminali non hanno bisogno di competenze tecniche per lanciare un attacco, ma utilizzano piattaforme che generano video, audio e immagini pronti all’uso. Questi strumenti sono pensati appositamente per creare
deepfake realistici in grado di ingannare aziende e organizzazioni: sono economici, facili da utilizzare e incredibilmente capaci di oltrepassare i sistemi per la verifica delle identità e i controlli di sicurezza.
La ricerca sottolinea come l’ecosistema cybercriminale sia in continua crescita e gli attaccanti, grazie a queste piattaforme, siano in grado di eseguire truffe convincenti:
La truffa del CEO è sempre più difficile da individuare, poiché i malintenzionati utilizzano finti audio o video per impersonare i responsabili aziendali durante meeting in tempo reale
I processi di selezione del personale vengono compromessi da falsi candidati che utilizzano l’AI per superare i colloqui, con l’obiettivo di ottenere accesso ai sistemi aziendali
Le organizzazioni nel settore dei servizi finanziari registrano una crescita di deepfake che provano a oltrepassare la verifica KYC (Know Your Customer), al fine di riciclare denaro attraverso credenziali falsificate e in modalità anonima
Nell’underground cybercriminale
si possono trovare tutorial, toolkit e servizi che aiutano a semplificare queste operazioni, ad esempio manuali che illustrano come aggirare le procedure di onboarding passo dopo passo, o strumenti plug-and-play per lo scambio e la modifica di volti. La barriera all’ingresso dovuta alle competenze tecniche è ormai molto bassa.
Le truffe alimentate dai deepfake sono sempre più frequenti e complesse, le aziende hanno il dovere di organizzarsi proattivamente per ridurre al minimo l’esposizione al rischio e proteggere persone e processi. Una corretta strategia aziendale include percorsi formativi sui rischi di social engineering, la revisione dei processi di autenticazione e soluzioni per il rilevamento di media sintetici.