L’ultima ricerca Trend Micro rivela come i cybercriminali utilizzino piattaforme e strumenti basati sull’intelligenza artificiale per lanciare attacchi pronti all’uso.
Autore: Redazione BitCity
Pubblicato il: 28/07/2025
Gli strumenti di intelligenza artificiale generativa sono sempre più potenti, convenienti e accessibili e i cybercriminali li utilizzano ormai in ogni tipologia di attacco, dalle frodi aziendali alle estorsioni e furti di identità. Lo rivela “Deepfake it ’til You Make It: A Comprehensive View of the New AI Criminal Toolset”, l’ultima ricerca Trend Micro.
Lo studio illustra la portata e la maturità che hanno raggiunto i deepfake in ambito cybercriminale. Questa minaccia, dopo l’iniziale momento di hype, è diventata una tattica comune per gli attaccanti, che sono riusciti a mettere in dubbio la fiducia nel mondo digitale, esponendo le aziende a nuovi rischi e accelerando i modelli di business criminali.
Lo studio rivela che i cybercriminali non hanno bisogno di competenze tecniche per lanciare un attacco, ma utilizzano piattaforme che generano video, audio e immagini pronti all’uso. Questi strumenti sono pensati appositamente per creare deepfake realistici in grado di ingannare aziende e organizzazioni: sono economici, facili da utilizzare e incredibilmente capaci di oltrepassare i sistemi per la verifica delle identità e i controlli di sicurezza.
La ricerca sottolinea come l’ecosistema cybercriminale sia in continua crescita e gli attaccanti, grazie a queste piattaforme, siano in grado di eseguire truffe convincenti:
Nell’underground cybercriminale si possono trovare tutorial, toolkit e servizi che aiutano a semplificare queste operazioni, ad esempio manuali che illustrano come aggirare le procedure di onboarding passo dopo passo, o strumenti plug-and-play per lo scambio e la modifica di volti. La barriera all’ingresso dovuta alle competenze tecniche è ormai molto bassa.
Le truffe alimentate dai deepfake sono sempre più frequenti e complesse, le aziende hanno il dovere di organizzarsi proattivamente per ridurre al minimo l’esposizione al rischio e proteggere persone e processi. Una corretta strategia aziendale include percorsi formativi sui rischi di social engineering, la revisione dei processi di autenticazione e soluzioni per il rilevamento di media sintetici.