▾ G11 Media: | ChannelCity | ImpresaCity | SecurityOpenLab | Italian Channel Awards | Italian Project Awards | Italian Security Awards | ...
Homepage > Notizia

Politecnico di Milano e sicurezza digitale: nuove armi contro l'inganno dei deepfake

Conclusi i progetti europei FF4ALL e FUN-Media: i ricercatori milanesi sviluppano tecnologie d'avanguardia per smascherare video, immagini e voci sintetiche.

Autore: Redazione BitCity

Pubblicato il: 06/05/2026

Il Politecnico di Milano segna un punto decisivo nella lotta alla disinformazione e al crimine informatico grazie ai risultati dei progetti di ricerca europei FF4ALL e FUN-Media. Coordinati dall'Image and Sound Processing Lab (ISPL), i ricercatori hanno sviluppato strumenti innovativi per identificare i contenuti digitali manipolati, la cui proliferazione minaccia oggi l’integrità dell’informazione globale. Sotto la guida dei professori Stefano Tubaro e Paolo Bestagini, e grazie ai fondi del PNRR, il team ha affrontato la sfida dei deepfake su due fronti critici: quello visivo, analizzando video e immagini sintetiche, e quello uditivo, concentrandosi sulla crescente minaccia dei falsi vocali.

Nell'ambito del progetto FF4ALL, l'attenzione si è focalizzata sull'ingegneria dei volti sintetici. I ricercatori hanno messo a punto sistemi di rilevamento che combinano geometria tridimensionale e caratteristiche strutturali del viso, riuscendo a scovare manipolazioni anche quando mascherate da compressioni o editing successivi. Un pilastro fondamentale della ricerca è stato rendere questi sistemi più trasparenti: attraverso tecniche di analisi dei processi decisionali dell'IA, è ora possibile capire esattamente su quali dettagli del volto il software basi la sua classificazione. A supporto della comunità scientifica internazionale, è stato inoltre creato il dataset WILD, una raccolta di immagini false generate dai più recenti modelli di intelligenza artificiale, utile per tracciare l'origine delle tecnologie generative.

Il progetto FUN-Media ha invece affrontato il complesso campo della biometria vocale. Per contrastare i deepfake audio, l'ISPL ha introdotto architetture basate sui modelli Mixture of Experts, capaci di adattarsi anche a tecniche di sintesi vocale mai incontrate prima. Un approccio complementare ha previsto l'addestramento di modelli basati esclusivamente su voci autentiche: in questo modo, il sistema impara a riconoscere la naturalezza del parlato umano e identifica come falso tutto ciò che presenta anche una minima anomalia rispetto al segnale reale. Questi traguardi rappresentano un passo fondamentale per la tutela degli utenti e la protezione dei dati in un ecosistema mediatico dove il confine tra realtà e finzione è sempre più sottile.



Se questo articolo ti è piaciuto e vuoi rimanere sempre informato con le notizie di BitCity.it iscriviti alla nostra Newsletter gratuita.

Tag:

Notizie che potrebbero interessarti: