Deepfake, conclusi 2 progetti UE: nuovi strumenti per smascherare immagini, video e voci false

Con FF4ALL i ricercatori del Politecnico analizzano come vengono generati immagini e video sintetici, con FUN-Media studiano invece i deepfake vocali, minaccia emergente e ancora poco conosciuta

Conclusi 2 importanti progetti europei dedicati alla lotta contro i deepfake – i contenuti digitali manipolati o generati artificialmente – e allo sviluppo di tecnologie per limitarne la diffusione: FF4ALL e FUN-Media. Un contributo centrale è arrivato dal Politecnico di Milano, attraverso l’Image and Sound Processing Lab (ISPL), sostenuto anche da fondi PNRR. Nel progetto FF4ALL, i ricercatori hanno indagato i fenomeni emergenti legati alla creazione di immagini e video sintetici sempre più realistici. Parallelamente, FUN-Media ha affrontato una delle minacce più insidiose del momento: i deepfake vocali, capaci di imitare con precisione crescente le voci umane. I risultati segnano un passo avanti nello sviluppo di strumenti affidabili per la tutela dell’informazione digitale e la sicurezza degli utenti.

Tecnologie sempre più sofisticate

Da anni l’ISPL, attivo nel Dipartimento di Elettronica, Informazione e Bioingegneria, lavora su tecniche avanzate di analisi forense multimediale. Le attività sono coordinate dai professori Stefano Tubaro e Paolo Bestagini, con il contributo dei ricercatori Sara Mandelli e Luca Comanducci. Nel contesto di FF4ALL, il team ha analizzato le tecniche con cui immagini reali vengono trasformate in versioni sintetiche difficili da distinguere dagli originali. Questo processo, oltre a rendere più complessa la verifica dell’autenticità, tende a cancellare le tracce utili alle analisi forensi.

Per contrastare il fenomeno, sono stati sviluppati nuovi strumenti per individuare volti artificiali, basati sulla combinazione di dati geometrici tridimensionali e caratteristiche strutturali del volto. Questi modelli migliorano la capacità di riconoscere i falsi anche dopo modifiche come compressione o editing.

Un altro fronte riguarda la trasparenza degli algoritmi. “Comprendere su quali elementi basino le proprie decisioni è infatti cruciale per aumentarne l’affidabilità“, spiega Tubaro. I ricercatori hanno quindi sviluppato tecniche per evidenziare le aree del volto più rilevanti nella classificazione, rendendo più interpretabili i modelli di intelligenza artificiale. Tra i risultati, anche la creazione del dataset WILD, una raccolta di immagini generate da venti modelli di ultima generazione, utile per identificare le tecnologie utilizzate nella sintesi dei contenuti.

La sfida dei deepfake vocali

Con FUN-Media, l’attenzione si è spostata sull’audio. Il laboratorio ha progettato nuove architetture basate sui modelli “Mixture of Experts“, capaci di combinare più sistemi specializzati per migliorare l’individuazione dei falsi, anche quando vengono utilizzate tecniche mai viste durante l’addestramento. Un altro approccio innovativo si basa sul rilevamento delle anomalie: i modelli vengono addestrati solo su voci autentiche e imparano a riconoscere le deviazioni tipiche dei contenuti sintetici.

Non solo rilevazione, ma anche attribuzione. “Accanto alla rilevazione, il progetto ha affrontato anche il problema dell’attribuzione, ovvero l’identificazione della tecnologia generativa responsabile della creazione di un contenuto audio“, sottolinea Bestagini. I sistemi sviluppati sono in grado di stabilire se 2 tracce vocali provengano dallo stesso modello artificiale, oltre ad analizzare nel dettaglio il segnale vocale fino al livello dei fonemi.

Un rischio crescente per l’informazione

Il lavoro dei 2 progetti si inserisce in un contesto in rapida evoluzione. I progressi dell’intelligenza artificiale generativa stanno rivoluzionando la produzione e la diffusione di contenuti digitali, offrendo nuove opportunità ma anche rischi significativi. La possibilità di creare immagini, video e voci estremamente realistici rende più semplice impersonare individui e diffondere contenuti falsi credibili. Le conseguenze riguardano non solo la disinformazione, ma anche la sicurezza, con un aumento dei casi di social engineering e manipolazione su larga scala. In questo scenario, strumenti sempre più sofisticati per il riconoscimento dei deepfake diventano essenziali per preservare l’affidabilità dell’ecosistema informativo digitale.