- Home
- Caffè scientifico
- Vero o falso? Come l’AI smaschera le immagini sintetiche

Vero o falso? Come l’AI smaschera le immagini sintetiche
| Luisa Verdoliva | Caffè scientifico
Distinguere tra ciò che è reale e ciò che è sintetico sta diventando una sfida cruciale per la sicurezza digitale, con l’avanzare delle tecnologie di intelligenza artificiale generativa.
Ma quali sono i progressi, i limiti e le prospettive delle tecniche per riconoscere e attribuire le immagini sintetiche?
L’ascesa delle tecnologie di intelligenza artificiale generativa ha trasformato radicalmente la creazione di immagini e video digitali, portando il realismo a livelli mai raggiunti prima. Se da un lato tali innovazioni aprono nuove prospettive per settori come il cinema, la pubblicità e l’arte, dall’altro pongono rischi significativi legati all’uso improprio di contenuti manipolati. La crescente facilità con cui è possibile creare immagini e video falsi rende indispensabile sviluppare strumenti e tecniche per il loro riconoscimento.
L’AI generativa comprende una serie di tecniche che consentono la creazione automatica di contenuti digitali, come immagini, video, audio e testo, utilizzando modelli matematici. Tra le tecnologie principali in questo ambito ci sono le reti generative avversarie (GAN) e i modelli di diffusione (DM). Le GAN funzionano grazie a due reti neurali che si sfidano tra loro: una genera immagini sintetiche, mentre l’altra cerca di distinguere quelle reali da quelle create artificialmente. Questo processo di “competizione” consente un miglioramento continuo della qualità delle immagini generate. I modelli di diffusione (DM), invece, agiscono come una forma di “rumore controllato”, trasformando gradualmente un’immagine di rumore puro in un’immagine finale di alta qualità. Questi progressi hanno reso possibile la generazione di immagini ad alta risoluzione a partire da semplici descrizioni testuali, amplificando le possibilità creative e la flessibilità nella produzione di contenuti digitali.
Tuttavia, questa capacità di creare immagini così realistiche comporta anche rischi significativi. Con l’accesso a software gratuiti e facili da usare, chiunque, anche un utente privo di competenze specifiche, può generare contenuti visivi falsificati. Queste immagini possono essere impiegate per scopi illeciti, come manipolare l’opinione pubblica, commettere frodi o diffondere disinformazione, con gravi conseguenze politiche, sociali ed economiche.
La sfida della ricerca: analisi dell’autenticità e identificazione della provenienza
Studi recenti hanno dimostrato che gli esseri umani non sono in grado di distinguere in modo affidabile tra le immagini reali e quelle generate artificialmente: l’accuratezza media è solo del 50% per osservatori non addestrati e del 60% per quelli addestrati. La ricerca si concentra sulla creazione di strumenti automatici per il riconoscimento dei deepfake, perseguendo due obiettivi leggermente diversi: l’analisi dell’autenticità e l’identificazione della provenienza. Il primo obiettivo si concentra sul determinare la probabilità che un’immagine sia sintetica, fornendo un “punteggio di integrità”: più è alto, più è verosimile che l’immagine sia stata generata artificialmente. L’identificazione della provenienza, invece, si concentra sul riconoscimento dello specifico modello di intelligenza artificiale impiegato per generare l’immagine.
Gli studi dimostrano che le persone non sono in grado di riconoscere immagini reali da quelle false. L’accuratezza media è solo del 50%
Uno degli approcci più usati per rilevare contenuti manipolati o generati artificialmente si basa sull’analisi degli artefatti forensi, ossia delle tracce lasciate dal processo di generazione, che possono essere utilizzate per identificare la natura sintetica di un’immagine. Questi artefatti possono essere di alto livello, come asimmetrie nei volti, incongruenze nelle ombre o nella prospettiva, o di basso livello, come anomalie nel rumore digitale o nei pattern di compressione. In passato, gli artefatti visibili erano sufficienti per rilevare contenuti falsificati, ma con l’evoluzione delle tecniche di AI, molte di queste anomalie sono state eliminate, rendendo più difficile il riconoscimento visivo.
Un’altra tecnica si basa sull’uso del PRNU, una sorta di impronta digitale che ogni fotocamera lascia nelle immagini che scatta. Questa firma è causata da piccole imperfezioni nel sensore di acquisizione ed è unica per ogni singola fotocamera, per cui può essere utilizzata per capire se un’immagine proviene da una fotocamera specifica. Quando un’immagine viene modificata, questa “impronta” cambia, e quindi è possibile rilevare una possibile manipolazione.
Con l’accesso a software gratuiti e facili da usare, chiunque, anche un utente privo di competenze specifiche, può generare contenuti visivi falsificati
Nonostante i notevoli progressi nel riconoscimento delle immagini sintetiche, i metodi attuali presentano ancora diversi limiti. In primo luogo, la robustezza dei classificatori rappresenta un punto fondamentale. Gli strumenti devono essere infatti in grado di resistere a manipolazioni, come la compressione delle immagini, che potrebbero ridurre le tracce di falsificazione. Inoltre, la generalizzazione dei metodi è un altro problema critico. I classificatori addestrati su un particolare tipo di generatore di immagini spesso non funzionano altrettanto bene con nuovi generatori che utilizzano tecniche diverse, riducendone così l’efficacia.
Per risolvere questi limiti, è importante che nella fase di addestramento si includano esempi di immagini provenienti da generatori molto diversi e che il classificatore si possa facilmente adattare a contesti vari in modo da aumentarne la robustezza. Un approccio promettente è l’utilizzo di metodi multimodali, che combinano analisi di immagini, video e audio per aumentare la precisione dei classificatori. Ad esempio, l’uso simultaneo di immagini e audio può essere utile per identificare i deepfake video, che sono diventati una minaccia crescente grazie alla loro capacità di ingannare gli spettatori.
Le implicazioni di sicurezza e le direzioni future
Un approccio promettente è l’utilizzo di metodi multimodali che combinano analisi di immagini, video e audio per aumentare la precisione dei classificatori
I progressi nell’AI generativa pongono sfide significative per la sicurezza informatica. Le minacce derivanti dall’uso illecito dei contenuti sintetici richiedono strumenti sempre più sofisticati per proteggere l’integrità delle informazioni. Un’area di ricerca promettente è l’identificazione della provenienza delle immagini sintetiche, che consente di risalire al modello di AI utilizzato. Infatti, ogni modello lascia un’impronta digitale, un pattern unico che può essere usato per tracciare la provenienza dell’immagine. Tuttavia, questi metodi devono affrontare diverse sfide, come il fatto che nuovi modelli generativi vengono proposti ogni giorno oppure la presenza di possibili attacchi avversari, come l’inserimento di rumore artificiale nell’immagine allo scopo di ingannare il classificatore.
È bene osservare che l’integrazione di tecniche come l’analisi biometrica e i modelli linguistici pre-addestrati può contribuire a distinguere meglio i contenuti reali da quelli falsificati, ma richiede aggiornamenti continui per rimanere efficaci.
La ricerca in corso nel campo dell’analisi dell’autenticità delle immagini sintetiche è cruciale per garantire una protezione adeguata contro l’uso improprio di questi contenuti e per promuovere un utilizzo consapevole delle tecnologie AI.
La collaborazione tra ricercatori, istituzioni e aziende sarà fondamentale per affrontare le sfide future e garantire che queste tecnologie vengano utilizzate in modo sicuro e responsabile.
Luisa Verdoliva è professoressa ordinaria presso l’Università Federico II di Napoli, dove insegna “Elaborazione di Segnali Multimediali” e “Image and Video Processing for Autonomous Driving”.
La sua attività di ricerca riguarda l’elaborazione di segnali, e in particolare la rivelazione e localizzazione di contraffazioni in immagini e video.
Guarda il webinar "Synthetic Media Verification in the Era of Generative AI" a cura di Luisa Verdoliva in occasione del Cyber Security Month 2024 - video su youtube
Dai un voto da 1 a 5, ne terremo conto per scrivere i prossimi articoli.
Voto attuale:
Valutazione attuale: 5 / 5
Ultimi articoli in rubrica
-
di Erika Trotto
-
di Luisa Verdoliva
-
di Elis Bertazzon
-
di Franco Niccolucci
-
di Valeria Panebianco, Martina Pecoraro, Simone Novelli