La tecnica del deepfake,
e gli strumenti per contrastarla
Dopo l’articolo di benvenuto pubblicato ieri, oggi inauguro una serie di news a carattere divulgativo sull’informatica, iniziando da un argomento, pericolosamente sottovalutato in Italia e che riguarda i deepfake.
Da diversi anni il fenomeno del deepfake, con il quale l’intelligenza artificiale genera video falsi, si è diffuso nel web, propagandosi attraverso i canali social, fino a rappresentare una minaccia seria a livello mondiale, per chi cade nel mirino di malintenzionati pronti a screditare chiunque; fra le potenziali vittime, infatti, sono comprese sia persone comuni, sia personalità illustri dello spettacolo e della politica.
Nel 2018, ad esempio, su YouTube circolava un deepfake in cui il volto del presidente argentino Mauricio Macri, all’epoca in carica, venne sostituito con quello di Adolf Hitler, e in un altro video veniva mostrata l’ex cancelliera tedesca Angela Merkel mentre teneva un discorso, con il volto di Donald Trump.
Fra i casi eclatanti recenti, è emersa una dura critica verso il modello Sora 2 di OpenAI, sfruttato dagli utenti negli Stati Uniti e in Canada, per creare filmati con personaggi famosi deceduti, come l’attore Robin Williams e l’attivista Martin Luther King.
Le famiglie di entrambi hanno ufficialmente chiesto ad OpenAi di integrare nuove misure di sicurezza nel suo software per evitare agli utenti di generare altri video simili.
I deepfake sono pericolosi anche per le aziende, poiché comportano rischi di perdite finanziarie significative, oltre a danni alla reputazione; basti, ad esempio, pensare alla facilità con cui software di AI generativa permettono a criminali di creare video falsi con lo scopo di diffondere disinformazione e allarmismo ingiustificato sui pericoli alla salute prodotti di una determinata azienda.
Ed ecco cosi che lo spionaggio industriale trova nel deepfake un valido supporto: un’occasione troppo ghiotta per le cosiddette “Cyber mafie”, che non intendono certo lasciarsi scappare l’opportunità di fare guadagni in modo illecito.
Data la gravità del problema, in Italia è stata emanata una legge apposita, recante disposizioni e deleghe al Governo in materia di intelligenza artificiale; si tratta della Legge 23 settembre 2025, n. 132, con la quale è stato introdotto un nuovo reato per «chiunque cagiona un danno ingiusto ad una persona, […] diffondendo, senza il suo consenso, immagini, video o voci falsificati o alterati mediante l’impiego di sistemi di intelligenza artificiale e idonei a indurre in inganno sulla loro genuinità». In base all’Art. 26 della suddetta legge, la pena prevista per chi commette il nuovo reato è la reclusione da 2 a 6 anni.
Nonostante le misure legislative adottate, per quanto riguarda l’entità del pericolo rappresentato dai deepfake, si assiste, purtroppo, ad una situazione di scarsa conoscenza nel Bel paese.
Secondo gli studi condotti dalla società multinazionale di ricerche di mercato IPSOS, infatti, i dati sulla conoscenza del tema in Italia sono desolanti: il 38% della popolazione con conosce il fenomeno del deepfake, il 21% ne ha sentito parlare ma non ne ha una percezione reale e chiara, e solo il 41% dichiara di aver ben chiaro il contesto dell’entità del pericolo.
Ben diversa per contro, è la consapevolezza del problema nel mondo delle imprese: il 64% lo conosce, il 26% ne ha una vaga idea, il 10% non ne ha mai sentito parlare.
In questo contesto, sia i consumatori sia le imprese per il 70% sono preoccupati di incorrere in un fenomeno di Deepfake che li riguardi direttamente. L’indagine evidenzia inoltre come siano soprattutto le persone anziane, quelle con un basso grado di istruzione, poco informate e i giovani i target maggiormente a rischio di cadere vittime di un Deepfake.
Tre grandi aziende globali su quattro ritengono le fake news un rischio concreto per il loro business dal momento che le notizie false e la disinformazione rappresentano una minaccia concreta per le aziende.
Fonte – Deepfake: consapevolezza e preoccupazione in crescita a livello globale [IPOS].
Anche, e soprattutto, per questo motivo, ho deciso di pubblicare questo articolo dedicato alla tecnica di creazione di video falsi con l’intelligenza artificiale, allo scopo di mettere in guardia gli utenti del web, e a fornire, nelle note finali, consigli utili per poterli riconoscere.
Cosa è esattamente il Deepfake?
Per potere fornire una definizione chiara ed esaustiva del deepfake, occorre necessariamente introdurre i concetti del Machine Learning, e del Deep Learning.
Il Machine Learning
Senza entrare troppo nei dettagli tecnici, il machine learning (ML) è un “sottoinsieme” dell’intelligenza artificiale che permette ai sistemi di AI di apprendere e migliorare automaticamente dall’esperienza, senza essere programmati esplicitamente per ogni compito. Utilizza algoritmi per analizzare grandi quantità di dati, identificare schemi, fare previsioni e prendere decisioni consapevoli che diventano più accurate nel tempo con l’aumento dei dati di addestramento.
Esempio di applicazione di Intelligenza Artificiale: in un museo un ologramma con le sembianze di Leonardo Da Vinci, descrive le invenzioni dell’inventore al pubblico.
Il Deep Learning
Il deep learning, a sua volta, è un sottoinsieme del machine learning; mentre il machine learning tradizionale spesso richiede che i dati vengano pre-elaborati manualmente dall’uomo, il deep learning automatizza questo processo, estraendo le caratteristiche rilevanti dai dati grezzi.
Il funzionamento del deep learning si basa sull’utilizzo di reti neurali con molteplici strati per analizzare dati e apprendere da essi, proprio come fa il cervello umano.
Il termine Depp Learning (traducibile come “Apprendimento Profondo”) trae origine proprio dall’analisi in profondità di questi “strati di informazione”.
Questa tecnologia consente ai computer di riconoscere modelli complessi in dati non strutturati come immagini, testo e suoni per fare previsioni accurate e svolgere compiti che imitano le capacità umane. Le applicazioni pratiche includono il riconoscimento vocale, il riconoscimento di immagini, le traduzioni automatiche ed anche i sistemi di raccomandazione, cioè algoritmi che analizzano i dati degli utenti come comportamento passato, acquisti e interazioni, per suggerire contenuti, prodotti o servizi personalizzati (un esempio di applicazione è la piattaforma Netflix che suggerisce all’utente quali film vedere in base a quelli già visti).
La definizione di Deepfake
Fatta questa introduzione si può definire meglio in cosa consiste il deepfake: è un contenuto multimediale (formato cioè da video, audio o immagini) falso, ma incredibilmente realistico, creato utilizzando l’intelligenza artificiale e, in particolare, la tecnica del deep learning.
Volendo fare una semplificazione, si può affermare che il deepfake è il prodotto malevolo del deep learning.
La creazione di un deepfake sfrutta reti neurali avanzate che analizzano un’enorme quantità di dati (immagini, video e audio) di una persona reale, distribuiti, come è già stato detto, su più strati (ad esempio uno strato per la pelle del viso, uno per la muscolatura facciale, un altro ancora per gli occhi e suoi movimenti ecc.).
Il sistema impara a replicare le espressioni facciali, i movimenti del corpo e le sfumature della voce della persona, per poi applicarle a un altro contenuto. Ad esempio, può sostituire il volto di un attore in un video con quello di un politico, facendogli dire cose che non ha mai pronunciato.
Il nuovo sistema sviluppato da YouTube
per rilevare i deepfake
Risale a pochi giorni fa, l’annuncio di YouTube di uno strumento per rilevare i video “deepfake”; il lancio della nuova funzionalità, il cui sviluppo è stato reso noto già l’anno scorso, sarà disponibile ai membri del programma partner del colosso informatico, allo scopo di riconoscere i video generati dall’intelligenza artificiale non autorizzati, cioè falsi.
YoTube, parte del gruppo Alphabet, la stessa casa madre di Google, definisce la nuova funzionalità, come “likeness detection”, ovvero un sistema che rileva le somiglianze dei volti umani.
Grazie a questo sistema gli utenti del programma Partner di YouTube avranno la possibilità di segnalare i casi in cui il volto di un individuo è stato utilizzato, o modificato dall’intelligenza artificiale, senza il suo consenso, per realizzare un nuovo video.
Gli esempi di possibili segnalazioni possono riguardare diversi scenari, come la creazione di video in cui un utente sembra sostenere un candidato politico, o che egli partecipi ad uno spot pubblicitario che promuove un prodotto: tutti casi in cui l’utente è del tutto estraneo, e pertanto può usare il nuovo tool di YouTube per segnalare il deepfake.
Il sistema di riconoscimento dei video non autorizzati sembra quindi dare una risposta efficace al contrasto di questa pratica, ampiamente diffusa per scopi illeciti.
Il funzionamento del sistema di rilevamento dei deepfake, sviluppato da YouTube, è molto semplice, sebbene sia articolato in diverse fasi; innanzitutto viene chiesto agli utenti di inviare un documento e un breve video selfie per verificare la loro identità, successivamente si potrà richiedere di analizzare l’autenticità di un filmato pubblicato, ed infine, in caso di violazione, il contenuto oggetto della verifica sarà rimosso.
A livello tecnico il funzionamento è simile a quello utilizzato dal sistema automatizzato “content ID”, sviluppato sempre da YouTube, che identifica e gestisce l’audio e il video protetti da copyright.
Questo sistema permette ai titolari di copyright di caricare i loro contenuti come brani musicali o filmati nel database di YouTube, in modo da servire come file di riferimento; quando qualcuno li utilizza in un video, applica automaticamente delle regole, come bloccare i contenuti, oppure monetizzare o tracciare il video.
Anche in questo caso il sistema “content ID” effettua dei confronti fra i video caricati con questi file di riferimento per rilevare le corrispondenze.
Come riconoscere un deepfake?
Man mano che la tecnologia migliora, i deepfake diventano sempre più difficili da individuare, pertanto è spontaneo, ed anche legittimo chiedersi “come distinguere un video vero da uno falso?”.
Può essere utile a tale scopo, prestare molta attenzione ad alcuni segnali che possono permettere di individuare delle anomalie in alcuni video, come le incoerenze visive che includono: sfarfallii, illuminazione anomala, volti asimmetrici o espressioni facciali poco naturali.
Anche i movimenti innaturali del corpo, come gli occhi che non sbattono o la bocca che non si sincronizza perfettamente con il parlato, possono mostrare indizi che sollevano dubbi sull’autenticità del video.
Altri indizi potrebbero emergere dalla non corrispondenza fra audio e video, per cui bisogna controllare che la voce e l’immagine siano congruenti. Se l’audio sembra strano, ad esempio con toni piatti o innaturali, potrebbe trattarsi di un deepfake.
Per chi desidera un controllo più accurato, può utilizzare software di rilevamento di deepfake. Esistono, infatti, strumenti basati sull’AI che possono aiutare a identificare i deepfake, come estensioni per browser e applicazioni specializzate che offrono sia piani gratuiti che a pagamento.
È doveroso evidenziare che tali strumenti anche nella versione a pagamento, non sono sempre affidabili al 100%, sia per la rapidità con la quale si evolve la tecnologia legata ai deepfake, sia a delle limitazioni intrinseche come il funzionamento solo su piattaforme specifiche e non su altre (ad esempio potrebbero funzionare su sistemi Microsoft ma non su macOS), oppure perché rilevano anomalie solo su frame singoli ma non su video, ed altre limitazioni; oltre a ciò bisogna naturalmente valutare il rapporto fra qualità e prezzo per comprendere se si tratta di una spesa conveniente.
Infine,ma non certo per importanza, si consiglia di verificare sempre la fonte dei contenuti video, e pertanto bisogna analizzare la provenienza e l’affidabilità della fonte che lo ha pubblicato.
Con quest’ultima considerazione termina la trattazione dell’argomento; sperando di avere suscitato il vostro interesse, non mi resta che darvi appuntamento per venerdì, 31 ottobre, con un nuovo articolo.
A presto, e occhio ai deepfake!
