top of page

Come riconoscere un deepfake in 3 mosse (Senza essere un esperto di intelligenza artificiale).

  • Immagine del redattore: Andrea Tenna
    Andrea Tenna
  • 1 giorno fa
  • Tempo di lettura: 4 min

Per creare questo esempio ho scelto un'immagine di Tom Cruise da Commons Wikimedia (U.S. Navy, foto di William Bennett IV) e ho utilizzato Nano Banana 2 per creare le due versioni Fake. Il prompt che ho usato: "Il soggetto guarda in camera sorridendo, mantieni lo stesso look".
Per creare questo esempio ho scelto un'immagine di Tom Cruise da Commons Wikimedia (U.S. Navy, foto di William Bennett IV) e ho utilizzato Nano Banana 2 per creare le due versioni Fake. Il prompt che ho usato: "Il soggetto guarda in camera sorridendo, mantieni lo stesso look".

Nel capitolo dedicato al Deepfake ho scritto di Resemble AI, FakeCatcher di Intel e degli strumenti che stanno nascendo per rilevare i contenuti sintetici. Ma la tecnologia di detection è ancora fuori dalla portata della maggior parte delle persone. Quello che invece è già alla portata di tutti è un metodo: un modo di guardare i contenuti digitali con occhi diversi.

Non si tratta di diventare esperti di pixel. Si tratta di sviluppare un'abitudine mentale. Quella che i fact-checker chiamano "sano scetticismo attivo"  -  non paranoia, ma attenzione consapevole.


Ecco tre passi concreti.


MOSSA 1  -  Fermati prima di condividere

Il deepfake non funziona perché è perfetto. Funziona perché sei di fretta.

La stragrande maggioranza dei contenuti falsi che circolano sui social non supererebbe un esame di cinque secondi. Ma quei cinque secondi non li dedichiamo mai, perché scrolliamo veloci, reagiamo d'istinto, condividiamo per primi. È esattamente su questo che contano chi produce disinformazione.

La prima regola è quindi la più semplice e la più difficile: fermati. Prima di reagire, prima di condividere, prima di credere  -  fermati.

Chiediti: da dove viene questo video? Chi lo ha pubblicato per primo? In che contesto è stato registrato? Se non riesci a rispondere a nessuna di queste domande in trenta secondi, è già un segnale.



MOSSA 2  -  Guarda quello che l'IA fatica ancora a fare bene

I modelli generativi sono straordinari su molte cose. Ma hanno ancora dei punti deboli riconoscibili, se sai dove guardare.

Gli occhi. Nei deepfake video il battito delle palpebre è spesso irregolare  -  troppo lento, troppo veloce, o assente. Gli occhi tendono ad avere un aspetto leggermente vitreo, come se la luce non rimbalzasse nel modo giusto.

I bordi del volto. Guarda la linea tra il viso e i capelli, o tra il viso e il collo. Nei deepfake questa transizione è spesso leggermente sfumata, inconsistente, o cambia impercettibilmente da un fotogramma all'altro.

Le mani. Sono ancora il tallone d'Achille dell'IA generativa. Dita in numero sbagliato, giunture anomale, movimenti che non corrispondono a quello che la persona sta facendo. Se nel video le mani sono nascoste o fuori campo per quasi tutta la durata, vale la pena chiedersi perché.

La sincronia labiale. Nei video doppiati o manipolati a livello audio, le labbra non sempre corrispondono perfettamente alle parole. Non è sempre evidente, ma con un po' di attenzione  -  specialmente sulle consonanti esplosive come p, b, m  -  si nota.

Nessuno di questi segnali è definitivo da solo. Ma se ne vedi due o tre insieme, hai già buone ragioni per dubitare.


MOSSA 3  -  Usa gli strumenti che esistono già

La buona notizia è che non devi fare tutto da solo.

Resemble AI ha rilasciato un'estensione gratuita per Chrome che analizza in un click qualsiasi contenuto su Instagram, TikTok, YouTube, Reddit e X. Il risultato è un semaforo: verde per il contenuto autentico, rosso per quello generato dall'IA, giallo per i casi incerti. Non è infallibile, ma è un punto di partenza accessibile a chiunque. Se sei su X e vuoi verificare un video sospetto, puoi taggare @resemble_detect con la frase "is this fake?" e ricevere l'analisi direttamente nel thread.

Google Fact Check Tools aggrega le verifiche dei principali fact-checker mondiali. Se un video sta circolando come notizia, è probabile che qualcuno lo abbia già esaminato.

La ricerca inversa per immagini  -  disponibile su Google Images e su TinEye  -  permette di capire da dove viene un'immagine, quando è apparsa per la prima volta online e in quali altri contesti è stata usata. Spesso basta questo per smontare un falso.


Per creare questo Video Fake sono partito dall'immagine generata con Nano Bana 2 e utilizzato Veo 3.1 per l'animazione e lo speech. Il prompt che ho usato: "Il soggetto guarda in camera e sorridendo dice: "Buongiorno, come potete vedere non sono reale ma un esempio di deepfake. Incredibile non è vero?" Non aggiungere scritte, testi o sottotitoli". La voce che ne risultava ovviamente non era quella che conosciamo in Italia dell'attore e doppiatore Roberto Chevalier. Ho campionato quindi la sua voce utilizzando una clip dal trailer Mission Impossibile e con Eleven Labs l'ho campionata e creato lo stesso speech con la voce di Chevalier. Infine ho utilizzato Rapid Lipsync per far corrispondere la nuova voce con il video.

Una nota finale

Ho scritto nel libro che la corsa tra chi genera deepfake e chi li rileva è già in pieno svolgimento. Per ora i detector tengono il passo. Ma la vera difesa non è tecnologica  -  è culturale.

Un deepfake ben fatto può ingannare chiunque, almeno per qualche secondo. Il punto non è essere infallibili. È non essere distratti. È ricordarsi che in un'epoca in cui qualsiasi immagine può essere generata, la verità non è più qualcosa che vediamo. È qualcosa che decidiamo di verificare.

E quella scelta  -  fermarsi, guardare, controllare  -  è ancora irriducibilmente umana.



Questo post approfondisce i temi del Capitolo 22  -  "Il Deepfake nel Documentario"  -  del libro L'Algoritmo nei Popcorn.

 
 
 

Commenti


bottom of page