Il volto mutevole dei deepfake: dalla tecnologia alle minacce contemporanee

Il volto mutevole dei deepfake: dalla tecnologia alle minacce contemporanee

Introduzione: comprendere i deepfake nel 2026

I deepfake sono diventati uno dei fenomeni più preoccupanti nel panorama della sicurezza digitale e della privacy. Si tratta di contenuti digitali—video, foto o audio—che vengono alterati attraverso tecniche avanzate di intelligenza artificiale per sembrare autentici pur essendo completamente artificiali o manipolati. Il termine nasce dalla fusione di “deep learning” (apprendimento profondo) e “fake” (falso), riflettendo esattamente il processo tecnologico sottostante.

La vera minaccia dei deepfake non risiede in un semplice fotoritocco, ma nella capacità di creare scenari in cui le persone possono apparire mentre pronunciano frasi mai dette o compiono azioni mai fatte. Questo rappresenta un rischio concreto per individui, organizzazioni e il tessuto informativo della società.

Cosa sono i deepfake e come funzionano

Un deepfake è una forma elaborata di media sintetico che utilizza l’intelligenza artificiale e l’apprendimento automatico per creare o manipolare contenuti in modo convincente. A partire da contenuti reali—immagini, video e audio—gli algoritmi riescono a modificare o ricreare in modo estremamente realistico le caratteristiche e i movimenti di un volto, di un corpo, e a imitare fedelmente una determinata voce.

Il processo di creazione segue generalmente questi passaggi fondamentali:

  • Raccolta dei dati: vengono raccolti contenuti multimediali (immagini, video o audio) della persona interessata. Questa raccolta è essenziale per addestrare il programma informatico.
  • Addestramento dell’algoritmo: l’intelligenza artificiale impara a replicare movimenti, espressioni e suoni reali sulla base dei dati raccolti.
  • Raffinazione: tecniche come i punti di riferimento del viso e l’acquisizione del movimento vengono utilizzate per rendere naturale il deepfake, con espressioni e movimenti realistici.
  • Generazione del contenuto: il volto o la voce vengono sovrapposti su altri video o audio, producendo il deepfake finale.

I rischi e le applicazioni malevole

I deepfake rappresentano una minaccia multiforme per la sicurezza e la privacy. Un attacco deepfake è una truffa dannosa che utilizza contenuti audio, video o visivi generati dall’IA per impersonare una persona reale con l’intento di manipolare, frodare o causare danni.

Nel contesto della sicurezza informatica, gli attacchi deepfake sono spesso utilizzati per aggirare i controlli basati sulla fiducia, sfruttando la percezione umana piuttosto che le vulnerabilità tecniche. I criminali informatici sfruttano questa tecnologia per scopi illeciti:

  • Frodi d’identità: impersonare persone reali per accedere a conti bancari, dati sensibili o informazioni personali.
  • Attacchi di ingegneria sociale: convincere le vittime a rivelare informazioni confidenziali o effettuare trasferimenti finanziari.
  • Campagne di disinformazione: creare contenuti falsi per influenzare l’opinione pubblica, screditare personalità politiche o pubbliche.
  • Spionaggio industriale: ottenere informazioni riservate da organizzazioni e concorrenti.
  • Sfruttamento sessuale: creare contenuti intimi falsi di persone senza il loro consenso.

Le celebrità rimangono i maggiori soggetti di video falsi, ma il fenomeno si sta estendendo a persone comuni, professionisti e figure pubbliche di ogni genere.

Il contesto normativo italiano

Il legislatore italiano ha riconosciuto la gravità della minaccia rappresentata dai deepfake. Con la legge 23 settembre 2025, n. 132 (entrata in vigore il 10 ottobre 2025), è stato introdotto un nuovo reato specifico che sanziona chiunque cagioni un danno ingiusto a una persona diffondendo, senza il suo consenso, immagini, video o voci falsificati o alterati mediante l’impiego di sistemi di intelligenza artificiale e idonei a indurre in inganno sulla loro genuinità.

Questa normativa rappresenta un passo importante nella protezione dei diritti individuali e della privacy nel contesto della tecnologia AI, riconoscendo che il danno non è meramente tecnico ma profondamente personale e sociale.

Riconoscere i deepfake: segnali di allerta

Sebbene i deepfake stiano diventando sempre più sofisticati e difficili da distinguere dai media legittimi, esistono ancora alcuni indicatori che possono aiutare a identificarli:

  • Anomalie nei movimenti del viso: espressioni innaturali, sincronizzazione labiale imperfetta o movimenti degli occhi strani.
  • Incoerenze nell’illuminazione: l’illuminazione del volto non corrisponde a quella dello sfondo.
  • Artefatti visivi: distorsioni, sfocature o bordi irregolari attorno al volto.
  • Qualità audio sospetta: voce sintetizzata con intonazione innaturale o leggeri ritardi nella sincronizzazione.
  • Contesto improbabile: il contenuto mostra la persona in situazioni altamente insolite o contraddittorie rispetto al suo comportamento noto.

Tuttavia, è importante sottolineare che con l’evoluzione della tecnologia, questi indicatori stanno diventando sempre meno affidabili.

L’evoluzione della ricerca accademica

La ricerca accademica relativa ai deepfake si trova prevalentemente nel campo della visione artificiale, un ramo dell’informatica che si concentra sull’elaborazione al computer di immagini e video digitali. Un primo progetto di riferimento storico fu il “Video Rewrite”, pubblicato nel 1997, che modificava un video esistente di una persona che parla, raffigurando quella persona in modo che sembrasse stesse pronunciando parole appartenenti a una traccia audio differente da quella originale.

Nel corso degli anni, la ricerca ha accelerato significativamente. Nell’agosto 2018, i ricercatori dell’Università della California – Berkeley pubblicarono un articolo introducendo una “fake-dancing app”, la quale creava abilità di danza false utilizzando l’IA, dimostrando come la tecnologia potesse essere applicata a diversi ambiti oltre la manipolazione facciale.

Technical Deep Dive: architetture e algoritmi

Il cuore della maggior parte dei sistemi di deepfake è una Rete Generativa Avversaria (GAN). In una GAN, due sistemi di IA competono tra loro in un processo di retroalimentazione continua:

  • Il generatore: crea contenuti falsi sulla base dei dati di addestramento.
  • Il discriminatore: cerca di rilevare se il contenuto è reale o falso, fornendo feedback al generatore.

Questi due sistemi si sfidano e migliorano a vicenda iterativamente. Il generatore crea falsi sempre più convincenti grazie al feedback del discriminatore, mentre il discriminatore diventa sempre più sofisticato nel rilevare falsificazioni. Questo processo competitivo continua fino al raggiungimento di un equilibrio in cui i contenuti generati sono estremamente difficili da distinguere dai media legittimi.

I deepfake sfruttano inoltre tecnologie avanzate complementari:

  • Algoritmi di riconoscimento facciale: per identificare e mappare le caratteristiche facciali della persona target.
  • Reti neurali artificiali: per l’elaborazione e la trasformazione dei dati visivi.
  • Autoencoder variazionali (VAE): per la compressione e la ricostruzione di rappresentazioni latenti dei volti.
  • Face swapping: la sostituzione diretta di volti nei video, sincronizzando il labiale con l’audio.

Il software di deepfake moderno spesso utilizza framework di machine learning come TensorFlow di Google, la stessa struttura IA che era stata precedentemente utilizzata per il programma DeepDream, dimostrando come le tecnologie sviluppate per scopi legittimi possono essere adattate a usi potenzialmente dannosi.

La sfida per i ricercatori di sicurezza consiste nello sviluppare tecniche di rilevamento che rimangono efficaci mentre gli algoritmi generativi continuano a evolversi. Questo rappresenta una corsa agli armamenti tecnologica tra chi crea deepfake sempre più sofisticati e chi sviluppa strumenti per rilevarli e contrastarli.

Fonte: https://thecyberwire.com/podcasts/hacking-humans/379/notes

Torna in alto