Il progresso dell’intelligenza artificiale corre veloce e, sempre più spesso, varca confini che fino a ieri sembravano appartenere alla fantascienza. Tra questi, uno dei più inquietanti riguarda la possibilità di sostituire il volto di una persona in tempo reale, aprendo scenari che spaziano dalla creatività digitale fino alle truffe più sofisticate. La domanda, quindi, non è più se sia possibile rubare l’identità visiva di qualcuno, ma quanto facilmente questo possa avvenire.
Un software che sconvolge il web
Negli ultimi mesi un programma chiamato Deep Live Cam è diventato virale, conquistando l’attenzione di social network e community online. La sua caratteristica principale è impressionante: a partire da una singola immagine, riesce a ricreare il volto di una persona e a “indossarlo” in diretta su una webcam. Non solo: l’algoritmo mantiene la coerenza con espressioni facciali, illuminazione e movimenti, generando un effetto di realismo che, seppur non perfetto, è già sufficiente per confondere lo spettatore medio.
Il progetto, attivo dalla fine del 2023, ha visto un’impennata di popolarità grazie a video virali che mostravano celebrità come Elon Musk, George Clooney o Mark Zuckerberg animate dal software. Su GitHub, Deep Live Cam è rapidamente salito ai vertici dei progetti più seguiti, complice anche la sua disponibilità gratuita e l’interfaccia intuitiva, che lo rende accessibile persino a chi non possiede competenze tecniche avanzate.
Dietro il programma si nasconde un lavoro di integrazione tra diversi moduli di IA: da inswapper per lo scambio dei volti, a GFPGAN per il miglioramento dell’immagine e la correzione di artefatti. Il risultato è una tecnologia potente, compatibile con CPU standard, GPU NVIDIA e Apple Silicon, che mette nelle mani di chiunque uno strumento fino a pochi anni fa riservato a laboratori di ricerca e professionisti del settore.
Il confine sottile tra innovazione e frode
Se da un lato Deep Live Cam apre opportunità creative – nel cinema, nei videogiochi o nei contenuti digitali – dall’altro rivela un lato oscuro. Oggi, con un computer domestico e una foto presa da un social network, è possibile impersonare un’altra persona in videochiamata o in streaming.
Gli esempi concreti non mancano. A Hong Kong, un gruppo di truffatori è riuscito a sottrarre oltre 25 milioni di dollari impersonando in video il CFO di un’azienda durante una call con i colleghi. Se a questo tipo di frodi si somma la clonazione vocale e l’uso di LLM per creare dialoghi credibili, lo scenario diventa ancora più inquietante: un pacchetto completo di strumenti che permette di replicare non solo il volto, ma anche la voce e le parole di chiunque.
Per ora la riproduzione in tempo reale di gesti, tono di voce e manierismi non è ancora perfetta, ma la traiettoria tecnologica lascia pochi dubbi: presto queste barriere cadranno. L’artista Corey Brickley ha commentato amaramente: “È curioso come tutte le principali innovazioni degli ultimi tempi sembrino potenziare soprattutto le abilità legate alla frode”. Da qui il consiglio, ironico ma concreto, di stabilire parole in codice familiari per verificare l’identità in caso di sospetti.
Etica, regolamentazione e difesa personale
Le applicazioni di Deep Live Cam non si limitano al mondo dello spettacolo o delle celebrity: riguardano tutti noi. Qualsiasi cittadino che pubblichi foto online potrebbe diventare il bersaglio di un furto d’identità visiva. Da qui emergono domande urgenti:
- Chi è responsabile se un deepfake viene usato per commettere una truffa?
- Come distinguere un contenuto autentico da uno manipolato?
- Quali diritti abbiamo sul nostro volto nell’era digitale?
Al momento, la legislazione fatica a stare al passo. L’AI Act dell’Unione Europea, atteso nei prossimi anni, promette di introdurre regole chiare sul riconoscimento e l’uso delle tecnologie generative. Tuttavia, la sola normativa non basta: serve una consapevolezza diffusa e strumenti di verifica alla portata di tutti.
Difendersi, per ora, significa sviluppare un approccio critico e adottare strategie preventive:
- Condivisione consapevole di foto e video personali.
- Educazione digitale nelle scuole e nelle famiglie, per imparare a riconoscere i segnali di un deepfake.
- Uso di sistemi di autenticazione non basati solo sull’immagine o sulla voce, ma su più fattori.