Un video di Taylor Swift che non è mai stato girato, una conferenza TED mai tenuta, una lezione di Einstein che non è mai esistita. Non sono effetti speciali cinematografici, ma le incredibili creazioni di OmniHuman-1, il nuovo sistema di intelligenza artificiale per video deepfake sviluppato da ByteDance (la “proprietaria” di TikTok) che sta ridefinendo i confini tra realtà e finzione digitale.
Una tecnologia senza precedenti
I video deepfake non sono una novità nel panorama digitale. Esistono già numerose applicazioni capaci di inserire una persona in una foto o di farle dire cose mai pronunciate. Ma la maggior parte di questi contenuti manipolati mostra evidenti segni di artificialità. OmniHuman-1 sembra aver superato questo limite, producendo risultati sorprendentemente realistici.
Il sistema richiede solo due elementi per generare un video deepfake: un’immagine di riferimento e un file audio, che può essere un discorso o una traccia vocale. Con questi input minimi, OmniHuman-1 può produrre clip di qualsiasi durata, con proporzioni regolabili e un controllo completo sulla rappresentazione del soggetto. Il sistema è stato addestrato su 19.000 ore di contenuti video (da fonti non divulgate).
![video deepfake](https://www.futuroprossimo.it/wp-content/uploads/2025/02/omnihuman-1-1024x538.jpg)
Capacità avanzate di manipolazione
Le potenzialità di OmniHuman-1 vanno oltre la semplice generazione di video. Il sistema può anche modificare filmati esistenti, alterando persino i movimenti degli arti delle persone. I risultati, secondo quanto mostrato dal team di ByteDance, sono incredibilmente convincenti, anche se non privi di limiti: se viene “nutrito” con immagini di riferimento di bassa qualità si ottengono risultati inferiori, e alcune pose risultano ancora problematiche.Ad ogni modo, il grado di perfezionamento raggiunto da OmniHuman-1 solleva serie preoccupazioni, in un quadro già parecchio incandescente.
Nel 2024, i deepfake politici hanno già causato significativi problemi: a Taiwan, un gruppo affiliato al Partito Comunista Cinese ha diffuso audio manipolati di un politico; in Moldavia, video deepfake mostravano le false dimissioni della presidente Maia Sandu; in Sudafrica, un falso Eminem sosteneva un partito di opposizione.
Secondo Deloitte, nei soli Stati Uniti i contenuti generati dall’IA hanno contribuito a perdite per frodi superiori a 12 miliardi di dollari nel 2023, con proiezioni che potrebbero raggiungere i 40 miliardi entro il 2027. I consumatori vengono ingannati da deepfake di celebrità che promuovono investimenti fraudolenti, mentre le aziende subiscono truffe milionarie da impostori digitali. La comunità scientifica chiede regolamentazioni severe, e più di un ente sta valutando leggi che permetterebbero ai giudici di ordinare la rimozione dei video deepfake, con potenziali sanzioni monetarie per i trasgressori.
Video deepfake, la difficile battaglia del rilevamento
Il rilevamento dei video deepfake rimane una sfida significativa. Nonostante gli sforzi di social network e motori di ricerca per limitarne la diffusione, il volume di contenuti manipolati online continua a crescere a ritmo allarmante. Un sondaggio di Jumio del 2024 rivela che il 60% delle persone ha incontrato un deepfake nell’ultimo anno, e il 72% teme di esserne ingannato quotidianamente.
ByteDance non ha ancora rilasciato pubblicamente OmniHuman-1, ma l’esperienza insegna che la comunità IA non impiega molto tempo a replicare sistemi simili. Questo solleva interrogativi cruciali sul futuro della verità digitale e sulla necessità di sviluppare strumenti efficaci per proteggere la società da questa sempre più potente, e sempre più pericolosa tecnologia.
L’articolo OmniHuman-1: ora i video deepfake sfidano la realtà è tratto da Futuro Prossimo.
Tecnologia, deepfake