
I deepfake stanno cambiando il cinema: volti ricreati con IA, attori ringiovaniti e nuove sfide etiche per Hollywood.
Il cinema ha sempre mentito bene. Ha fatto credere al pubblico che un modellino fosse un’astronave, che uno schermo verde fosse un altro pianeta, che una controfigura fosse la star lanciata nel vuoto. L’illusione è parte costitutiva del linguaggio cinematografico. Ma i deepfake spostano questa tradizione su un terreno diverso, perché non si limitano a creare immagini artificiali: ricostruiscono identità. E quando il cinema può prendere un volto, adattarlo, ringiovanirlo, trasferirlo su un altro corpo o fargli dire cose mai dette, non siamo più soltanto nel regno degli effetti speciali. Siamo nel cuore della rappresentazione umana.
Per questo i deepfake non vanno letti come semplice curiosità tecnica. Sono uno dei punti in cui l’intelligenza artificiale entra più direttamente nell’industria dell’intrattenimento e la costringe a ridefinire i propri confini. Ne abbiamo già intravisto le implicazioni nell’articolo Hollywood tra intelligenza artificiale e crisi del lavoro creativo, ma qui il discorso si fa ancora più preciso: se il volto diventa manipolabile come un qualsiasi asset digitale, cosa resta dell’idea stessa di performance?
Nel dibattito pubblico il termine deepfake viene spesso usato in modo confuso, come se indicasse qualunque video falso generato con l’IA. In realtà il nodo è più specifico. Un deepfake è una manipolazione sintetica dell’identità visiva o vocale di una persona, costruita grazie a modelli addestrati su grandi quantità di dati. In pratica il sistema impara i tratti del volto, le espressioni, i movimenti, la voce e poi li riapplica in nuovi contesti.
Nel cinema questa tecnologia può avere molte forme: ringiovanimento di un attore, sostituzione del volto in post-produzione, completamento di scene girate in condizioni diverse, adattamento di performance per il mercato internazionale, ricostruzione di interpreti non più disponibili. Tecnicamente non tutto questo viene etichettato come deepfake dall’industria, che preferisce termini più rassicuranti. Ma la logica di fondo è la stessa: l’identità viene decomposta in dati e ricombinata come materiale audiovisivo.
Questo è il punto in cui il tema si collega anche all’articolo Come funzionano i modelli di intelligenza artificiale. Perché il deepfake non nasce da magia, ma da addestramento: qualcuno raccoglie dati, li struttura, costruisce un modello e ottiene una forma di imitazione automatizzata.
Per gli studios i vantaggi sono evidenti. I deepfake permettono di correggere errori, uniformare riprese, recuperare scene senza richiamare l’intero cast, creare continuità visiva tra tempi narrativi diversi. Possono anche servire a localizzare più facilmente contenuti per mercati differenti, integrando modifiche su labiale, voce o espressione. In altre parole: abbassano i costi e aumentano il controllo.
Ma c’è qualcosa di ancora più interessante, dal punto di vista industriale. Il deepfake rende la performance sempre meno dipendente dall’evento singolo della ripresa. Se prima il cuore dell’interpretazione era ciò che accadeva sul set, ora una parte crescente di quell’interpretazione può essere riassemblata dopo, in post-produzione, da team tecnici e modelli generativi. La recitazione diventa più modulare, più manipolabile, più integrabile nella filiera del software.
È una dinamica parallela a quella che vediamo in Come l’intelligenza artificiale sta cambiando il modo di fare film: l’IA non entra solo nel contenuto finale, ma nel processo, ridefinendo quali passaggi restano umani e quali diventano editabili a valle.
Non tutte le applicazioni dei deepfake sono necessariamente distruttive. In alcuni casi possono avere una funzione quasi conservativa: restaurare scene rovinate, completare in modo rispettoso un’opera rimasta incompiuta, migliorare la continuità visiva senza stravolgere il lavoro dell’interprete. Il problema nasce quando la logica del restauro scivola silenziosamente nella logica della sostituzione.
Se posso correggere una scena, posso anche riscriverla. Se posso ringiovanire un volto, posso anche fabbricarne una versione alternativa. Se posso trasferire una performance su un altro corpo, allora posso separare sempre di più il personaggio dall’attore. E più questa separazione si normalizza, più il valore dell’interprete reale rischia di ridursi a materia prima per processi successivi.
Qui il discorso incontra direttamente Gli attori AI sostituiranno quelli umani?. I deepfake non coincidono con l’attore sintetico totale, ma ne preparano il terreno culturale e tecnico. Abituano l’industria e il pubblico all’idea che il volto umano sia editabile, riusabile, portabile da una scena all’altra come se fosse un plugin.
La domanda più importante, però, non è tecnica ma giuridica e politica. Chi possiede il diritto di manipolare un volto? L’attore, in quanto persona e lavoratore. Lo studio, in quanto produttore dell’opera. La piattaforma che distribuisce e magari elabora quei contenuti. Oppure l’azienda che fornisce gli strumenti di IA e trattiene know-how, modelli e pipeline?
Questa domanda conta ancora di più quando si passa dalla singola scena all’archivio. Un attore con una lunga carriera ha lasciato in giro migliaia di immagini ad alta qualità, interviste, registrazioni, clip promozionali, making of, reading, trailer. Tutto questo materiale può diventare dataset implicito per ricostruire la sua identità visiva e sonora. Non parliamo più solo di consenso su una ripresa: parliamo di estraibilità dell’intera persona mediatica.
Su TerzaPillola questo nodo torna spesso quando affrontiamo il tema dei dati per l’intelligenza artificiale. I dati non sono neutri. Sono pezzi di realtà trasformati in materia computabile. Nel caso dei deepfake, quei dati sono facce, voci, tic, pause, sguardi.
Molte persone sostengono di volere autenticità, ma consumano già contenuti pesantemente filtrati, montati, ritoccati, sintetizzati. Il pubblico potrebbe quindi accettare i deepfake molto più facilmente di quanto si immagini, soprattutto se il risultato finale resta credibile e il contesto narrativo è coinvolgente. Il problema è che questa accettazione rischia di normalizzare un regime di opacità.
Se non sappiamo più con chiarezza dove finisce la performance umana e dove inizia la manipolazione sintetica, anche il nostro rapporto con l’opera cambia. Non perché l’illusione sia una novità, ma perché qui l’illusione riguarda direttamente il soggetto che la incarna. Non è un mostro digitale. È una persona trattata come materiale flessibile.
Questo spiega perché il tema dei deepfake tocca anche la sfera culturale più ampia affrontata nell’articolo Relazioni con l’intelligenza artificiale. Più ci abituiamo a interagire con identità simulate, più la distinzione tra presenza e riproduzione perde peso simbolico.
Il cinema del futuro potrebbe scegliere due strade. La prima è quella della trasparenza: usare questi strumenti, ma dichiarando come e quando intervengono, costruendo regole di consenso, compenso e riconoscibilità. La seconda è quella dell’opacità: integrare la manipolazione sintetica in modo sempre più invisibile, finché il pubblico la considererà parte normale del prodotto e i lavoratori avranno sempre meno leva per opporsi.
La seconda strada è più probabile, perché economicamente più conveniente. Eppure è anche la più pericolosa, perché riduce la performance a superficie calcolabile e sposta il potere verso chi possiede tecnologia, archivi e diritti di sfruttamento. In un’industria già segnata dalla concentrazione del valore, questo significa ulteriore centralizzazione.
I deepfake non stanno solo cambiando il modo in cui il cinema produce immagini. Stanno cambiando il modo in cui l’industria pensa l’identità umana: non più presenza irripetibile, ma archivio modificabile. E quando il volto diventa software, anche la verità della performance smette di essere un fatto e diventa una scelta di sistema.