I documentari iniziano a usare avatar e deepfake per proteggere testimoni. Ma l’intelligenza artificiale rende la verità più autentica o più manipolabile?
A prima vista, documentari e intelligenza artificiale sembrano appartenere a due mondi opposti.
Il documentario nasce con un obiettivo preciso: mostrare la realtà.
L’intelligenza artificiale, invece, è spesso associata alla simulazione della realtà.
Eppure negli ultimi anni qualcosa sta cambiando.
Sempre più registi stanno iniziando a usare avatar generati dall’IA e tecnologie deepfake per proteggere l’identità delle persone intervistate nei documentari.
Una soluzione che apre una domanda più grande:
L’artificio può aiutare a raccontare la verità?
Da sempre i documentari hanno dovuto affrontare un problema: come far parlare chi rischia di esporsi troppo.
Testimoni di crimini.
Whistleblower.
Vittime.
Per proteggerli, il linguaggio del documentario ha sviluppato una grammatica molto riconoscibile:
volti in ombra
pixelatura
voci modificate
silhouette
Ma queste soluzioni hanno sempre avuto un limite.
Proteggono la persona, ma rompono la connessione emotiva con lo spettatore.
Quando non vediamo un volto, perdiamo una parte della storia.
Con l’arrivo dell’AI generativa, alcuni documentaristi stanno sperimentando una soluzione diversa.
Invece di nascondere la persona, creano una nuova identità digitale sopra il volto reale.
In pratica:
l’intervista viene registrata normalmente
il volto e la voce vengono sostituiti da un avatar
espressioni, emozioni e linguaggio del corpo restano quelli originali
Il risultato è una figura che non esiste nella realtà, ma esprime emozioni autentiche.
Un paradosso perfetto per l’era dell’intelligenza artificiale.
Uno degli esempi più discussi è il documentario Netflix The Investigation of Lucy Letby.
Il film racconta il caso della ex infermiera britannica condannata per l’omicidio di diversi neonati, una vicenda ancora molto controversa nel Regno Unito.
All’inizio del documentario compare un disclaimer:
“Alcuni partecipanti sono stati mascherati digitalmente per preservarne l’anonimato.”
Due testimoni — tra cui la madre di una vittima — parlano davanti alla telecamera.
Ma il loro volto non è reale.
È un avatar creato dall’intelligenza artificiale.
La tecnologia è stata sviluppata dalla società britannica Deep Fusion Films, che sovrappone una nuova identità digitale al filmato originale mantenendo:
espressioni facciali
movimenti degli occhi
linguaggio del corpo
emozioni
In teoria, quindi, lo spettatore vede una persona che non esiste, ma le emozioni che esprime sono completamente reali.
Quando la tecnologia è apparsa sullo schermo, molti spettatori hanno reagito con disagio.
Sui social diversi utenti hanno parlato di effetto uncanny — quella sensazione inquietante che si prova quando qualcosa sembra umano, ma non lo è completamente.
Non è sorprendente.
Il nostro cervello è estremamente sensibile ai volti umani.
Quando percepisce qualcosa di leggermente “sbagliato”, reagisce con diffidenza.
Ma il problema non è solo psicologico.
È anche culturale.
I documentari esistono per costruire fiducia.
Ma l’intelligenza artificiale è spesso percepita come uno strumento che può manipolare la realtà.
Questo crea una tensione inevitabile.
Da un lato, l’AI permette di raccontare storie che altrimenti rimarrebbero invisibili.
Dall’altro, introduce una tecnologia che può alterare ciò che vediamo sullo schermo.
Il rischio è evidente.
Se l’AI può cambiare il volto di una persona per proteggerla, potrebbe anche cambiarlo per manipolare la storia.
È lo stesso problema che emerge con i deepfake e la disinformazione digitale (tema che abbiamo analizzato anche in
/rischi-intelligenza-artificiale/).
Per questo motivo, molti professionisti del settore stanno chiedendo nuove regole di trasparenza.
Rachel Antell, cofondatrice dell’Archival Producers Alliance, sostiene che i documentari dovrebbero:
dichiarare sempre quando viene usata l’AI
ottenere consenso continuo dai partecipanti
rendere riconoscibili le parti generate artificialmente
In altre parole:
non nascondere la tecnologia.
Spiegarla.
Benjamin Field, cofondatore della società Deep Fusion, propone una prospettiva provocatoria.
Secondo lui i metodi tradizionali — pixelatura o silhouette — filtrano la verità.
“La verità di queste persone non viene mai davvero ascoltata, perché passa sempre attraverso un filtro.”
Con gli avatar digitali, invece, lo spettatore può vedere le sfumature emotive dell’intervista originale.
Se questo è vero, allora l’intelligenza artificiale introduce una possibilità paradossale:
l’artificio potrebbe rendere la testimonianza più autentica.
Questa trasformazione ci costringe a ripensare una domanda fondamentale:
cosa significa vedere la realtà nei media?
Per decenni abbiamo dato per scontato che ciò che appare sullo schermo fosse reale.
Ma nell’era dell’intelligenza artificiale questa distinzione diventa più fragile.
Un volto può essere:
reale
sintetico
una combinazione delle due cose
E lo spettatore deve imparare a navigare questa ambiguità.
Questa evoluzione racconta qualcosa di più profondo.
Le tecnologie digitali non stanno solo cambiando come produciamo i media.
Stanno cambiando il modo in cui definiamo la verità.
L’AI nei documentari non è solo un nuovo strumento cinematografico.
È un segnale di una trasformazione più grande:
stiamo entrando in un’epoca in cui la realtà e la simulazione convivono nello stesso spazio narrativo.
E a quel punto la domanda diventa inevitabile.
Se anche la verità può essere ricostruita digitalmente…
come facciamo a riconoscerla?