
La realtà sintetica cambia il nostro rapporto con le immagini. Deepfake e AI generativa rendono difficile distinguere vero e falso online.
Per secoli abbiamo dato per scontata una relazione piuttosto semplice tra realtà e percezione: ciò che vedevamo, nella maggior parte dei casi, corrispondeva a qualcosa che era realmente accaduto. Una fotografia documentava un evento, un video lo testimoniava, una registrazione lo fissava nel tempo. Non era un sistema perfetto, ma era sufficientemente stabile da permetterci di costruire una fiducia di base nelle immagini.
Oggi questa relazione si sta incrinando, e lo sta facendo in modo silenzioso ma radicale. L’avvento dell’intelligenza artificiale generativa ha introdotto la possibilità di creare contenuti visivi e sonori che non si limitano a rappresentare la realtà, ma la simulano con una precisione sempre più difficile da distinguere dall’originale. È qui che entra in gioco quella che possiamo definire realtà sintetica.
Non si tratta semplicemente di immagini false o manipolate, che esistono da sempre, ma di un salto qualitativo: sistemi in grado di produrre video, voci e fotografie che non hanno mai avuto un corrispettivo nel mondo reale, e che tuttavia risultano perfettamente plausibili agli occhi di chi li osserva.
Quando parliamo di realtà sintetica, ci riferiamo a un insieme di tecnologie che consentono di generare contenuti artificiali con un livello di realismo tale da renderli indistinguibili, o quasi, da quelli autentici. Questo include immagini create da modelli generativi, video deepfake, voci sintetiche e ambienti virtuali sempre più immersivi.
Alla base di tutto questo ci sono i modelli di intelligenza artificiale generativa, addestrati su enormi quantità di dati, che non comprendono la realtà ma ne apprendono le regolarità statistiche. In altre parole, non sanno cosa sia vero, ma sanno perfettamente come appare qualcosa di vero.
Ed è proprio questa capacità di imitazione a creare il problema: quando la simulazione diventa convincente quanto l’originale, la distinzione tra reale e artificiale smette di essere evidente.
I deepfake rappresentano probabilmente l’esempio più evidente di questa trasformazione. Si tratta di video in cui il volto o la voce di una persona vengono manipolati per farle dire o fare qualcosa che non è mai accaduto.
Se nelle prime versioni questi contenuti risultavano facilmente riconoscibili, oggi la qualità è migliorata al punto che anche osservatori esperti possono avere difficoltà a distinguerli. Secondo il Brookings Institution, l’evoluzione dei deepfake rappresenta una delle sfide più rilevanti per il futuro dell’informazione.
Ma il punto non è soltanto la possibilità di falsificare contenuti. Il vero cambio di paradigma è che, una volta che questa possibilità diventa diffusa e conosciuta, qualsiasi contenuto può essere messo in discussione, anche quando è autentico.
Questo fenomeno è stato definito da alcuni studiosi come liar’s dividend, il “dividendo del bugiardo”: la possibilità di sfruttare l’esistenza dei deepfake per negare prove reali. Se tutto può essere manipolato, allora nulla è completamente affidabile.
È lo stesso meccanismo che osserviamo nel gaslighting digitale, dove non si cerca tanto di convincere le persone di una versione alternativa dei fatti, quanto di erodere la loro fiducia nella possibilità stessa di distinguere il vero dal falso.
In questo contesto, la verità non scompare, ma perde forza, perché diventa una tra le tante versioni possibili della realtà.
La realtà sintetica, tuttavia, non agisce da sola. Il suo impatto è amplificato dal modo in cui i contenuti vengono distribuiti all’interno delle piattaforme digitali. Gli algoritmi dei social media selezionano e promuovono i contenuti in base al coinvolgimento, non alla loro accuratezza.
Questo significa che un contenuto falso ma emotivamente forte ha spesso più probabilità di diffondersi rispetto a uno vero ma complesso. È una dinamica che abbiamo già analizzato parlando di economia dell’attenzione e di algoritmi social.
Quando la realtà sintetica entra in questo sistema, il risultato è un’accelerazione del caos informativo: contenuti plausibili, emotivi e spesso falsi che si diffondono rapidamente e contribuiscono a frammentare ulteriormente la percezione della realtà.
Uno degli effetti più profondi di questo processo è la progressiva perdita di una realtà condivisa. Le società funzionano perché esiste una base minima di fatti su cui è possibile costruire un confronto, anche quando le opinioni divergono.
Quando questa base si indebolisce, il dialogo diventa più difficile e il conflitto più probabile. È ciò che osserviamo nella crisi della verità nell’era di internet, dove la moltiplicazione delle narrazioni rende sempre più complesso stabilire cosa sia realmente accaduto.
La realtà sintetica non crea questo problema da zero, ma lo amplifica in modo significativo.
È facile considerare la realtà sintetica come una questione tecnica, legata allo sviluppo dell’intelligenza artificiale. In realtà si tratta di un fenomeno culturale, perché incide direttamente sul modo in cui costruiamo fiducia e conoscenza.
Secondo il World Economic Forum, la disinformazione e i contenuti sintetici rappresentano uno dei principali rischi globali, non tanto per la loro esistenza, quanto per l’effetto che producono sulla percezione collettiva della realtà.
Quando le persone iniziano a dubitare sistematicamente delle informazioni che ricevono, il problema non è più cosa è vero, ma se sia ancora possibile stabilirlo.
Per molto tempo abbiamo pensato che vedere fosse credere, perché le immagini rappresentavano un legame relativamente stabile con la realtà. Oggi quel legame si sta indebolendo, non perché la verità sia scomparsa, ma perché è diventata più difficile da riconoscere nei media essenziali.
La tecnologia non sta semplicemente creando nuove forme di contenuto, ma sta trasformando il modo in cui interpretiamo ciò che vediamo, rendendo sempre più fragile la nostra capacità di credere a qualcosa come vero.