
Internet doveva informarci meglio. Invece algoritmi, deepfake e caos informativo stanno creando una crisi della verità e cambiando il modo in cui percepiamo la realtà.
Apri un social network. Leggi una notizia. Poi un’altra. Poi un video che dimostra l’esatto contrario. Nei commenti qualcuno dice che è propaganda. Un altro sostiene che è tutto manipolato. Un terzo dice che i media mentono sempre.
Dopo pochi minuti accade qualcosa di strano: non sai più cosa sia vero.
Non è solo disinformazione. È qualcosa di più profondo: una crisi della verità. Un momento storico in cui la realtà condivisa diventa sempre più fragile.
Internet avrebbe dovuto darci accesso a più informazioni, più conoscenza e più trasparenza. Invece, paradossalmente, sta producendo l’effetto opposto: un mondo in cui distinguere tra vero, falso e manipolato diventa sempre più difficile.
Questo fenomeno è legato a molti fattori: il funzionamento degli algoritmi, la velocità delle piattaforme digitali, la viralità dei contenuti e l’arrivo dell’intelligenza artificiale generativa.
Il risultato è un ecosistema informativo in cui la verità non scompare, ma si confonde.
Per gran parte della storia moderna l’informazione aveva una struttura relativamente chiara. Esistevano giornali, televisioni, redazioni e istituzioni mediatiche che filtravano le notizie prima della diffusione.
Questo sistema non era perfetto, ma aveva una caratteristica fondamentale: una gerarchia dell’informazione.
Internet ha distrutto questa struttura.
Oggi chiunque può pubblicare contenuti online e raggiungere milioni di persone in poche ore. Notizie, opinioni, propaganda, satire e manipolazioni convivono nello stesso spazio.
Nel feed di un social network possono apparire nello stesso momento:
Tutti questi contenuti competono per la stessa cosa: la nostra attenzione.
E nell’ecosistema digitale l’attenzione è la risorsa più preziosa, come spieghiamo nell’articolo su cos’è l’economia dell’attenzione.
Un altro elemento che contribuisce alla crisi della verità è il modo in cui funzionano gli algoritmi delle piattaforme.
I social media non mostrano gli stessi contenuti a tutti gli utenti. Ogni persona riceve un feed personalizzato.
Gli algoritmi analizzano continuamente il nostro comportamento: cosa guardiamo, cosa commentiamo, cosa condividiamo.
In base a questi dati selezionano i contenuti più coinvolgenti per noi.
Questo significa che due persone possono vivere esperienze completamente diverse della stessa realtà online.
È il meccanismo alla base delle filter bubble, bolle informative che tendono a rafforzare le convinzioni degli utenti.
Quando questo fenomeno si intensifica, la realtà collettiva si frammenta.
Non esiste più una sola narrazione degli eventi, ma molte versioni parallele.
Internet produce ogni giorno una quantità enorme di contenuti.
Secondo diversi studi sul traffico online, milioni di articoli, video e post vengono pubblicati quotidianamente sulle piattaforme digitali.
Questo fenomeno viene spesso chiamato sovraccarico informativo: un ambiente in cui la quantità di informazioni supera la nostra capacità di elaborarle.
Quando succede questo, le persone iniziano a utilizzare scorciatoie cognitive per decidere cosa credere.
Ad esempio:
Questi meccanismi psicologici contribuiscono alla polarizzazione e rendono ancora più difficile costruire una realtà condivisa.
Negli ultimi anni la situazione è diventata ancora più complessa con l’arrivo dei deepfake.
I deepfake sono video o audio generati dall’intelligenza artificiale che simulano perfettamente il volto o la voce di una persona reale.
All’inizio questi contenuti erano facili da riconoscere. Oggi stanno diventando sempre più realistici.
Secondo un’analisi del Brookings Institution, l’evoluzione dei deepfake potrebbe rendere sempre più difficile distinguere tra contenuti autentici e contenuti manipolati.
Questo crea un paradosso informativo.
Non solo diventa possibile falsificare la realtà. Diventa anche possibile negare contenuti reali sostenendo che siano falsi.
È lo stesso meccanismo che abbiamo analizzato parlando di gaslighting digitale, quando l’ecosistema informativo porta le persone a dubitare della realtà stessa.
Il problema più profondo della crisi della verità non è la diffusione delle notizie false.
Il problema è la perdita di fiducia nelle informazioni.
Quando una persona è esposta continuamente a informazioni contraddittorie, può iniziare a pensare che nessuna fonte sia affidabile.
Questo atteggiamento porta spesso a una forma di cinismo informativo.
Molte persone arrivano a una conclusione semplice: “tanto mentono tutti”.
Secondo il Pew Research Center, i social media sono ormai una delle principali fonti di informazione per milioni di persone.
Ma allo stesso tempo sono anche gli ambienti in cui la fiducia nelle notizie tende a diminuire più rapidamente.
Le società funzionano perché esiste una base minima di fatti condivisi.
Non significa che tutti siano d’accordo su tutto. Significa che esiste un terreno comune su cui discutere.
Quando questo terreno scompare, il dialogo diventa molto più difficile.
Se due persone partono da realtà completamente diverse, il confronto si trasforma facilmente in conflitto.
Internet non ha solo cambiato il modo in cui comunichiamo.
Ha cambiato il modo in cui costruiamo la nostra percezione del mondo.
Internet doveva renderci più informati.
Invece ci ha messi di fronte a una nuova sfida: capire cosa sia reale in mezzo a un oceano di contenuti.
La verità non è scomparsa.
Ma in un sistema progettato per massimizzare l’attenzione, può facilmente perdersi nel rumore.
Per oggi la vostra terza pillola è questa: la verità non sparisce quando viene censurata. Sparisce quando viene sommersa da troppe versioni diverse della realtà.