
Come l’intelligenza artificiale sta cambiando informazione e media: algoritmi, agenti AI e il rischio di un mondo dove finiamo per parlare solo con noi stessi.
Immaginate una piazza pubblica. Persone diverse, idee diverse, conflitti, dibattiti. Insomma: democrazia. Ora immaginate la stessa piazza svuotata, sostituita da un algoritmo che vi mostra solo persone che la pensano esattamente come voi.
Benvenuti nel possibile futuro dell’informazione.
Durante il CPH:DOX Summit di Copenaghen, uno dei principali festival europei dedicati al documentario, diversi esperti di media e tecnologia hanno lanciato un avvertimento piuttosto inquietante: l’intelligenza artificiale potrebbe trasformare l’informazione in uno specchio.
Uno specchio che non riflette la realtà. Riflette soltanto noi stessi.
Il rischio, ha spiegato il direttore di ARTE France Bruno Patino, è che gli agenti basati su IA finiscano per consegnare agli utenti “la narrazione del nostro stesso specchio invece di quella di una comunità”. In altre parole: potremmo semplicemente finire per parlare con noi stessi.
E se vi sembra un problema del futuro, forse è il caso di guardarci attorno: in realtà è già il presente.
Negli ultimi vent’anni il sistema dell’informazione è stato lentamente sostituito da qualcosa di molto diverso: un ecosistema guidato dagli algoritmi.
Oggi gran parte delle persone non cerca più attivamente le notizie. Le notizie arrivano da sole, spinte dentro il feed da un algoritmo.
È la cosiddetta “era del push”: l’informazione non la scegli, ti viene consegnata.
Chi ha seguito gli ultimi anni di internet sa bene come funziona questo meccanismo. Gli algoritmi analizzano il comportamento degli utenti — clic, scroll, tempo di visualizzazione — e selezionano i contenuti più adatti a mantenere alta l’attenzione.
Il risultato? Un sistema che premia ciò che genera reazioni forti: rabbia, indignazione, paura.
Non a caso abbiamo già visto nascere fenomeni come:
Non è una teoria. È il modello economico delle piattaforme digitali.
Se volete capire come funziona davvero questo sistema basta guardare da vicino i meccanismi che regolano i social network. Gli algoritmi non mostrano i contenuti migliori. Mostrano quelli più efficaci nel catturare attenzione. E attenzione significa tempo. E tempo significa denaro.
È lo stesso meccanismo spiegato nell’articolo Come funzionano davvero gli algoritmi dei social media.
Ma con l’intelligenza artificiale questo sistema potrebbe fare un salto ulteriore.
Secondo Patino stiamo entrando in una nuova fase della storia dei media. Non parleremo più direttamente con le piattaforme. Parleremo con agenti artificiali. Assistenti digitali, chatbot, agenti AI che selezioneranno informazioni per noi.
Questo passaggio sembra comodo. Ma cambia completamente l’equilibrio del sistema.
Se oggi gli algoritmi decidono cosa appare nel feed, domani potrebbero decidere direttamente cosa esiste nel nostro orizzonte informativo. Patino ha sintetizzato il problema con una frase che dovrebbe far suonare più di qualche campanello d’allarme: “I media non parleranno più direttamente ai cittadini. Parleranno a un agente che parlerà ai cittadini.”
In pratica la realtà passerà attraverso due filtri:
È una trasformazione radicale. E non riguarda solo la tecnologia, ma la struttura stessa della società. Perché quando il flusso di informazioni è controllato da pochi intermediari tecnologici, il rischio è che la pluralità si trasformi in un’illusione.
Paradossalmente, l’intelligenza artificiale sta rendendo la produzione di contenuti più facile che mai. Chiunque può generare articoli, video, immagini, musica. Ma più contenuti non significa automaticamente più pluralismo.
Anzi.
Secondo molti analisti potrebbe accadere il contrario: una quantità enorme di contenuti prodotti dalle stesse infrastrutture tecnologiche, addestrate sugli stessi dati e ottimizzate per gli stessi algoritmi. Un ecosistema apparentemente vario ma in realtà sempre più omogeneo.
È lo stesso problema che emerge quando si analizza il funzionamento dei modelli di intelligenza artificiale. Come spiegato nell’articolo Come funzionano i modelli di intelligenza artificiale, questi sistemi vengono addestrati su giganteschi dataset e tendono a replicare i pattern più frequenti.
Tradotto: l’AI non inventa nuove culture. Amplifica quelle dominanti.
Se la maggior parte dei dati proviene da poche piattaforme globali, è inevitabile che anche la produzione culturale inizi ad assomigliare sempre più a un monoculture digitale.
Un altro punto emerso durante il dibattito riguarda il potere crescente delle grandi piattaforme tecnologiche. Molte delle infrastrutture su cui si basa l’intelligenza artificiale sono controllate da aziende americane: cloud, modelli linguistici, sistemi di distribuzione dei contenuti.
Questo significa che una parte enorme della circolazione globale dell’informazione passa attraverso pochi attori privati. È lo stesso fenomeno analizzato nel nostro articolo Cosa sono davvero le Big Tech.
Le piattaforme non sono semplici aziende tecnologiche. Sono infrastrutture del potere. Decidono cosa diventa visibile e cosa scompare. Un cambiamento di algoritmo può far sparire un intero settore mediatico nel giro di pochi mesi. Un account eliminato può cancellare anni di lavoro giornalistico.
È già successo.
E succede continuamente.
Il punto più inquietante sollevato al summit riguarda però il modo in cui l’IA potrebbe trasformare la percezione della realtà. Se gli agenti artificiali selezionano contenuti basandosi sui nostri gusti, sulle nostre opinioni e sui nostri comportamenti passati, il rischio è che finiscano per mostrarci solo ciò che conferma ciò che pensiamo già.
Un mondo perfettamente personalizzato. Perfettamente rassicurante.
Perfettamente falso.
È lo scenario che Patino ha definito “la narrazione del nostro specchio”. Un ecosistema informativo in cui ogni individuo vive dentro una bolla su misura. Non esiste più una conversazione pubblica. Esistono miliardi di monologhi paralleli.
Per questo Patino ha lanciato una proposta ambiziosa: costruire una sorta di “piazza pubblica europea”. Uno spazio mediatico comune capace di contrastare la frammentazione prodotta dagli algoritmi. Non una “Netflix europea”, come ha precisato lui stesso, ma una piattaforma capace di creare connessioni culturali tra paesi, lingue e comunità diverse.
Un progetto difficile.
Perché competere con le infrastrutture tecnologiche delle Big Tech non è esattamente una passeggiata. Ma l’alternativa potrebbe essere ancora più problematica. Un ecosistema informativo dominato da sistemi di raccomandazione, agenti AI e piattaforme globali. Un sistema in cui la realtà non scompare.
Semplicemente non la vediamo più.
Alla fine la questione non riguarda soltanto la tecnologia. Riguarda il modo in cui le società costruiscono una realtà condivisa. Per secoli questo ruolo è stato svolto da spazi pubblici, giornali, televisione, istituzioni culturali. Oggi gran parte di quel ruolo è passato nelle mani degli algoritmi.
E con l’arrivo dell’intelligenza artificiale il potere di questi sistemi potrebbe diventare ancora più invisibile. Perché quando la realtà viene filtrata da una macchina progettata per massimizzare l’attenzione, il rischio non è soltanto la manipolazione.
Il rischio è qualcosa di molto più sottile. La perdita della realtà condivisa. E senza una realtà condivisa diventa difficile anche discutere, dissentire, confrontarsi. In altre parole: diventa difficile fare politica, cultura, società.
Quindi la vostra terza pillola è questa: il vero potere dell’intelligenza artificiale non è creare contenuti. È decidere quali contenuti esistono nel nostro mondo.