Il bias nell’AI non nasce solo da dati sbagliati: entra nei modelli attraverso società, scelte progettuali e metriche. Ecco perché non sparisce davvero.
Quando parliamo di bias nell’AI, non stiamo parlando soltanto di modelli che discriminano esplicitamente per genere, etnia o lingua. Stiamo parlando di qualcosa di più largo e più infido: la tendenza dei sistemi a incorporare visioni parziali del mondo, a trattare come naturali relazioni di potere che naturali non sono, a trasformare in standard ciò che è semplicemente dominante. Il NIST lo dice in modo netto: il bias non è riducibile alla sola rappresentatività dei dati, ma attraversa l’intero ciclo di vita dell’AI. E infatti, se guardi bene, il problema comincia molto prima del modello e continua molto dopo il modello.
Lo abbiamo già visto parlando di dataset per l’intelligenza artificiale, di addestramento dei modelli e dei rischi strutturali dell’AI. Il modello non osserva il mondo direttamente: osserva una raccolta di testi, immagini, segnali, etichette, filtri e priorità costruite da esseri umani dentro organizzazioni che hanno obiettivi economici precisi. Quando poi il modello viene messo in produzione, viene incastrato in un’interfaccia, in metriche di performance, in politiche di sicurezza, in soglie di rischio, in regole di moderazione. Insomma: il bias entra da ogni lato. Ed è proprio per questo che non basta “ripulire i dati” per eliminarlo.
La prima bugia che conviene smontare è questa: l’AI sarebbe neutrale e il bias arriverebbe solo dopo, come una contaminazione. In realtà non esiste alcun punto zero neutrale. Esiste una sequenza di decisioni. Si decide quali dati raccogliere, quali fonti considerare affidabili, quali lingue includere meglio, quali comunità finiscono sottorappresentate, quali etichette usare, quali errori tollerare, quali obiettivi ottimizzare. Ognuna di queste scelte sposta l’equilibrio del sistema. E non serve nemmeno cattiva fede. Come ricorda il NIST SP 1270, esistono bias sistemici, bias computazionali e statistici, e bias umano-cognitivi. Già questa tripla distinzione basta a demolire la favoletta del problema puramente tecnico.
Il bias sistemico è il più scomodo, quindi è anche quello che si cita meno. Significa che il modello eredita diseguaglianze già presenti nelle istituzioni, nei mercati, nelle piattaforme e nei comportamenti sociali. Se per anni il web ha premiato alcuni idiomi, alcune geografie, alcuni registri culturali e alcune visioni del mondo, il modello non farà altro che interiorizzare quella gerarchia e restituirla sotto forma di probabilità. Se i documenti disponibili su un mestiere mostrano prevalentemente uomini in ruoli di comando e donne in ruoli di supporto, il sistema apprenderà quell’associazione. Se il linguaggio dominante descrive certi gruppi come problema, eccezione o rischio, il modello tenderà a far sedimentare anche quello.
Poi c’è il livello statistico e computazionale. Qui entrano in gioco il campionamento, la qualità del dataset, le classi poco rappresentate, i proxy, le scorciatoie che gli algoritmi amano quando devono minimizzare un errore in tempi rapidi. Un sistema può funzionare benissimo in media e sbagliare proprio dove il costo dell’errore è più alto. È la logica del “buon risultato complessivo” che nasconde le minoranze dentro la percentuale aggregata. Lo stesso vale per i modelli linguistici: possono apparire fluidi, colti, persino equilibrati, e intanto essere più fragili su lingue meno presenti, contesti locali, culture non dominanti o domande che escono dalla corsia centrale del web.
Infine c’è il bias umano-cognitivo, che è la parte meno discussa ma forse la più quotidiana. Gli esseri umani leggono l’output della macchina con aspettative, stereotipi, automatismi mentali. Se un sistema risponde con tono sicuro, molti utenti tenderanno a considerarlo più affidabile di quanto sia. Se un suggerimento appare “oggettivo” solo perché esce da una dashboard, il decisore umano potrebbe abbassare le difese critiche. In questo senso il bias non è solo dentro il modello: è anche nel rapporto che costruiamo con il modello. La macchina non sostituisce il pregiudizio umano. Spesso gli offre una nuova maschera, più elegante e meno contestabile.
Qui sta il punto politico. Il bias non nasce soltanto dal contenuto che entra nel sistema, ma dalla funzione che al sistema viene assegnata. Un modello progettato per classificare, ordinare, filtrare, prevedere o bloccare persone avrà sempre una componente normativa: decide cosa conta, cosa pesa di più, cosa è normale, cosa è sospetto. Anche quando l’obiettivo sembra banale, come raccomandare contenuti, completare un testo o sintetizzare una ricerca, il sistema finisce comunque per distribuire attenzione, visibilità e legittimità. In pratica, seleziona il mondo che avrà più possibilità di essere visto e ripetuto.
Per questo il bias si lega anche al problema dell’omologazione. Il profilo NIST per la generative AI richiama esplicitamente il rischio di harmful bias o homogenization. Tradotto: anche quando un modello non discrimina in modo clamoroso, può comunque appiattire differenze, privilegiare stili dominanti, penalizzare ciò che esce dal baricentro statistico. È il bias come normalizzazione silenziosa. Non ti colpisce frontalmente; ti spinge lentamente verso ciò che il sistema considera standard.
Una volta capito come nasce, diventa più facile capire perché non sparisce. Non sparisce perché l’AI continua a essere addestrata, valutata e distribuita dentro sistemi sociali ed economici che hanno bisogno di semplificare. I modelli devono rispondere in fretta, scalare, abbassare i costi, servire milioni di utenti, evitare scandali troppo vistosi, mantenere una certa coerenza di brand. Tutto questo porta a un compromesso permanente: ridurre i bias più imbarazzanti senza mettere davvero in discussione l’architettura di potere che li produce.
Succede così che una correzione ne apra un’altra. Migliori la sicurezza su un tema e irrigidisci il modello su domande legittime. Aumenti i filtri e finisci per penalizzare linguaggi minoritari o contesti non occidentali. Bilanci un dataset e poi reintroduci squilibri nella fase di allineamento, nelle preferenze umane, nelle policy di moderazione, nella scelta delle fonti considerate attendibili. In altre parole, il bias non è una macchia da rimuovere una volta per tutte: è una tensione strutturale fra complessità del reale e necessità industriale di renderlo computabile.
C’è anche un motivo economico che conviene dire ad alta voce. Un sistema davvero sensibile alle differenze, ai contesti locali, alle ambiguità storiche, alle asimmetrie linguistiche e sociali è un sistema più costoso da costruire, da testare, da monitorare e da correggere. Richiede più dati di qualità, più audit, più competenze interdisciplinari, più tempo, più attrito. E l’attrito, nell’economia delle piattaforme, è sempre visto come un difetto. Meglio un modello che “funziona abbastanza” per la grande maggioranza, anche se lascia zone grigie e ingiustizie ai margini. È la stessa logica con cui molte piattaforme hanno costruito imperi sull’ottimizzazione media, lasciando il costo delle eccezioni a chi le subisce.
Qui entra in scena anche il feedback loop. I modelli generativi non si limitano a riflettere il mondo: contribuiscono a riscriverlo. Se un assistente tende a formulare certe associazioni, a privilegiare certe sintesi, a rendere invisibili certi dettagli, quegli output finiranno per circolare, essere copiati, citati, incorporati in nuovi dataset, interiorizzati dagli utenti. Il bias allora non resta fermo. Si auto-rinforza. Diventa parte del materiale culturale che i sistemi futuri useranno per imparare. La macchina pesca dal mondo e poi restituisce al mondo una versione del mondo leggermente più standardizzata.
Questo vale anche per chi pensa che il mercato risolverà tutto. No, il mercato seleziona soprattutto ciò che converte, ciò che riduce il rischio reputazionale, ciò che migliora la retention, ciò che rende il prodotto più vendibile a imprese e utenti. Se l’equità non coincide con questi incentivi, verrà trattata come un modulo aggiuntivo, non come principio architettonico. E quando l’equità viene aggiunta dopo, quasi sempre arriva tardi e con margini stretti. Non a caso molte promesse sulla “responsible AI” assomigliano a una governance cosmetica: utile, certo, ma spesso insufficiente rispetto alla profondità del problema.
Questo non significa che tutto sia inutile. Audit indipendenti, documentazione, valutazioni per sottogruppi, maggior trasparenza sulle fonti, possibilità per i modelli di esprimere incertezza, coinvolgimento di comunità esterne e controlli durante il deployment servono eccome. Servono a ridurre i danni, a rendere il sistema meno cieco, a spostare il tema dal marketing alla responsabilità. Ma una riduzione del bias non equivale alla sua cancellazione. E soprattutto non equivale a neutralità.
La domanda seria, allora, non è “si può eliminare del tutto il bias?”. La domanda seria è: chi decide quale bias è tollerabile, per chi, in quali contesti, con quali costi e con quale diritto di contestazione? Finché questa domanda resta nelle mani di poche aziende, il problema non sarà soltanto tecnico. Sarà democratico. Perché un modello che ordina il mondo secondo criteri opachi non distribuisce solo informazioni: distribuisce possibilità.
Il bias nell’AI non è un difetto residuo che sparirà quando la tecnologia maturerà. È il prezzo politico di trasformare una società diseguale in un sistema che pretende di calcolarla, classificarla e servirla come se fosse neutrale.