Scopri come le piattaforme usano sistemi di scoring utenti per valutarti, classificarti e influenzare contenuti, prezzi e accesso ai servizi digitali.
Le piattaforme digitali adorano una parola che suona neutra, tecnica, quasi innocente: personalizzazione. Ti mostrano contenuti “più rilevanti”, offerte “più adatte”, percorsi “più coerenti” con il tuo profilo. Tutto sembra costruito attorno ai tuoi interessi. Poi guardi meglio e capisci che sotto la patina della personalizzazione si muove qualcosa di molto meno rassicurante: la valutazione continua dell’utente.
In altre parole, le piattaforme ti osservano, ti classificano, ti confrontano e ti assegnano un punteggio implicito. Non sempre lo chiamano score. Non sempre te lo mostrano. Ma il principio è quello.
Il punto è semplice: per funzionare, monetizzare e governare masse enormi di persone, le piattaforme hanno bisogno di trasformare comportamenti caotici in segnali leggibili. E quando quei segnali vengono usati per decidere cosa vedi, quanto vali come cliente, quanto sei affidabile, quanto sei rischioso, quanto sei monetizzabile o quanto devi essere controllato, siamo già oltre la semplice analisi dei dati. Siamo dentro una infrastruttura di valutazione permanente.
Articoli di approfondimento: Sorveglianza digitale: come funziona, Come vengono tracciati i tuoi dati online e Identità digitale e controllo dell’accesso.
Uno scoring utenti è un sistema che attribuisce a una persona un valore, un livello, una probabilità o una categoria sulla base dei suoi dati e dei suoi comportamenti. A volte lo score è esplicito, come nei sistemi di credito, assicurazione o reputazione. Molto più spesso, nelle piattaforme digitali, è implicito: non lo vedi, ma produce effetti concreti. Determina visibilità, priorità, accessi, offerte, controlli aggiuntivi, prezzi, suggerimenti, limiti, ranking e perfino sospetti automatici.
Il ragionamento delle piattaforme è banale e brutale: se riesco a trasformare un utente in una sequenza di metriche, posso gestirlo meglio. Posso prevedere se comprerà, se cliccherà, se abbandonerà, se segnalerà un contenuto, se è un bot, se è un rischio, se merita promozioni, se va spinto di più o frenato un po’ (vedi shadow ban). Il linguaggio è quello dell’efficienza. La sostanza è quella del potere.
La Commissione europea ricorda che, sotto il GDPR, le persone non dovrebbero essere soggette a decisioni basate esclusivamente su trattamenti automatizzati che producono effetti giuridici o incidono in modo analogo e significativo. Segno che il problema esiste, eccome: quando un sistema valuta una persona automaticamente, quella valutazione può avere conseguenze reali, anche se il sistema si presenta come una semplice funzione di ottimizzazione.
Il meccanismo si regge quasi sempre su quattro passaggi. Il primo è la raccolta dei dati: attività, tempi, interazioni, cronologia, geolocalizzazione, acquisti, click, ricerche, segnalazioni, dispositivi usati, frequenza di accesso, contatti, anomalie. Il secondo è la profilazione: quei dati vengono messi insieme per costruire un profilo statistico. Il terzo è l’attribuzione di un punteggio o di una categoria. Il quarto è l’uso operativo di quel punteggio per prendere decisioni.
Qui la retorica tecnologica parla di modelli predittivi, machine learning, rilevamento del rischio, sistemi antifrode, ranking, rilevanza, affidabilità. Tutte formule che servono a rendere elegante un gesto vecchissimo: giudicare persone sulla base di segnali parziali. Solo che oggi il giudizio non arriva da un funzionario con una scrivania, ma da una macchina che confronta pattern e sforna probabilità.
L’EDPB dedica linee guida specifiche alla profilazione e alle decisioni automatizzate proprio perché questi sistemi possono portare esclusione, discriminazione, errori difficili da contestare e una trasparenza molto più scarsa di quella promessa dai discorsi aziendali. Tradotto: il problema non è solo che ti valutano. È che spesso ti valutano in modo opaco, con criteri che non conosci e contro cui fai fatica a difenderti.
Se vuoi seguire il filo di questa logica nelle interfacce e nella manipolazione del comportamento, il passaggio naturale è Architettura delle scelte digitali e Dark pattern: come le app manipolano le tue scelte.
Lo scoring utenti non vive solo nelle banche o nelle assicurazioni. Vive ovunque una piattaforma debba ordinare persone, contenuti o rischi. Nei marketplace che decidono quali venditori sono più affidabili. Nelle app di consegna che valutano clienti, rider e ristoranti. Nei social che regolano visibilità e priorità. Nelle piattaforme pubblicitarie che decidono quanto vali per un inserzionista. Nei sistemi antifrode che bloccano pagamenti, login o verifiche. Nei servizi digitali che stabiliscono quali utenti richiedono controlli extra e quali scorrono lisci come l’olio.
Anche quando il punteggio non è formalizzato in un numero visibile, la logica è identica: classificare per governare. Un utente può essere trattato come “ad alto valore”, “ad alta conversione”, “a rischio chargeback”, “potenzialmente fraudolento”, “più rilevante”, “meno affidabile”, “da moderare più severamente”, “da proteggere meno”. Non serve mostrarti il cartellino sul petto. Basta che il sistema lo usi.
Negli Stati Uniti la FTC ha descritto come grandi piattaforme social e video raccolgano enormi quantità di dati personali e li monetizzino, con rischi che vanno dalla violazione della privacy fino a pratiche più invasive di sorveglianza commerciale. È il contesto perfetto per capire lo scoring: prima ti osservano, poi ti segmentano, poi cominciano a trattarti in modo diverso.
Qui finisce la favola della personalizzazione gentile e comincia il mestiere vero. Uno score serve perché permette di trattare utenti diversi in modo diverso. Prezzi diversi. Percorsi diversi. Tempi diversi. Limiti diversi. Controlli diversi. Opportunità diverse. Magari senza dirtelo.
Se una piattaforma conclude che sei disposto a spendere di più, che difficilmente cambierai servizio, che reagisci bene all’urgenza o che sei poco sensibile alle alternative, può modulare offerte e interfacce di conseguenza. Se ritiene che tu sia un rischio, può rallentarti, chiederti più prove, bloccarti, farti entrare nel girone dei controlli automatici. Se pensa che tu sia molto profittevole, può darti un trattamento preferenziale invisibile agli altri.
È esattamente la logica che negli ultimi anni è stata discussa anche come “surveillance pricing”: l’uso dei dati per modellare prezzi, condizioni o pressioni commerciali in base al profilo del singolo utente. Non è fantascienza. È il punto naturale di arrivo di un ecosistema che vive di dati, previsione e differenziazione.
Qui il legame con L’economia dell’attenzione e Come guadagnano davvero le piattaforme digitali è diretto: più un sistema conosce il tuo comportamento, più può estrarre valore in modo selettivo.
Naturalmente, i sistemi di scoring possono sbagliare. Possono segnalare come sospetto un comportamento perfettamente legittimo. Possono bloccare un account innocente. Possono declassare un contenuto senza contesto. Possono colpire più spesso alcuni gruppi rispetto ad altri. Ma l’errore, da solo, non basta a spiegare la gravità del problema. Il vero nodo è l’asimmetria.
Tu non sai quasi mai quali dati hanno pesato, quale modello è stato usato, quale soglia è stata superata, quale categoria ti è stata assegnata, quanto dura quell’etichetta e come la puoi contestare. Il sistema invece sa moltissimo di te. E soprattutto sa che la maggior parte delle persone non ha il tempo, la competenza o la forza per sfidare decisioni opache travestite da automatismi necessari.
La giurisprudenza e le autorità europee si stanno muovendo proprio su questo terreno: il diritto a non essere schiacciati da decisioni completamente automatizzate e il diritto a informazioni significative sulla logica utilizzata non sono vezzi teorici. Sono tentativi minimi di frenare una tendenza molto chiara: trasformare la gestione delle persone in un problema di punteggi.
Nessuna piattaforma ti dirà mai apertamente: da oggi ti assegniamo un valore e ti trattiamo in base a quello. Sarebbe troppo onesto. La società a punteggi arriva in modo più elegante. Attraverso ranking, reputazione, rischio, affidabilità, personalizzazione, qualità, sicurezza, prevenzione delle frodi, ottimizzazione dell’esperienza. Ogni pezzo sembra ragionevole. Insieme, costruiscono un ambiente in cui l’utente viene continuamente misurato e trattato in base a ciò che il sistema crede che sia.
Dopo il tracciamento arriva la profilazione. Dopo la profilazione arriva lo scoring. Dopo lo scoring arriva il trattamento differenziale. E dopo il trattamento differenziale arriva una domanda molto semplice e molto scomoda: quanto resta della tua libertà, se il sistema decide in anticipo che tipo di utente sei?
I sistemi di scoring utenti permettono alle piattaforme di attribuirti un valore, un rischio o una priorità sulla base dei tuoi dati e dei tuoi comportamenti, spesso senza dirtelo. Quando una piattaforma ti assegna un punteggio invisibile, non sta solo descrivendoti; sta preparando il modo in cui ti tratterà.