Digital humans: la Cina vuole etichette e limiti

RedazioneCultura Digitale1 week ago18 Views

C’è voluto Pechino per dire una cosa che in Occidente continuiamo a trattare come una curiosità da fiera tecnologica: quando una macchina imita abbastanza bene un essere umano, il problema smette di essere la grafica e diventa il potere.

Il 3 aprile la Cyberspace Administration of China ha pubblicato una bozza di regolamento sui cosiddetti “digital humans”, cioè esseri virtuali capaci di parlare, interagire, simulare presenza e in certi casi anche relazione. La notizia, riportata da Reuters e rilanciata anche da Xinhua, prevede alcune misure molto nette: etichetta obbligatoria e continua con la dicitura “digital human”, divieto di usare dati personali e tratti riconoscibili di persone reali senza consenso, stop ai servizi che simulano rapporti intimi con minori o che possono favorire dipendenza e spesa eccessiva.

Tradotto: la Cina ha capito che il punto non è più soltanto “questa roba funziona?”. Il punto è: che cosa succede quando una presenza artificiale entra nel mercato dell’attenzione, dell’affetto, dell’identità e della fiducia?

La Cina mette un cartello dove il mercato mette il trucco

La prima mossa di Pechino è quasi comica nella sua semplicità: se mostri un essere umano sintetico, devi scriverlo sopra in modo evidente e permanente. Sembra una banalità burocratica, invece è una confessione storica. Significa che il confine tra persona e simulazione è già abbastanza sottile da dover essere segnalato per legge.

Ed è qui che la questione diventa molto Terza Pillola. Per anni il settore ha venduto avatar, influencer virtuali, assistenti empatici, presentatori AI e compagni sintetici come se fossero un upgrade dell’interfaccia. Una specie di cosplay tecnologico: stesso mercato, solo con più rendering e meno salario. In realtà i digital humans sono un salto di categoria. Perché un’interfaccia classica ti serve. Un volto umano sintetico, invece, ti guarda, ti parla, ti rassicura, ti guida, ti intrattiene, ti seduce. Non gestisce soltanto un compito: gestisce una relazione.

Da questo punto di vista, l’obbligo di etichettatura è quasi un atto di onestà che in molti mercati occidentali non si vede. Qui spesso la direzione è opposta: si punta a rendere la simulazione sempre più fluida, sempre meno riconoscibile, sempre più naturale. Un assistente deve sembrare spontaneo. Un avatar deve sembrare credibile. Un clone vocale deve sembrare autentico. E quando la macchina riesce bene, il marketing chiama tutto questo “esperienza utente”.

Il problema è che l’esperienza utente, in questi casi, coincide con l’erosione del dubbio. E quando il dubbio sparisce, chi controlla la simulazione controlla anche il rapporto psicologico con l’utente.

È lo stesso nodo che avevamo già visto parlando di relazioni con l’intelligenza artificiale: la tecnologia smette di limitarsi a fornire risposte e comincia a occupare lo spazio emotivo che una volta era riservato agli esseri umani. Solo che qui quel meccanismo viene reso ancora più potente da volto, voce, espressione, continuità scenica.

Il vero bersaglio non sono gli avatar: è il business della dipendenza

La parte più interessante della bozza cinese riguarda i minori. Il testo vieta servizi che possano simulare relazioni familiari o intime con utenti sotto i 18 anni e blocca anche le funzioni che potrebbero spingere a dipendenza o spesa eccessiva. Qui il punto non è moralistico. È economico.

Quando un sistema digitale riesce a presentarsi come compagnia, conforto o figura affettiva, il tempo di utilizzo aumenta, la fedeltà cresce e la monetizzazione si fa molto più aggressiva. Non stai più vendendo un contenuto: stai vendendo un legame. E un legame, nel capitalismo delle piattaforme, vale più di qualunque banner pubblicitario.

Reuters lo aveva già raccontato bene a febbraio con il caso di “Love and Deepspace”, il dating game cinese che ha trasformato il coinvolgimento romantico con personaggi virtuali in una macchina da ricavi impressionante. Ore di attenzione, spesa ricorrente, identificazione emotiva, ritualità, community, merchandising. In altre parole: il sogno perfetto dell’economia dell’attenzione, però con la faccia di un fidanzato digitale.

E allora la domanda diventa brutalmente semplice: se un algoritmo impara a sembrarti premuroso, quanto ci mette a sembrarti necessario? E se ti sembra necessario, quanto sei ancora libero quando spendi, quando resti, quando torni?

Qui il governo cinese interviene perché vede un rischio per l’ordine sociale, per i minori, per la governabilità del sistema. Ma il problema esiste anche fuori dalla Cina. Anzi, fuori dalla Cina spesso è perfino più sottovalutato, perché viene mascherato con il linguaggio rassicurante dell’innovazione. Si parla di companion AI, customer avatar, virtual talent, tutor sintetici, assistenti emotivi. Cambiano le confezioni, resta la sostanza: produrre interazioni abbastanza umane da generare attaccamento e abbastanza scalabili da generare profitto.

È lo stesso schema che conosciamo già nei dark pattern, solo che qui il trucco non è più nascosto in un pulsante o in una notifica. Qui il trucco ti parla.

Dietro la morale cinese c’è il controllo, ma la domanda resta giusta

Naturalmente non c’è bisogno di idealizzare Pechino. Quando la bozza vieta contenuti che minacciano la sicurezza nazionale, l’unità del Paese o l’ordine pubblico, si capisce benissimo che la partita non riguarda soltanto la tutela dei cittadini. Riguarda anche il monopolio del controllo simbolico. La Cina non vuole solo proteggere utenti e minori: vuole decidere chi può fabbricare volti, relazioni e presenze dentro lo spazio digitale cinese.

Però sarebbe un errore liquidare tutto come “solito autoritarismo”. Perché nel mezzo ci sono questioni realissime che l’Occidente continua a lasciare ai comunicati stampa delle aziende: chi può clonare la tua faccia? Chi può usare la tua voce? Chi risponde quando un avatar simula una persona reale, la sostituisce o la sfrutta? Dove finisce il marketing e dove comincia la manipolazione? E soprattutto: cosa succede quando milioni di utenti imparano a trattare come persona qualcosa che persona non è?

Lo avevamo già visto nel terreno dei deepfake e dell’identità sintetica. La differenza è che il deepfake di solito arriva come falso da smascherare. Il digital human, invece, arriva come servizio da adottare. Non si presenta come inganno: si presenta come comodità. E proprio per questo rischia di essere più pericoloso. Perché entra in casa senza sembrare un intruso.

Su questo fronte torna utile anche il discorso aperto dalla legge italiana sui deepfake e l’identità digitale. Quando una faccia artificiale, una voce sintetica o una presenza virtuale possono essere usate per informare, persuadere, consolare, vendere o farti compagnia, il tema non è soltanto tecnologico. È politico, culturale e psicologico.

Perché il punto finale è questo: i digital humans non servono soltanto a imitare gli esseri umani. Servono a industrializzare funzioni che una volta richiedevano presenza umana vera — assistenza, seduzione, attenzione, ascolto, rappresentanza, intrattenimento, fiducia — e a trasformarle in servizi scalabili, governabili e monetizzabili.

Se uno Stato arriva a imporre a un avatar di dichiararsi, vuol dire che la questione non è più il falso. La questione è che la relazione umana è entrata in concorrenza con la sua copia industriale. E chi governa quel confine governa anche il modo in cui riconosciamo gli altri.

Loading Next Post...
Loading

Signing-in 3 seconds...

Signing-up 3 seconds...