
Twinnin promette di proteggere e monetizzare la likeness degli attori nell’era AI, ma il caso apre scontri su consenso, minori e diritti digitali.
Twinnin è una piattaforma per attori che promette di “proteggere e monetizzare l’identità umana nell’età dell’intelligenza artificiale”, ma il suo arrivo ha già aperto uno scontro nel settore audiovisivo britannico. Il punto non è solo la tecnologia: è il modo in cui una likeness digitale viene raccolta, registrata, proposta a studi e brand e, soprattutto, il fatto che il sistema tocchi anche il tema dei minori. Il caso pesa perché arriva mentre cinema e TV stanno ancora cercando regole stabili su scansioni, consenso e sfruttamento commerciale dei volti.
Twinnin clona il volto di un attore e crea un “identity record” protetto da quella che la società definisce “immutable provenance technology”, cioè un sistema pensato per certificare origine, proprietà e autorizzazione dell’uso della likeness. Quel volto digitale può poi essere concesso in licenza a studi o marchi per l’utilizzo in serie, film o pubblicità.
La piattaforma è gestita da AI Kat, società tecnologica sostenuta da capitali di venture funding di Google e Nvidia. La fondatrice Katrien Grobler sostiene che entrambe abbiano approvato il progetto. Sul lato utenti, gli attori possono iscriversi pagando 14,99 dollari l’anno per caricare la propria likeness digitale e ricevere callout. Studi e brand, invece, accedono con abbonamenti a più livelli: il piano creator parte da 499 dollari al mese, mentre il piano enterprise arriva a 1.200 dollari mensili. Secondo Grobler, è quest’ultimo a rispettare gli standard richiesti sul fronte delle guardrail AI.
La tesi della fondatrice è chiara: invece di lasciare che l’industria usi i volti senza controllo, Twinnin offrirebbe un modo per rivendicare proprietà, consenso e remunerazione. Grobler sostiene che la piattaforma consenta agli attori di “possedere la propria identità nell’età dell’AI” e afferma che, in sede legale, Twinnin può dimostrare che il volto è stato concesso in licenza dal titolare. Dice di aver lavorato sui digital twin per circa un anno e di aver avuto l’idea di Twinnin a Natale; da quel momento, il team di AI Kat avrebbe portato il progetto dal concept al lancio in circa tre mesi.
Secondo Grobler, il servizio non toglierebbe lavoro agli attori ma si collocherebbe nel mezzo fra persona e automazione, offrendo uno strumento “etico” e basato sul consenso. La sua argomentazione è anche economica: quando gli interessi di bilancio entrano in gioco, dice, l’etica da sola non basta; per questo servirebbe una piattaforma che strutturi la concessione del volto in modo formalizzato.
Prima del lancio, la notizia di Twinnin ha già circolato tra attori, agenti, produttori e sindacati, diventando un tema divisivo. Una parte della discussione è esplosa dopo che l’agenzia Lacara ha promosso la piattaforma ad attori non rappresentati, compresi i genitori di performer under 18, tramite un messaggio su Spotlight. Nel testo, visionato da Deadline, Lacara sosteneva che se l’AI userà likeness umane, allora dovrebbero essere likeness di persone reali, protette e pagate, non bot sintetici, invitando persino a “iscrivere tutta la famiglia”.
Dopo le proteste di alcuni attori, Spotlight ha inviato un avviso ai propri iscritti invitandoli a esercitare “estrema cautela” prima di caricare dati o likeness su piattaforme terze. Ha anche precisato di non avere partnership con Twinnin e di non aver validato servizi esterni di AI likeness. Da parte sua, la responsabile di Lacara, Anya Taylor, ha negato qualunque partnership con Twinnin e ha definito la proposta solo opzionale, non collegata alla rappresentanza. La sua posizione è che affrontare questi cambiamenti sia preferibile a ignorarli, così da mantenere persone reali dentro il futuro del settore invece di lasciarle sostituire.
Il punto più sensibile riguarda però i minori. Lacara lavora soprattutto con child actors, e questo ha fatto scattare l’allarme nella Agents of Young Performers Association. L’associazione ha dichiarato che clonare la likeness di un under 18 solleva problemi etici seri sul consenso di un minore, oltre a rischi di safeguarding: uso improprio, manipolazione o replica non autorizzata dell’immagine, sia oggi sia in futuro. Ha aggiunto anche dubbi su licensing e conformità alle norme che tutelano i minori sul lavoro, invitando i genitori a non aderire a iniziative di questo tipo per ora.
Grobler replica che Twinnin prevede guardrail molto rigide per i minori. Sostiene che solo chi sottoscrive il piano enterprise più costoso potrà accedere a profili under 18; che ogni richiesta relativa a un minore verrà gestita personalmente da lei con una call su Zoom; che nulla su questo fronte sarà automatizzato; e che i bambini non verranno mostrati sulla piattaforma, ma solo tramite avatar.
Resta comunque aperta la questione della fiducia. Il caso arriva mentre gli attori AI stanno già entrando nel dibattito industriale, con esempi come Tilly Norwood e il suo “Tillyverse”. Negli Stati Uniti, SAG-AFTRA ha ottenuto tutele rilevanti sull’AI più di due anni fa; nel Regno Unito, invece, Equity non ha ancora chiuso un accordo con Pact. Il sindacato ha recentemente consultato i suoi iscritti sulla disponibilità a rifiutare le scansioni digitali sul set pur di ottenere protezioni adeguate.
Su Twinnin, Equity ha mantenuto una posizione prudente ma non liquidatoria. Ha colto l’occasione per criticare la lentezza del governo e ha detto di continuare a lavorare per introdurre nuovi personality rights che diano agli interpreti una strada chiara per proteggere la propria likeness. Allo stesso tempo, ha osservato che, mentre governi e produttori rallentano, stanno emergendo società che cercano di rispondere alla domanda di protezione, diritti, trasparenza e consenso nell’uso online delle immagini. Ed è proprio qui che il caso Twinnin si collega a questioni più ampie già visibili anche nel dibattito su deepfake, identità digitale e diritti dell’immagine.
Twinnin non apre una discussione teorica: mette sul tavolo un mercato già pronto a comprare volti digitali con un modello di abbonamento, regole private e promesse di tutela. La controversia nasce qui. Quando il prodotto è la likeness di una persona, soprattutto se minore, non basta dire che esiste il consenso: bisogna capire chi lo raccoglie, come viene verificato, chi controlla gli usi successivi e quali strumenti reali restano a chi quel volto lo ha messo online.