
Le estate usano strumenti AI come Loti per fermare deepfake, cloni digitali e abusi su volti e voci celebri nell’era dei video generativi.
La storiella era questa: l’intelligenza artificiale avrebbe democratizzato la creatività.
Tutti registi, tutti autori, tutti artisti, tutti demiurghi con un prompt in mano. Poi, come sempre, è arrivata la realtà a rovinare la festa. E la realtà dice che quando metti in circolazione macchine capaci di clonare volti, voci, posture e presenze simboliche con una facilità crescente, non stai soltanto “aprendo nuove possibilità creative”. Stai aprendo un supermercato dell’identità.
Il caso Sora ha avuto almeno il merito della chiarezza. Ha tolto il trucco a un’ipocrisia che il settore continuava a raccontarsi da solo. Bastava guardare cosa succedeva con le figure storiche, con i personaggi pubblici, con i morti celebri. Martin Luther King Jr. trasformato in materia sintetica. Robin Williams ridotto a pupazzo digitale da far circolare in rete. E tutto questo mentre l’industria si rifugiava nella solita formula da azzeccagarbugli tecnologici: libertà creativa, strumenti neutrali, uso responsabile. Certo. Come no.
Il punto non è che qualche utente abbia esagerato. Il punto è che il sistema è costruito per rendere l’abuso una conseguenza fisiologica. Quando una piattaforma consente di generare copie credibili di volti e voci, non bisogna stupirsi se qualcuno supera il confine. Bisogna chiedersi chi ha deciso di costruire il confine in quel modo, e soprattutto chi trae vantaggio da quella zona grigia in cui tutto è possibile finché qualcuno non urla abbastanza forte.
È in questo vuoto che si inserisce la mossa più interessante degli ultimi mesi: le estate e i gestori dei diritti postumi hanno cominciato a usare altra AI per difendersi dall’AI. Non è una trovata narrativa. È il nuovo mercato della sopravvivenza reputazionale. L’accordo fra Loti AI e CMG Worldwide dice esattamente questo: la memoria non si difende più solo con gli avvocati, ma con software che scansionano la rete, riconoscono facce, voci, impersonazioni, usi commerciali abusivi e contenuti manipolati, e avviano richieste di rimozione su scala industriale.
CMG non è un nome secondario messo lì per fare arredamento. È una delle strutture storiche nella gestione di diritti, licensing e legacy di celebrità vive e morte. In altre parole: gente che ha capito da tempo che l’identità, nel capitalismo digitale, non è solo una questione morale. È un bene economico, un campo di battaglia legale, una rendita simbolica da proteggere. Se un soggetto del genere decide di affiancarsi a una società come Loti, il messaggio è semplice: il problema non è teorico, non è futuro, non è “da osservare”. È già abbastanza grave da giustificare una filiera di difesa permanente.
Loti, dal canto suo, non si presenta come il giocattolino anti-deepfake della settimana. Si vende come infrastruttura di sorveglianza e rimozione. Monitoraggio continuo, individuazione di contenuti reali o AI-generated, riconoscimento di volto e voce, rilevamento di false sponsorizzazioni, impersonazioni, violazioni contrattuali, uso improprio di brand e likeness. È una specie di contro-polizia dell’identità digitale, costruita per un’epoca in cui la reputazione può essere clonata, sporcata, sessualizzata, svenduta o monetizzata in poche ore.
Qui si arriva al cuore del problema. Il settore AI ha cercato di vendere per mesi la logica dell’opt-out come se fosse una soluzione civile. Tradotto: noi rendiamo possibile quasi tutto, poi eventualmente tu vieni a dirci che il tuo volto, la tua voce o la memoria di tuo padre morto non devono essere usati. È una logica rovesciata, ed è difficile non notarlo. In qualsiasi altro settore una cosa del genere verrebbe chiamata per quello che è: scaricare sui danneggiati il costo del controllo.
Il paradosso è che lo stesso mercato si sta correggendo non grazie a un’improvvisa illuminazione etica dei produttori di modelli, ma perché i detentori dei diritti hanno deciso di organizzarsi. OpenAI oggi insiste molto di più sul consenso, sui personaggi creati dall’utente, sulle restrizioni per le persone reali e sulle guardrail rafforzate. Bene. Meglio tardi che mai. Ma il punto resta: se hai bisogno di aggiungere freni sempre più rigidi dopo che il sistema è già stato lanciato, significa che non avevi costruito uno strumento innocuo. Avevi costruito uno strumento potente, e speravi che gli utenti si comportassero meglio delle sue possibilità.
È la vecchia favola della neutralità tecnologica. La macchina non c’entra, dipende dall’uso. Giusto. Peccato che certi modelli vengano progettati, promossi e distribuiti precisamente per rendere facile, rapido e attraente ciò che prima era costoso, lento o artigianale. E se prima falsificare in modo credibile una persona richiedeva competenze, tempo e soldi, oggi sempre più spesso richiede solo interfacce amichevoli, computazione e nessun senso del limite.
La parte più interessante, e più sinistra, è che sta nascendo un’economia della bonifica. Prima arrivano i generatori. Poi gli abusi. Poi le startup che promettono di rintracciarli e rimuoverli. Poi le agenzie che integrano queste tecnologie nella gestione ordinaria delle celebrity estate. Il ciclo è già completo. E ci racconta qualcosa di molto preciso sul presente: non stiamo entrando in un mondo dove la memoria sarà rispettata di più. Stiamo entrando in un mondo dove la memoria sarà continuamente aggredita e poi difesa come servizio premium.
Chi ha una struttura forte alle spalle può reagire. Chi ha un’eredità commerciale, legale e mediatica può pattugliare la rete. Chi non ce l’ha, molto meno. Anche questo conta. Perché nella retorica dell’AI “democratica” c’è sempre questa omissione elegante: i costi veri della difesa non sono distribuiti democraticamente. I potenti si blindano. Gli altri si arrangiano. Vale per i vivi, figuriamoci per i morti.
Ed è qui che il discorso tocca qualcosa di più profondo della semplice controversia tecnologica. Quando una società accetta che il volto di una persona morta possa diventare materia sintetica finché qualcuno non interviene a fermare il processo, quella società sta già spostando il confine di ciò che considera tollerabile. Non riguarda solo il copyright. Non riguarda solo la publicity right. Riguarda la nostra disponibilità ad accettare che l’essere umano venga scomposto in attributi ricombinabili: faccia, voce, tono, gesto, aura pubblica. Tutto estraibile, tutto replicabile, tutto commerciabile.
Su rischi e limiti dell’intelligenza artificiale il punto era già evidente: i modelli non producono solo efficienza, producono anche nuove asimmetrie di potere. E nel terreno dei deepfake questo squilibrio si vede benissimo. La capacità di falsificare scala più in fretta della capacità di proteggere. La produzione corre. La tutela rincorre.
Per questo la partnership fra Loti e CMG è più di una notizia di settore. È un sintomo storico. Segna il momento in cui la gestione della legacy smette di essere solo amministrazione del passato e diventa difesa attiva nel presente digitale. Non basta più custodire un archivio, concedere licenze o impedire usi commerciali banali. Adesso bisogna presidiare il feed, le piattaforme, i marketplace, i video sintetici, le false ads, le voci clonate, i volti sporcati, le identità spostate altrove.
Il tema, allora, non è se questa reazione sia giusta. Lo è. Il tema è che arriva dentro un ecosistema che ha già deciso di trattare l’identità come una risorsa disponibile salvo eccezioni. E questa è la vera bestemmia industriale del nostro tempo: non la singola parodia cretina, non il singolo deepfake osceno, ma il principio secondo cui la persona diventa materiale processabile finché qualcuno non dimostra il contrario.
Per capire dove porta questa deriva, basta guardare il nodo più ampio della regolazione dei deepfake e dell’identità digitale. La politica arranca, il diritto arriva a macchie, le piattaforme correggono dopo il danno, e nel frattempo cresce un intero settore che monetizza la riparazione. Non è un effetto collaterale. È la forma che prende il potere quando la tecnologia corre più veloce delle regole e dell’etica.
Se servono algoritmi per difendere i morti dagli algoritmi, il problema non è più la singola piattaforma impazzita. Il problema è un sistema che ha già cominciato a trattare la memoria umana come territorio estraibile, sfruttabile e negoziabile.