
SAG-AFTRA appoggia il piano AI di Trump: al centro il controllo su voce, volto e identità digitale. La battaglia contro i cloni è appena iniziata.
L’intelligenza artificiale ha superato una soglia: non si limita più a generare contenuti, ma replica persone. Volti, voci, presenza.
È da qui che bisogna partire per capire perché SAG-AFTRA, il potente sindacato degli attori americani, abbia scelto di sostenere il nuovo National Policy Framework for Artificial Intelligence promosso dalla Casa Bianca. Una scelta che, letta male, sembra politica. Letta bene, è economica, culturale e perfino antropologica.
Il framework pubblicato dall’amministrazione Trump punta a una linea molto chiara: meno frammentazione normativa tra gli Stati, più cornice federale, più spazio all’innovazione e, allo stesso tempo, una protezione specifica contro l’abuso delle digital replica.
Nel testo si sostiene che il Congresso dovrebbe creare un quadro federale per proteggere gli individui dall’uso o dalla distribuzione non autorizzata di repliche AI di voce, immagine e altri attributi identificabili, mantenendo però eccezioni per satira, parodia, cronaca e altre forme di espressione tutelate dal Primo Emendamento.
La posizione di SAG-AFTRA è semplice: le performance umane non sono materia prima gratuita. Non sono file da raschiare, catalogare, scomporre e rimettere in circolo come se il lavoro artistico fosse solo un giacimento da sfruttare.
È il cuore della questione. Quando un modello impara da film, voci, volti e gesti, non sta attingendo da un vuoto neutrale. Sta entrando in un archivio costruito da persone reali, con corpi reali, contratti reali e carriere reali. Per questo il sindacato appoggia anche il NO FAKES Act, la proposta bipartisan che punta a creare una tutela federale contro le repliche digitali non autorizzate.
Qui il punto interessante è che non siamo davanti a una crociata luddista. Nessuno sta dicendo “fermiamo l’AI”. Si sta dicendo qualcosa di molto più concreto: se vuoi usare l’identità umana, devi pagare, negoziare e ottenere consenso. È la differenza tra innovazione e saccheggio.
Su cos’è davvero l’AI generativa il problema era già evidente: questi sistemi sembrano creare dal nulla, ma in realtà ricombinano enormi quantità di contenuti preesistenti. E quando il contenuto preesistente è una persona riconoscibile, la faccenda smette di essere astratta.
Il framework della Casa Bianca sostiene anche che le dispute sull’addestramento dei modelli su opere protette da copyright debbano essere lasciate ai tribunali, senza una nuova legge scritta apposta dal Congresso. È una posizione che piace alle aziende tecnologiche perché evita, almeno per ora, un irrigidimento legislativo diretto sul training dei modelli. Ma allo stesso tempo apre una contraddizione vistosa.
Da una parte si dice: proteggiamo gli individui dai cloni digitali. Dall’altra si lascia aperta la porta su come i modelli continuano a nutrirsi di opere, archivi, immagini, testi e performance. In pratica il sistema sembra voler dire: puoi discutere l’uso finale del clone, ma sul processo che lo rende possibile ci penseranno i giudici.
È proprio qui che il tema tocca qualcosa di più profondo, che su Terza Pillola abbiamo già affrontato parlando dei rischi reali dell’intelligenza artificiale e della nuova legge italiana sui deepfake e l’identità digitale: il problema non è soltanto la falsificazione. È il fatto che l’essere umano venga progressivamente trattato come una libreria di asset riutilizzabili.
Secondo l’Associated Press, il piano federale punta anche a preemptare le leggi statali considerate troppo onerose, nel tentativo di evitare un mosaico normativo che rallenti la corsa americana all’AI. Ed è qui che si capisce la logica di fondo: non frenare l’industria, ma ridurre il caos e blindare alcuni confini minimi. Tra questi, almeno in teoria, c’è il diritto a non essere copiati senza permesso.
Il problema è che quando la priorità politica diventa “accelerare”, la tutela della persona rischia sempre di arrivare dopo.