
TikTok ha ospitato ads per app AI che promettevano di spogliare le persone nelle foto: il caso rivela come la moderazione spesso arrivi solo dopo.
TikTok ha ospitato decine di inserzioni per app AI che promettevano di “spogliare” le persone nelle foto o creare deepfake sessualizzati. Dopo la segnalazione di Business Insider, la piattaforma ha rimosso gli annunci e bannato alcuni account. Bene. Ma la notizia vera è un’altra: la moderazione delle piattaforme continua a funzionare soprattutto dopo che qualcuno le mette con le spalle al muro.
Secondo un’indagine di Copyleaks citata da Business Insider, tra dicembre 2025 e febbraio 2026 sono passati su TikTok più di 50 annunci sessualmente allusivi per app e siti che spingevano la creazione di immagini deepfake. Non stiamo parlando di una falla marginale. Stiamo parlando di un piccolo mercato pubblicitario che ha trovato spazio dentro una piattaforma che, sulla carta, vieta esattamente questo tipo di contenuti.
Ogni volta che emerge un caso simile, la piattaforma risponde con il repertorio standard: policy severe, violazione delle regole, contenuti rimossi, account sospesi. Tutto giusto. Ma resta la domanda più scomoda: com’è possibile che un ecosistema di inserzioni così esplicito riesca a passare i filtri e a comprare visibilità?
Qui non basta dire “è difficile moderare su larga scala”. Certo che lo è. Ma quando il problema riguarda prodotti che sfruttano la sessualizzazione non consensuale come leva di acquisizione utenti, non siamo davanti a un semplice errore di classificazione. Siamo davanti a un modello che tende a reagire dopo, perché prima ha un incentivo a lasciar correre finché il danno reputazionale non supera il vantaggio commerciale.
Chi segue Terza Pillola sa che questi meccanismi non nascono nel vuoto. C’entrano il modo in cui TikTok distribuisce l’attenzione, il design delle app costruite per trattenerti e il terreno normativo che proviamo a leggere anche quando parliamo di deepfake e identità digitale. La tecnologia cambia in fretta, gli incentivi delle piattaforme molto meno.
Business Insider racconta inserzioni per app come Soulove, Movely e POPGO, con messaggi costruiti per promettere trasgressione, assenza di filtri e manipolazione del corpo altrui come forma di intrattenimento. Il punto decisivo è che oggi non servono più competenze alte per produrre contenuti di questo tipo. La generative AI abbassa la soglia tecnica e amplia il mercato potenziale dell’abuso.
Questa democratizzazione non ha niente di liberatorio. Rende solo più scalabile una pratica tossica che esisteva già, ma che ora può essere impacchettata come feature. Il risultato è la banalizzazione del non consenso: trasformato in servizio, pubblicizzato con tono giocoso, venduto come trucco da smanettoni o come divertimento maschile a basso costo.
La piattaforma, nel frattempo, continua a presentarsi come ambiente sicuro e regolato. E forse lo è rispetto a molte forme di contenuto visibile all’utente medio. Ma il mercato pubblicitario racconta spesso una verità più sincera della vetrina pubblica. Se compri distribuzione, provi messaggi aggressivi, testi ambigui, promesse borderline e vedi cosa passa, stai testando i limiti reali del sistema, non quelli dichiarati.
Questi strumenti non vendono solo immagini modificate. Vendono un’abitudine mentale: l’idea che il corpo dell’altro sia materiale disponibile, che il consenso sia un dettaglio e che l’AI sia interessante soprattutto quando permette di oltrepassare limiti che una società civile dovrebbe difendere.
La storia, quindi, non riguarda soltanto TikTok. Riguarda l’ecosistema intero che premia ciò che cattura, eccita, sciocca e converte. Finché una funzione tossica genera clic, download o inserzionisti, il sistema tende a considerarla un problema secondario. Diventa centrale solo quando arriva l’inchiesta, la pressione pubblica o il rischio regolatorio.
Le piattaforme non scoprono davvero il problema quando l’abuso compare. Lo scoprono quando quell’abuso smette di essere redditizio e comincia a costare troppo in reputazione.
Fonti: Business Insider; Copyleaks.