7 ottobre Un account TikTok chiamato @fujitiva48 ha posto una domanda provocatoria nel loro ultimo video. “Cosa ne pensi di questo nuovo giocattolo per bambini?” hanno chiesto a più di 2.000 spettatori, che si sono imbattuti in uno spot televisivo apparentemente parodia. La risposta è stata chiara. “Ehi, non è divertente”, ha scritto una persona. “Chiunque abbia causato tutto questo dovrebbe essere indagato.”
È facile capire perché il video abbia suscitato una reazione così forte. La falsa pubblicità inizia con una ragazzina realistica che tiene in mano un giocattolo: rosa e scintillante, con un calabrone decorato sul manico. È una penna, ci viene detto, e la ragazza e altre due persone stanno scarabocchiando sul foglio mentre la voce fuori campo di un maschio adulto racconta. Ma è chiaro che il design floreale dell’oggetto, la capacità di ronzare e il nome – Vibro Rose – assomigliano molto a un sex toy. Un pulsante “Aggiungi il tuo” – una funzionalità di TikTok che incoraggia le persone a condividere video sui loro feed che dice “Sto usando il mio giocattolo con la rosa” – rimuove anche il più piccolo barlume di dubbio. (WIRED ha contattato l’account @ fujitiva48 per un commento ma non ha ricevuto risposta.)
La clip incriminata è stata creata utilizzando l’ultimo generatore video di OpenAI, Sora 2, originariamente rilasciato solo su invito negli Stati Uniti 30 settembre. In una sola settimana, video come la clip di Vibro Rose sono stati migrati da Sora alla pagina For You di TikTok. Alcuni altri annunci falsi erano ancora più espliciti, e Wired ha trovato diversi account che pubblicavano video simili a quelli generati da Sora 2, con giochi acquatici a forma di rosa o fungo e decoratori di torte che spruzzavano “latte appiccicoso”, “schiuma bianca” o “melma” su immagini realistiche di bambini.
In molti paesi, quanto sopra costituirebbe motivo di indagine se si trattasse di bambini veri piuttosto che di inclusione digitale. Ma la legge relativa ai contenuti fetish generati dall’intelligenza artificiale che coinvolgono minori rimane oscura. Nuovi dati per il 2025 provengono da Fondazione Internet Watch Il Regno Unito ha osservato che le segnalazioni di materiale pedopornografico generato dall’intelligenza artificiale (CSAM) sono raddoppiate in un anno, da 199 casi tra gennaio e ottobre 2024 a 426 nello stesso periodo del 2025. Il 56% dei contenuti rientra nella categoria A – la categoria più grave del Regno Unito che coinvolge sesso penetrativo, sesso con animali o sadismo – e il 94% delle immagini illegali di intelligenza artificiale monitorate dall’IWF riguardavano ragazze. (Sora non sembra generare alcun contenuto di Classe A.)
“Spesso vediamo somiglianze di bambini veri mercificati per creare immagini di nudo o sessuali e, soprattutto, vediamo l’intelligenza artificiale utilizzata per creare immagini di ragazze. Questo è un altro modo in cui le ragazze vengono prese di mira online”, ha detto a Wired Kerry Smith, CEO dell’IWF.
Un afflusso di materiale pericoloso generato dall’intelligenza artificiale ha spinto il Regno Unito a introdurre un Nuovi emendamenti al disegno di legge sulla criminalità e la poliziache consentirà ai “tester autorizzati” di verificare se lo strumento AI non è in grado di generare materiale CSAM. Come riporta la BBC, l’emendamento garantirà che le modelle abbiano protezione contro determinate immagini, in particolare immagini intime estremamente pornografiche e non consensuali. 45 stati negli Stati Uniti hanno promulgato leggi Criminalizzazione del materiale pedopornografico generato dall’intelligenza artificialesoprattutto negli ultimi due anni, poiché i generatori di intelligenza artificiale continuano ad evolversi.
OpenAI, il creatore di Sora 2, ha adottato misure per evitare che i volti dei giovani vengano incollati su deepfake pornografici. L’applicazione, che consente agli utenti di registrare le proprie preferenze e incorporarle nel video generato (precedentemente denominata Cameo ma ora temporaneamente rinominata), opera sulla base del consenso e può essere revocata in qualsiasi momento. Esiste anche una regola che garantisce che i profili per adulti non possano inviare messaggi agli adolescenti. L’app vieta completamente i materiali pedopornografici e la politica di OpenAI afferma che la sua piattaforma “non può essere utilizzata per sfruttare, danneggiare o sessualizzare chiunque abbia meno di 18 anni”. OpenAI segnala qualsiasi materiale pedopornografico e pericolo per i minori al Centro nazionale per i bambini scomparsi e sfruttati.










