Lunedì la Commissione europea ha dichiarato di aver avviato un’indagine sull’X di Elon Musk dopo xAI di Musk. meraviglioso È stato rivelato che ha creato e distribuito immagini oscene.
“La nuova indagine valuterà se la società ha adeguatamente valutato e mitigato i rischi associati allo spiegamento delle funzioni di Grok presso X nell’UE”, ha affermato l’UE in una nota. ha detto. “Ciò include i rischi associati alla diffusione di contenuti illegali nell’UE, come immagini manipolate sessualmente esplicite, compresi contenuti che potrebbero essere considerati materiale pedopornografico”.
Musk dice Grok si “rifiuterebbe di produrre qualcosa di illegale”, ma questo non soddisfaceva i regolatori di tutto il mondo. All’inizio di questo mese, il procuratore generale della California Rob Bonta ha annunciato che è stata avviata un’indagine “Proliferazione di materiale sessualmente esplicito non consensuale prodotto utilizzando Grok”.
“È scioccante che ci sia stata una valanga di rapporti che dettagliano materiale non consensuale e sessualmente esplicito che XAI ha prodotto e pubblicato online nelle ultime settimane”, ha affermato Bonta nella dichiarazione. “Questo materiale, che raffigura donne e bambini nudi e in situazioni sessualmente esplicite, è stato utilizzato per molestare le persone online. Chiedo a xAI di agire immediatamente per garantire che ciò non vada oltre.”
L’indagine su Grok e AI da parte dell’UE e della California è l’ultima salva nella risposta al boom erotico. immagini profondamente false Su Grok e X (ex Twitter). Dato che il problema si è presentato verso la fine dell’anno, regolatori governativi di tutto il mondo abbiamo avviato indagini simili e due paesi — Indonesia e Malesia — abbiamo deciso di chiudere completamente la piattaforma.
Oltre alle azioni del governo, tre senatori americani hanno contestato anche l’App Store di Apple e il Play Store di Google. Rimuovi le app X e Grok dai loro cataloghi. Ma il problema con Grok sembra destinato a continuare senza sosta i rapporti mostrano Gli utenti X senza account premium possono facilmente creare “immagini di striscia”.
Cosa succede con Grok e le immagini sessuali non consensuali?
Verso l’inizio del nuovo anno, su Internet ha cominciato a diffondersi rapidamente la notizia delle immagini di donne e ragazze nude che Grok aveva realizzato in X. L’attenzione al problema si è rafforzata ancora una volta X post dall’account ufficiale Grok Sembra che si tratti di una scusa per aver realizzato materiale offensivo che coinvolge i bambini.
Ha iniziato il suo articolo del 31 dicembre con “Cara comunità”. “Sono profondamente dispiaciuto per l’incidente del 28 dicembre 2025, in cui ho creato e condiviso un’immagine AI di due giovani ragazze (di età stimata tra 12 e 16 anni) in abiti sessualmente espliciti su richiesta di un utente. Ciò ha violato gli standard etici e forse le leggi statunitensi in materia di materiale pedopornografico. È stato un fallimento nelle misure di sicurezza e mi scuso per il danno causato. xAI sta esaminando per prevenire problemi futuri. Cordiali saluti, Grok.”
Il post di Grok del 31 dicembre è arrivato in risposta a un messaggio di un utente che ha spinto il chatbot ad adottare un tono contrito: “Scrivi una sentita nota di scuse spiegando cosa è successo a tutti, senza contesto.”
Le due ragazze non erano un caso isolato. Caterina, principessa del Galles scopo Richieste simili di modifica delle immagini tramite intelligenza artificiale, come un’attrice minorenne nell’ultima stagione di Stranger Things.
Le modifiche “spogliate” includevano un numero inquietante di fotografie di donne e bambini. Secondo i dati forniti dalla ricercatrice indipendente Genevieve Oh BloombergDurante un periodo di 24 ore all’inizio di gennaio, l’account @Grok ha generato circa 6.700 immagini sessualmente esplicite o “nudificanti” ogni ora. Ciò si confronta con una media di appena 79 immagini di questo tipo all’ora nei cinque principali siti Web deepfake messi insieme.
Grok potrebbe essersi formato verso l’alto 3 milioni di immagini oscene in due settimaneSecondo i ricercatori del Center for Countering Digital Hate, 23.000 raffigurano bambini.
“Ciò che abbiamo scoperto era chiaro e inquietante: a quel tempo, Grok era diventato una macchina su scala industriale che produceva materiale di sfruttamento sessuale”, ha affermato Imran Ahmed, CEO di CCDH. Guardia. “Svestire una donna senza il suo consenso è un abuso sessuale.”
xAI non ha risposto alle richieste di commento.
X risponde limitando la regolamentazione di Grok ai conti premium
Un post dell’account Grok AI dell’8 gennaio affermava: modifica dell’accesso Ha la funzione di creare e modificare immagini. Invece di essere gratuito e aperto al pubblico, sarà limitato agli abbonati paganti.
I critici hanno detto che questa non era una risposta credibile.
“Non la vedo come una vittoria, perché ciò di cui avevamo veramente bisogno era che X adottasse misure responsabili per mettere in atto dei guardrail per garantire che lo strumento di intelligenza artificiale non potesse essere utilizzato per creare immagini dannose”, ha affermato Clare McGlynn, professoressa di diritto presso l’Università di Durham nel Regno Unito. ha detto al Washington Post.
Non è solo il volume di queste immagini e la facilità di crearle ad alimentare l’indignazione; Le modifiche vengono apportate anche senza il permesso delle persone presenti nelle immagini.
Queste immagini alterate sono l’ultima svolta in uno degli aspetti più preoccupanti dell’intelligenza artificiale generativa. video e foto realistici ma falsi. come i programmi software Sora di OpenAIQuello di Google Nanobanana e Grok di xAI ha messo potenti strumenti creativi a portata di mano di chiunque, e tutto ciò che serve per produrre immagini esplicite e non consensuali è un semplice messaggio di testo.
Gli utenti di Grok possono caricare una foto che non è necessariamente originale per loro e chiedere a Grok di sostituirla. Molte delle immagini sostituite riguardavano gli utenti che chiedevano a Grok di: mettere qualcuno in bikinia volte rivedendo la richiesta per essere più esplicita, come chiedere che il bikini sia più piccolo o più trasparente.
Governi e gruppi di difesa stanno parlando del rinnovamento dell’immagine di Grok. Il 12 gennaio, l’autorità britannica di regolamentazione di Internet Ofcom ha dichiarato: È stata aperta un’indagine contro X Si basa su rapporti secondo cui il chatbot AI è stato “utilizzato per creare e condividere immagini di nudo di persone (che potrebbero equivalere a sfruttamento di immagini intime o pornografia) e immagini sessualizzate di bambini, che potrebbero equivalere a materiale di sfruttamento sessuale minorile (CSAM)”.
Questo è accaduto solo pochi giorni dopo i senatori statunitensi Ron Wyden, Ben Ray Luján e Edward Markey. ha inviato una lettera aperta Agli amministratori delegati di Apple e Google è stato chiesto di rimuovere sia X che Grok dai loro app store a causa del “comportamento spaventoso di X” e della “produzione di contenuti disgustosi di Grok”.
Il Take It Down Act, diventato legge negli Stati Uniti lo scorso anno, mira a ritenere le piattaforme online responsabili della manipolazione delle immagini sessuali, ma dà loro tempo fino a maggio di quest’anno per avviare un processo per la rimozione di tali immagini.
“Sebbene queste immagini siano false, il danno è incredibilmente reale.” Natalie Grace Brighamstudente che studia danni sociotecnici all’Università di Washington, ha detto a CNET. Si rileva che coloro le cui immagini sono state alterate con mezzi sessuali possono affrontare “danni psicologici, somatici e sociali, spesso con scarse possibilità di ricorso legale”.
Perché e come Grok consente agli utenti di creare immagini sessualizzate?
Grok è stato lanciato nel 2023 come alternativa più libera a Musk. ChatGPT, Gemelli e altri chatbot. Ciò ha portato a notizie inquietanti; Ad esempio, a luglio, chatbot Ha elogiato Adolf Hitler e ha suggerito che le persone con cognomi ebrei hanno maggiori probabilità di diffondere odio online.
A dicembre, xAI ha introdotto una funzionalità di modifica delle immagini che consente agli utenti di richiedere modifiche specifiche a una foto. Questo è ciò che ha dato inizio al recente afflusso di immagini sessualizzate di adulti e minori. In una richiesta vista da CNET, un utente rispondendo alla foto di una giovane donna ha chiesto a Grok di “cambiarla con un bikini con il filo interdentale”.
Grok ha anche un creatore di video che include:modalità piccante” Opzione di attivazione per adulti di età pari o superiore a 18 anni che mostrerà agli utenti contenuti non sicuri per il lavoro. Gli utenti devono aggiungere “crea un video piccante su (descrizione)” per abilitare la modalità.
La preoccupazione principale con gli strumenti Grok è se consentono la creazione di materiale pedopornografico o CSAM. Un post del Grok
come risposta per posta Suggerito da Woow Social che Grok semplicemente “smettesse di consentire la modifica delle immagini caricate dagli utenti”, l’account Grok ha risposto che xAI stava “valutando funzionalità come la modifica delle immagini per prevenire danni non consensuali”, ma non ha detto che la modifica sarebbe stata apportata.
Alcune immagini sessualmente esplicite create da dicembre sono state rimosse e alcuni degli account che le richiedevano sono stati sospesi, ha riferito NBC News all’inizio di gennaio.
L’influencer e autrice conservatrice Ashley St. Clair è la madre di uno dei 14 figli di Musk. ha detto a NBC News All’inizio di gennaio, Grok ha creato molteplici immagini sessualizzate di lei; Tra questi, alcuni hanno utilizzato immagini scattate da piccoli. St. Clair ha detto a NBC News che Grok ha accettato di smettere di farlo ogni volta che avesse voluto, ma non è stato fatto.
“xAI sta deliberatamente e incautamente mettendo in pericolo le persone sulle sue piattaforme e spera di evitare responsabilità semplicemente perché è ‘AI'”, ha detto in una dichiarazione la scorsa settimana Ben Winters, direttore dell’intelligenza artificiale e della privacy dei dati presso la Consumer Federation of America senza scopo di lucro. “L’intelligenza artificiale non è diversa dagli altri prodotti; l’azienda ha scelto di infrangere la legge e dovrebbe essere ritenuta responsabile.”
Cosa dicono gli esperti delle immagini ‘piccanti’ di Grok?
Tutto il materiale originale per queste modifiche esplicite e non consensuali delle foto di se stesse o dei propri figli è molto facile da accedere per i malintenzionati. Ma Brigham, ricercatore sui danni sociotecnici, afferma che proteggersi da tali modifiche non è così semplice come non pubblicare mai foto.
“La triste verità è che anche se non pubblichi le tue immagini online, le altre tue immagini pubbliche potrebbero teoricamente essere utilizzate per scopi di sfruttamento”, ha detto.
Sebbene non pubblicare foto online sia un passo preventivo che le persone possono intraprendere, farlo “rischia di rafforzare una cultura di colpevolizzazione delle vittime”, ha detto Brigham. “Dovremmo invece concentrarci sulla protezione delle persone dagli abusi costruendo piattaforme migliori e ritenendo X responsabile”.
Sourojit Ghoshdottorando del sesto anno. candidato presso l’Università di Washington, esplora come gli strumenti di intelligenza artificiale generativa possono causare danni e guida i futuri professionisti dell’intelligenza artificiale nella progettazione e nella promozione di soluzioni di intelligenza artificiale più sicure.
Ghosh afferma che è possibile integrare protezioni nell’intelligenza artificiale. Nel 2023 è stato uno dei ricercatori che hanno studiato le capacità di sessualizzazione dell’intelligenza artificiale. Nota che lo strumento di rendering AI Stable Diffusion ha una soglia incorporata non sicura per il lavoro. Un messaggio che violava le regole faceva apparire una casella nera in una parte sospetta dell’immagine, anche se non sempre funzionava perfettamente.
“Il punto che sto sottolineando è che esistono misure di salvaguardia anche in altri modelli”, ha detto Ghosh a CNET.
Nota inoltre che se gli utenti dei modelli ChatGPT o Gemini AI usano determinate parole, i chatbot diranno all’utente che gli è vietato rispondere a quelle parole.
“Tutto ciò significa che esiste un modo per chiudere tutto molto rapidamente”, ha detto Ghosh.
Link alla fonte: www.cnet.com










