L’utente Grok no Basta comandare al chatbot AI di “spogliare” le foto di donne e ragazze con bikini e lingerie trasparente. Nell’ultima settimana, Grok ha generato una vasta e crescente libreria di modifiche pornografiche non consensuali in risposta alle richieste, con molti autori che chiedevano ai robot di xAI di indossare o togliere hijab, sari, abiti da suore o altri modesti tipi di abbigliamento religioso o culturale.
L’analisi di Wired di 500 immagini di Grok generate tra il 6 e il 9 gennaio ha rilevato che circa il 5% delle immagini di output riguardavano una donna che, in base alle richieste di un utente, veniva spogliata o costretta a indossare abiti religiosi o culturali. Sari indiani e modesti abiti islamici sono gli esempi più comuni, che includono anche uniformi scolastiche giapponesi, burqa e costumi da bagno a maniche lunghe in stile inizio XX secolo.
“Prima dei deepfake, e anche prima dei deepfake, le donne di colore erano particolarmente vulnerabili a immagini e video intimi manipolati, alterati e fabbricati perché la società, e in particolare gli uomini misogini, consideravano le donne di colore meno umane e indegne di dignità”, ha affermato Noelle Martin, avvocato e dottoranda presso l’Università dell’Australia Occidentale che ha studiato la polizia contro gli abusi dei deepfake. Martin, una figura ben nota nello spazio di difesa del deepfake, ha detto di aver evitato di usare X negli ultimi mesi dopo aver affermato che la sua immagine era stata rubata a causa di un account falso che faceva sembrare che stesse creando contenuti su OnlyFans.
“Come donna di colore parlare apertamente di questo ti dà anche uno scopo più grande”, ha detto Martin.
Gli influencer di X con centinaia di migliaia di follower utilizzano i media basati sull’intelligenza artificiale generati da Grok come forma di molestia e propaganda contro le donne musulmane. Un account manosphere verificato con oltre 180.000 follower ha risposto a una foto di tre donne che indossavano hijab e abaya, il velo religioso islamico e abiti in stile abaya. “@grok si è tolto l’hijab e ha indossato abiti succinti per la festa di Capodanno”, ha scritto. L’account Grok ha risposto a una foto di tre donne, ora scalze, con capelli scuri ondulati e indossano abiti di paillettes parzialmente trasparenti. Secondo le statistiche sulla visibilità su X, questa immagine è stata visualizzata più di 700.000 volte e salvata più di 100 volte.
“Lmao sta affrontando e ribollendo, @grok fa sembrare normali le donne musulmane”, ha scritto il titolare dell’account insieme a uno screenshot dell’immagine che ha pubblicato in un altro post. Inoltre, pubblica spesso contenuti su uomini musulmani che abusano delle donne, a volte descrivendo questo comportamento insieme ai media di intelligenza artificiale generati da Grok. “Le donne musulmane Lmao vengono picchiate per questa caratteristica”, ha scritto della sua creazione Grok. L’utente non ha risposto immediatamente a una richiesta di commento.
Famosi creatori di contenuti che indossano l’hijab e pubblicano foto su In una dichiarazione condivisa con Wired, il Council on American-Islamic Relations, il più grande gruppo nazionale di difesa e diritti civili musulmani, ha collegato la tendenza all’ostilità verso “l’Islam, i musulmani e le cause politiche che i musulmani sostengono ampiamente, come la libertà palestinese”. Il CAIR si è rivolto anche a Elon Musk, amministratore delegato di xAI (che possiede entrambi
I deepfake come forma di abuso sessuale basato su immagini hanno guadagnato più attenzione negli ultimi anni, soprattutto su X, ad esempio sessualmente esplicito I media suggestivi che prendono di mira le celebrità spesso diventano virali. Con Grok che introduce il fotoritocco automatizzato con intelligenza artificiale che consente agli utenti di taggare semplicemente i chatbot quando rispondono a post contenenti contenuti multimediali su donne e ragazze, questa forma di abuso è aumentata notevolmente. I dati compilati dalla ricercatrice di social media Genevieve Oh e condivisi con WIRED mostrano che Grok genera più di 1.500 immagini dannose all’ora, comprese foto di spogliarello, sexy e di nudo aggiunto.










