Una nuova class action applicato lunedì Un rapporto presentato da tre ragazze adolescenti e dai loro tutori sostiene che xAI di Elon Musk ha creato e distribuito materiali di abusi sessuali su minori con i loro volti e somiglianze con la tecnologia AI di Grok.
“Le loro vite sono state sconvolte dalle devastanti perdite di privacy, dignità e sicurezza personale causate dalla produzione e diffusione di questo materiale pedopornografico”, si legge nella richiesta. “Il guadagno finanziario di xAI derivante dal maggiore utilizzo del suo prodotto per la creazione di immagini e video è andato a loro discapito e prosperità.”
Da dicembre all’inizio di gennaio, Grok ha consentito a molti utenti di social media AI e X di creare immagini intime non consensuali generate dall’intelligenza artificiale, a volte note come deepfake porno. Riporta le previsioni Grok ha scoperto che i suoi utenti hanno creato 4,4 milioni di foto “nude” o “nude” in un periodo di nove giorni, pari al 41% del numero totale di foto create.
X, xAI e i dipartimenti per la sicurezza e la sicurezza dei bambini non hanno risposto immediatamente a una richiesta di commento.
Un’ondata di immagini “svestite” ha suscitato indignazione in tutto il mondo. La Commissione Europea ha avviato rapidamente un’indagine, mentre Malesia e Indonesia hanno bandito X all’interno dei loro confini. Alcuni rappresentanti del governo degli Stati Uniti hanno chiesto ad Apple e Google di rimuovere l’app dai loro app store per aver violato le loro politiche, ma non è stata aperta alcuna indagine federale su X o xAI. È stata inoltre intentata un’azione legale collettiva simile e separata. archiviato (PDF) Di una donna della Carolina del Sud alla fine di gennaio.
La tendenza disumanizzante ha evidenziato quanto siano capaci i moderni strumenti di imaging dell’intelligenza artificiale nel creare contenuti dall’aspetto realistico. La nuova denuncia paragona la progenie di Grok dell’autoproclamata “IA piccante” alle “arti oscure” per la facilità con cui sottopongono i bambini a “qualsiasi posa, non importa quanto malata, non importa quanto feticizzata, non importa quanto illegale”.
“Allo spettatore, il video risultante appare completamente reale. Per il bambino, le sue caratteristiche distintive saranno ora per sempre legate a un video che raffigura l’abuso sessuale di suo figlio”, si legge nella denuncia. La dichiarazione è inclusa.
La denuncia afferma che xAI era colpevole perché non ha utilizzato guardrail standard del settore per impedire agli sfruttatori di creare questo contenuto. XAI ha concesso in licenza l’uso della sua tecnologia a società terze all’estero, che hanno venduto abbonamenti che hanno portato gli autori di abusi a creare immagini di abusi sessuali su minori che includevano i volti e le sembianze delle vittime. La denuncia sostiene che le richieste avvengono attraverso i server di xAI, il che rende responsabile la società.
La causa è stata intentata da tre Jane Does, ai cui adolescenti sono stati dati pseudonimi per proteggere la loro identità. Jane Doe 1 è stata avvisata per la prima volta da un messaggio anonimo su Instagram all’inizio di dicembre che il suo materiale sessuale abusivo generato dall’intelligenza artificiale stava circolando online. Nella domanda si precisa che l’utente anonimo di Instagram con cui è stato condiviso il materiale gli ha menzionato un server Discord. Ciò ha portato Jane Doe 1 e la sua famiglia, e infine le forze dell’ordine, a trovare e arrestare un autore del reato.
Le indagini in corso hanno portato le famiglie di Jane Does 2 e 3 a scoprire che le immagini dei loro figli erano state trasformate in materiale offensivo utilizzando la tecnologia xAI.
Link alla fonte: www.cnet.com
