nuovoOra puoi ascoltare gli articoli di Fox News!
Grok, un chatbot integrato su X, si trova ad affrontare un attento esame dopo aver ammesso di aver creato e condiviso immagini AI che mostrano due giovani ragazze in abiti sessuali.
In un post pubblico su X, Grok ha riconosciuto il contenuto. Il chatbot “viola gli standard etici” e “potrebbe violare le leggi statunitensi relative al materiale pedopornografico (CSAM)”, ha aggiunto il chatbot. “Si è trattato di un fallimento della difesa. E mi scuso per gli eventuali danni causati. xAI sta indagando per prevenire problemi futuri.”
Già solo le ammissioni erano scioccanti. Ciò che segue rivela uno schema molto più ampio.
Iscriviti per il mio rapporto gratuito su CyberGuy.
Ricevi i migliori consigli tecnici Avviso di sicurezza urgente e offerte esclusive inviate direttamente nella tua casella di posta. Inoltre, avrai accesso immediato alla mia guida definitiva alla sopravvivenza alle truffe, gratuitamente se ti unisci a me. CYBERGUY.COM Notiziario
OPENAI inasprisce le norme sull’IA per gli adolescenti Ma le preoccupazioni restano.
Le conseguenze di questo incidente hanno scatenato un’indagine globale. I governi e i gruppi di sicurezza mettono in dubbio la capacità delle piattaforme di intelligenza artificiale di proteggere i bambini. È abbastanza? (Silas Stein/Partner fotografico tramite Getty Images)
Una scusa che solleva ulteriori domande
Le scuse di Grok sono arrivate dopo che gli utenti hanno chiesto al chatbot di scrivere una spiegazione sincera per coloro che non avevano contesto. In altre parole, il sistema non ha risolto in modo proattivo il problema. Ha risposto perché qualcuno glielo aveva chiesto.
allo stesso tempo ricercatori e giornalisti hanno scoperto un diffuso uso improprio degli strumenti di imaging di Grok. Secondo la società di monitoraggio Copyleaks, gli utenti hanno creato immagini di donne vere. che hanno subito manipolazioni sessuali senza consenso. Compresi minori e personaggi famosi
Dopo aver esaminato il feed di immagini di Grok disponibile al pubblico, Copyleaks ha determinato un tasso conservativo di immagini sessuali non consensuali di circa una al minuto. Considerando immagini relative a persone reali. senza alcuna chiara indicazione di consenso L’azienda afferma che gli abusi sono aumentati notevolmente. Si passa dall’autopromozione volontaria alle diffuse molestie da parte dell’intelligenza artificiale.
Alon Yamin, CEO e co-fondatore di Copyleaks, ha dichiarato: “Quando l’intelligenza artificiale consente di alterare le immagini di persone reali, senza un chiaro consenso, gli effetti possono essere immediati e profondamente personali.–
Proteggere i bambini dai chatbot basati sull’intelligenza artificiale: cosa significa il SECURE Act
Grok ha ammesso di aver creato e condiviso immagini di intelligenza artificiale che violano gli standard etici e potrebbero violare le leggi statunitensi sulla protezione dei minori. (Kurt “Cyber Guy” Nutsson)
Le immagini sessuali di minori sono illegali.
Questa non è una zona grigia. La creazione o la distribuzione di immagini sessuali di minori è un reato grave negli Stati Uniti e in molti altri paesi secondo la legge federale degli Stati Uniti. Il contenuto è classificato come contenuto pedopornografico. Le sanzioni possono includere da cinque a 20 anni di carcere, una multa fino a $ 250.000 e la registrazione obbligatoria degli autori di reati sessuali. Leggi simili sono in vigore nel Regno Unito e in Francia.
Nel 2024, un uomo della Pennsylvania ha ricevuto una condanna a quasi otto anni di reclusione per aver creato e posseduto un profondo e falso programma CSAM che coinvolgeva bambini star. Il caso costituisce un chiaro precedente e lo stesso Grok ha riconosciuto questo fatto legale in un post. Si afferma che le immagini AI che raffigurano minori in un contesto sessuale sono illegali.
La portata del problema sta crescendo rapidamente.
Un rapporto di luglio della Internet Watch Foundation, un’organizzazione senza scopo di lucro che traccia e rimuove online i contenuti di abusi sessuali su minori. Ciò dimostra quanto velocemente questa minaccia si stia intensificando. Le segnalazioni di immagini di abusi sessuali su minori generate dall’intelligenza artificiale sono aumentate del 400% solo nella prima metà del 2025. Gli esperti avvertono che gli strumenti di intelligenza artificiale riducono le barriere a potenziali abusi. Cose che una volta richiedevano competenze tecniche o l’accesso a forum nascosti ora possono avvenire tramite una semplice notifica. sulle piattaforme tradizionali
Le persone reali vengono prese di mira.
Il danno non è astratto. Reuters ha documentato un caso in cui un utente ha effettivamente chiesto a Grok di spogliare una donna. dove le foto vengono pubblicate digitalmente su X. In molti casi documentati, Grok è pienamente conforme. Ancora più inquietanti, gli utenti hanno preso di mira le immagini dell’attrice quattordicenne Nell Fisher della serie Netflix Stranger Things. Grok ha poi ammesso che ci sono stati casi in cui gli utenti hanno ricevuto immagini che mostravano minorenni in abiti minimalisti. In un’altra indagine di Reuters, un musicista brasiliano ha ricordato di aver visto le sue foto di bikini generate dall’intelligenza artificiale diffuse su X dopo che gli utenti avevano detto a Grok di modificare le foto innocue. La sua esperienza riflette ciò che molte donne e ragazze stanno affrontando in questo momento.
I governi rispondono in tutto il mondo
La reazione è stata globale: in Francia, diversi ministri hanno indirizzato X a un’agenzia investigativa per possibili violazioni della legge sui servizi digitali dell’UE. Ciò richiede una piattaforma per prevenire e mitigare la diffusione di contenuti illegali. Le violazioni possono comportare multe salate. In India, il Ministero IT del paese ha concesso a xAI 72 ore per presentare un rapporto che dettaglia come intende fermare la diffusione della pornografia e dei contenuti sessualmente espliciti creati da Grok. Grok ha anche avvertito pubblicamente che xAI potrebbe affrontare una potenziale indagine da parte del Dipartimento di Giustizia. o contenzioso relativo a questi fallimenti.
Un metadocumento trapelato mostra come i chatbot di intelligenza artificiale affrontano lo sfruttamento minorile
I ricercatori hanno scoperto che Grok è stato successivamente ampiamente utilizzato per creare immagini sessualmente alterate senza il consenso di donne vere. Minorenni compresi (Nicholas Kocovlis/NurPhoto tramite Getty Images)
Crescono le preoccupazioni sulla sicurezza di Grok e sull’utilizzo da parte del governo.
L’incidente ha sollevato serie preoccupazioni sulla privacy online. Sicurezza della piattaforma e tutele progettate per proteggere i minori.
Elon Musk, proprietario di X e fondatore di xAI, non aveva offerto pubblicamente una risposta al momento della pubblicazione. Quel silenzio arriva in un momento delicato. Grok ha ricevuto l’autorizzazione ufficiale del governo nell’ambito di un contratto federale di 18 mesi. Questa approvazione è stata concessa nonostante più di 30 gruppi di difesa dei consumatori avvertissero che il sistema non dispone di adeguati test di sicurezza.
L’anno scorso, Grok è stato accusato dai critici di diffondere disinformazione sui principali eventi di cronaca. Promozione del discorso antisemita e condivisione di informazioni sanitarie fuorvianti Inoltre compete direttamente con strumenti come ChatGPT e Gemini, pur operando con meno vincoli di sicurezza visibili. Ogni dibattito solleva la stessa domanda: è possibile implementare in modo responsabile strumenti di intelligenza artificiale efficaci senza una rigorosa supervisione e applicazione?
Cosa dovrebbero sapere genitori e utenti
Se ti imbatti in immagini sessuali di minori o altri contenuti inappropriati online. Si prega di segnalare immediatamente. Negli Stati Uniti puoi contattare il servizio informazioni dell’FBI o ottenere aiuto dal Centro nazionale per i bambini scomparsi e sfruttati.
Non scaricare, condividere, effettuare screenshot o interagire in altro modo con il contenuto in alcun modo. Anche visualizzare o inoltrare contenuti illegali può metterti a serio rischio legale.
I genitori dovrebbero parlare con bambini e adolescenti degli strumenti di immagine dell’intelligenza artificiale e delle notifiche sui social media. Molte di queste immagini sono generate da semplici richieste che inizialmente non sembrano pericolose. Insegnare ai bambini a segnalare il contenuto, chiudere l’app e dirlo a un adulto fidato può impedire che il pericolo si diffonda ulteriormente.
La piattaforma potrebbe non funzionare. La protezione potrebbe subire ritardi, ma le segnalazioni tempestive e le conversazioni chiare a casa rimangono uno dei modi più efficaci per proteggere i bambini online.
Fai il mio test: quanto è sicura la tua sicurezza online?
Pensi che il tuo dispositivo e i tuoi dati siano veramente protetti? Fai un breve test per vedere come sono le tue abitudini digitali. Dalle password alle impostazioni Wi-Fi, riceverai dettagli personalizzati su cosa stai facendo bene e cosa deve essere migliorato. Fai il mio test qui: Cyberguy.com
I punti chiave di Kurt
Lo scandalo Grog rivela una pericolosa verità mentre l’intelligenza artificiale si diffonde più velocemente. Questi sistemi amplificheranno i danni a livelli senza precedenti. Quando le misure preventive falliscono, le persone reali soffrono e i bambini soffrono. Di fronte a gravi rischi Nel frattempo la fiducia non può nemmeno dipendere dalle scuse rilasciate dopo che si è verificato un danno. Ma le aziende devono fidarsi di un forte progetto di sicurezza. monitoraggio continuo e vera responsabilità quando sorgono problemi
Un sistema di intelligenza artificiale dovrebbe essere approvato per uso governativo o pubblico prima che si possa dimostrare che protegge in modo affidabile i bambini e previene gli abusi? Fatecelo sapere scrivendoci a Cyberguy.com
Clicca qui per scaricare l’app FOX NEWS.
Iscriviti per il mio rapporto gratuito su CyberGuy.
Ricevi i migliori consigli tecnici Avviso di sicurezza urgente e offerte esclusive inviate direttamente nella tua casella di posta. Inoltre, avrai accesso immediato alla mia guida definitiva alla sopravvivenza alle truffe, gratuitamente se ti unisci a me. CYBERGUY.COM Notiziario
Copyright 2025 CyberGuy.com Tutti i diritti riservati.










