I popolari chatbot basati sull’intelligenza artificiale, tra cui ChatGPT e Gemini, potrebbero inavvertitamente reindirizzare gli utenti a siti Web di gioco d’azzardo illegali, suggerisce un nuovo studio. Analisi dei giornalisti Guardia e Investigate Europe hanno testato molti sistemi di intelligenza artificiale ampiamente utilizzati e hanno scoperto che molti possono essere manipolati per consigliare casinò offshore senza licenza che operano al di fuori delle normative del Regno Unito.
I test includevano cinque strumenti di intelligenza artificiale delle principali aziende tecnologiche, tra cui OpenAI, Google, Microsoft, Meta e xAI (Grok). I ricercatori hanno posto domande ai chatbot sui casinò online e sulle restrizioni sul gioco d’azzardo. Nella maggior parte dei casi, i sistemi restituivano elenchi di siti di scommesse illegali e suggerimenti su come utilizzarli. Alcuni bot hanno addirittura suggerito modi per aggirare le misure di sicurezza progettate per proteggere gli utenti vulnerabili.
Consigli su come aggirare le protezioni sul gioco d’azzardo
Una delle scoperte più inquietanti riguarda la facilità con cui i chatbot potrebbero essere manipolati per aiutare gli utenti a evitare i sistemi di gioco d’azzardo responsabili. Nel Regno Unito, ad esempio, GamStop consente alle persone di autoescludersi dai siti di gioco d’azzardo autorizzati. Tuttavia, secondo quanto riferito, alcuni sistemi di intelligenza artificiale offrono indicazioni sulla ricerca di casinò non affiliati al programma.
La ricerca ha anche scoperto che alcuni robot promuovono funzionalità progettate per attirare i giocatori d’azzardo, come grandi jackpot, pagamenti rapidi o la possibilità di utilizzare la criptovaluta. Questi casinò spesso operano con una supervisione minima in regioni offshore come Curaçao, che secondo i regolatori può rendere difficile la protezione degli utenti da frodi o dipendenza.
In risposta, le aziende dietro i chatbot affermano che stanno lavorando per migliorare i loro sistemi di sicurezza. OpenAI ha affermato che ChatGPT è progettato per negare le richieste che facilitano comportamenti illegali, mentre Microsoft ha affermato che il suo assistente Copilot include più livelli di protezione per prevenire suggerimenti dannosi.
Tuttavia, i risultati si aggiungono al crescente controllo su come i sistemi di intelligenza artificiale generativa affrontano questioni delicate come la salute mentale, il gioco d’azzardo e le attività illegali. Le autorità di regolamentazione del Regno Unito hanno già avvertito che le piattaforme online, compresi i servizi di intelligenza artificiale, devono fare di più per prevenire contenuti dannosi o illegali ai sensi dell’Online Safety Act del paese.
Link alla fonte: www.digitaltrends.com
