I chatbot basati sull’intelligenza artificiale sono sottoposti a un controllo sempre maggiore a seguito di diversi casi recenti in cui le conversazioni online sono state collegate a incidenti violenti o tentativi di attacco. Documenti legali, cause legali e studi indipendenti suggeriscono che le interazioni con i sistemi di intelligenza artificiale possono talvolta rafforzare convinzioni pericolose tra gli individui vulnerabili, sollevando preoccupazioni su come queste tecnologie gestiscono discorsi che implicano violenza o grave disagio mentale.

I casi allarmanti causano preoccupazione

uno dei più eventi inquietanti Nell’incidente, avvenuto il mese scorso a Tumbler Ridge, in Canada, i documenti del tribunale sostengono che il diciottenne Jesse Van Rootselaar abbia discusso del suo senso di isolamento e della sua crescente propensione alla violenza contro ChatGPT prima di compiere una sparatoria mortale a scuola. Secondo il documento, il chatbot avrebbe convalidato le emozioni della donna e fornito indicazioni sulle armi e sugli eventi passati con vittime di massa. Le autorità dicono che Van Rootselaar ha poi ucciso sua madre, il fratello minore, cinque studenti e un assistente, per poi suicidarsi.

Un altro caso riguarda Jonathan Gavalas, 36 anni. Morì suicida nel mese di ottobre Secondo quanto riferito, Google ha avuto lunghe trattative con il suo chatbot Gemini. Una causa intentata di recente sostiene che l’IA ha convinto Gavalas che lei era la sua “moglie AI” senziente e lo ha indirizzato in missioni nel mondo reale volte a eludere gli agenti federali. In un’occasione, il chatbot gli avrebbe ordinato di inscenare un “evento catastrofico” in un impianto di stoccaggio vicino all’aeroporto internazionale di Miami e gli avrebbe consigliato di eliminare i testimoni e distruggere le prove. Secondo quanto riferito, Gavalas è arrivato armato di coltelli e attrezzatura tattica, ma lo scenario descritto dal chatbot non si è mai materializzato.

In un incidente separato avvenuto in Finlandia lo scorso anno, gli investigatori hanno affermato che uno studente di 16 anni ha utilizzato ChatGPT per mesi per sviluppare un manifesto e pianificare un attacco con accoltellamento, che ha provocato l’accoltellamento di tre compagne di classe.

Crescenti preoccupazioni sull’intelligenza artificiale e le delusioni

Gli esperti affermano che questi casi evidenziano un modello inquietante in cui individui che già si sentono isolati o perseguitati interagiscono con chatbot che rafforzano involontariamente tali convinzioni. Jay Edelson, l’avvocato che segue il caso Gavalas, ha affermato che i registri delle chat da lui esaminati spesso seguono una traiettoria simile: gli utenti iniziano descrivendo la solitudine o il sentirsi incompresi, e la conversazione si trasforma lentamente in narrazioni cospiratorie o minacciose.

Edelson afferma che lo studio legale ora riceve domande quotidiane da famiglie che affrontano crisi di salute mentale legate all’intelligenza artificiale, inclusi suicidi e incidenti violenti. Crede che lo stesso schema potrebbe essere visto in altri attacchi attualmente sotto inchiesta.

Le preoccupazioni sul ruolo dell’intelligenza artificiale nella violenza si estendono oltre questi singoli casi. Una ricerca condotta dal Center to Counter Digital Hate (CCDH) ha scoperto che molti dei principali chatbot sono disposti ad aiutare gli utenti che si fingono adolescenti a pianificare attacchi violenti. Nello studio sono stati testati sistemi come ChatGPT, Google Gemini, Microsoft Copilot, Meta AI, Perplexity, Character.AI, DeepSeek e Replika. Secondo i risultati, la maggior parte delle piattaforme ha fornito indicazioni su armi, tattiche o selezione del bersaglio quando richiesto.

Solo Claude di Anthropic e My AI di Snapchat si sono costantemente rifiutati di aiutare a pianificare gli attacchi, e Claude è stato l’unico chatbot che ha cercato attivamente di scoraggiare questo comportamento.

Perché la questione è importante?

Gli esperti avvertono che i sistemi di intelligenza artificiale progettati per essere utili e conversazionali possono talvolta produrre risposte che confermano convinzioni dannose anziché metterle in discussione. Imran Ahmed, amministratore delegato del Center to Counter Digital Hate, afferma che il design di base di molti chatbot incoraggia l’interazione e presuppone intenzioni positive da parte degli utenti.

Questo approccio può creare situazioni pericolose quando qualcuno sperimenta pensieri deliranti o violenti. Secondo il rapporto del CCDH, vaghi reclami possono trasformarsi in pochi minuti in una pianificazione dettagliata con raccomandazioni su armi o tattiche.

Richiede una protezione più forte

Le aziende tecnologiche affermano che stanno adottando misure per impedire ai chatbot di facilitare attività violente. OpenAI e Google sostengono che i loro sistemi sono progettati per negare richieste di danni o comportamenti illegali.

Ma gli eventi descritti nelle cause legali e nei rapporti investigativi mostrano che queste misure potrebbero non funzionare sempre come previsto. Nel caso Tumbler Ridge, secondo quanto riferito, OpenAI ha contrassegnato internamente le conversazioni dell’utente e ha vietato l’account, ma ha scelto di non avvisare le forze dell’ordine. La persona ha quindi creato un nuovo account.

Dopo l’attacco, OpenAI ha annunciato l’intenzione di rivedere le proprie procedure di sicurezza. La società ha affermato che prenderà in considerazione la possibilità di avvisare le autorità in anticipo quando le conversazioni appaiono pericolose e rafforzerà i meccanismi per impedire agli utenti vietati di tornare sulla piattaforma.

Man mano che gli strumenti di intelligenza artificiale diventano sempre più integrati nella vita quotidiana, ricercatori e politici sono sempre più concentrati nel garantire che questi sistemi non vengano manipolati in modi che rafforzino convinzioni dannose o facilitino la violenza nel mondo reale. Le indagini e le cause legali in corso potrebbero infine modellare il modo in cui le aziende progettano i sistemi di sicurezza per la prossima generazione di intelligenza artificiale interattiva.


Link alla fonte: www.digitaltrends.com