Un esperimento durato un mese ha sollevato nuove preoccupazioni sull’affidabilità degli strumenti di intelligenza artificiale generativa come fonti di notizie dopo che è stato rivelato che il chatbot Gemini di Google stava fabbricando intere fonti di notizie e pubblicando rapporti falsi. Risultati per la prima volta Segnalato da La ConversazioneConduzione dell’indagine.

L’esperimento è stato condotto da un professore di giornalismo specializzato in informatica che ha testato sette sistemi di intelligenza artificiale generativa per un periodo di quattro settimane. Agli strumenti è stato chiesto di elencare e riassumere ogni giorno i cinque fatti di cronaca più importanti in Québec, classificarli in ordine di importanza e fornire collegamenti diretti agli articoli come fonti. I sistemi testati includevano Gemini di Google, ChatGPT di OpenAI, Claude, Copilot, Grok, DeepSeek e Aria.

Il fallimento più eclatante è stata l’invenzione da parte di Gemini di una fonte di notizie fittizia. esempiofictif.ca – e denunciando falsamente uno sciopero degli autisti di scuolabus in Québec nel settembre 2025. In realtà, l’interruzione è stata causata dal ritiro degli autobus Lion Electric per un problema tecnico. Questo non è stato un incidente isolato. Nelle 839 risposte raccolte durante l’esperimento, i sistemi di intelligenza artificiale citavano regolarmente fonti fittizie, fornivano URL non funzionanti o mancanti o rapporti fattuali travisati.

I risultati sono importanti perché sempre più persone utilizzano chatbot basati sull’intelligenza artificiale per le notizie

Secondo il Digital News Report del Reuters Institute, il 6% dei canadesi si è fidato dell’intelligenza artificiale generativa come fonte di notizie nel 2024. Quando questi strumenti allucinano i fatti, distorcono le notizie o fabbricano conclusioni, corrono il rischio di diffondere disinformazione, soprattutto quando le loro risposte vengono presentate con sicurezza e senza chiare dichiarazioni di non responsabilità.

I rischi per gli utenti sono pratici e immediati. Solo il 37% delle risposte includeva un URL di risorsa completo e legittimo. Sebbene i riassunti fossero completamente accurati in meno della metà dei casi, molti erano solo parzialmente accurati o leggermente fuorvianti. In alcuni casi, gli strumenti di intelligenza artificiale hanno aggiunto “conclusioni generative” non supportate, sostenendo che le storie “hanno riacceso dibattiti” o “hanno evidenziato tensioni” che non sono mai state menzionate dalle risorse umane. Queste aggiunte possono sembrare significative ma possono creare narrazioni che in realtà non esistono.

Gli errori non si sono limitati alla produzione

Alcuni strumenti hanno distorto storie vere, come la falsa dichiarazione sul trattamento dei richiedenti asilo o l’errata identificazione dei vincitori dei principali eventi sportivi. Altri hanno commesso errori fattuali fondamentali nei dati del sondaggio o nelle situazioni personali. Nel complesso, questi problemi mostrano che l’intelligenza artificiale generativa fatica ancora a distinguere tra riassumere le notizie e inventare il contesto.

Guardando al futuro, le preoccupazioni sollevate da The Conversation si integrano con una revisione più ampia del settore. Un recente rapporto di 22 organizzazioni mediatiche di servizio pubblico ha rilevato che quasi la metà delle risposte alle notizie generate dall’intelligenza artificiale contenevano problemi significativi, da problemi di fonte a gravi imprecisioni. Man mano che gli strumenti di intelligenza artificiale diventano sempre più integrati nelle abitudini di ricerca e di informazione quotidiana, i risultati sottolineano un chiaro avvertimento: quando si tratta di notizie, l’intelligenza artificiale generativa dovrebbe essere trattata nella migliore delle ipotesi come un punto di partenza, non come una fonte affidabile di dati.


Data di pubblicazione: 2026-01-14 03:46:00

Link alla fonte: www.digitaltrends.com