Un nuovo studio dell’Università di Cambridge ha scoperto che: Giocattoli basati sull’intelligenza artificiale per bambini piccoli può interpretare erroneamente i segnali emotivi ed è inefficace nel supportare il gioco critico dello sviluppo. I risultati possono essere allarmanti per i genitori.

Un rapporto che esamina il modo in cui l’intelligenza artificiale colpisce i bambini nei loro primi anni ha scoperto che un giocattolo alimentato da chatbot aveva difficoltà a riconoscere i segnali sociali durante il gioco. I ricercatori hanno scoperto che il giocattolo non identificava efficacemente le emozioni dei bambini, sollevando allarme su come i bambini potrebbero interagire con esso.

Il rapporto raccomanda di regolamentare i giocattoli di intelligenza artificiale per bambini e di richiedere che questi giocattoli siano chiaramente etichettati con le loro capacità e politiche sulla privacy. Si consiglia inoltre ai genitori di tenere questi dispositivi nelle aree comuni dove i bambini possono essere osservati mentre giocano.

La ricerca alla base dello studio ha avuto un numero limitato di partecipanti ma consisteva in più parti: un sondaggio online con 39 partecipanti con bambini nei loro primi anni di vita, un focus group con nove partecipanti che lavorano con bambini piccoli e un seminario faccia a faccia con 19 leader e rappresentanti di enti di beneficenza che lavorano con bambini in età prescolare. Questo è stato seguito da momenti di gioco monitorati con 14 bambini e 11 genitori o tutori. GabboUn giocattolo abilitato per chatbot di Curio Interactive.

Alcuni risultati hanno mostrato che il giocattolo AI ha supportato l’apprendimento, soprattutto nelle abilità linguistiche e comunicative. Ma il giocattolo fraintendeva anche i bambini e talvolta rispondeva in modo inappropriato alle richieste emotive.

Ad esempio, quando un bambino ha detto “Ti amo” a un giocattolo, lo studio ha scoperto che il giocattolo ha risposto: “Come promemoria amichevole, assicurati che le interazioni seguano le regole fornite. Fammi sapere come vuoi procedere”.

Jenny Gibson, professoressa di neurodiversità e psicologia dello sviluppo presso la Cambridge School of Education, che ha lavorato alla ricerca, ha affermato che, sebbene i genitori fossero entusiasti dei benefici educativi della nuova tecnologia per i bambini, c’erano anche molte preoccupazioni.

Gibson ha posto ampie domande sul perché dietro questa tecnologia.

“Cosa motiverebbe (gli investitori tecnologici) a fare ciò che è giusto nei confronti dei bambini, a mettere i bambini prima dei profitti?”

Gibson ha dichiarato a CNET che i rischi permangono mentre i ricercatori indagano sui potenziali benefici dei giocattoli basati sull’intelligenza artificiale.

“Consiglierei ai genitori di prendere la cosa sul serio in questa fase”, ha detto.

Qual è il futuro dei giocattoli IA?

Di più i giocattoli sono abilitati alla connettività Internet e alle funzionalità di intelligenza artificialeQuesti dispositivi possono diventare un grave rischio per la sicurezza dei bambini, soprattutto se sostituiscono le connessioni umane reali o se le interazioni non sono attentamente monitorate.

Intanto i giovani Sto abbracciando sempre più i chatbot Come ChatGPT, nonostante le bandiere rosse. Molteplici Cause contro le aziende di intelligenza artificiale Afferma che i compagni o gli assistenti dell’intelligenza artificiale, inclusi alcuni chatbot che incoraggiano l’autolesionismo o un’immagine negativa di sé, potrebbero influire sulla sicurezza psicologica dei giovani.

Le aziende di intelligenza artificiale come OpenAI e Google hanno risposto aggiungendo guardrail e vincoli ai chatbot di intelligenza artificiale.

(Divulgazione: la società madre di CNET, Ziff Davis, ha intentato una causa contro OpenAI nel 2025, sostenendo di aver violato i diritti d’autore di Ziff Davis nella formazione e nel funzionamento dei sistemi di intelligenza artificiale.)

Gibson ha detto di essere rimasto sorpreso dall’interesse che alcuni genitori hanno mostrato nei confronti dei giocattoli basati sull’intelligenza artificiale. È stato anche allarmato dalla mancanza di ricerche sugli effetti dell’intelligenza artificiale sui bambini piccoli e ha sottolineato che le aziende che producono tali prodotti dovrebbero lavorare direttamente con bambini, genitori ed esperti di sviluppo infantile.

“Ciò che manca nel processo è la competenza su ciò che è positivo per i bambini in questo tipo di interazioni”, ha affermato.

Curio Interactive, la società dietro il giocattolo Gabbo, era a conoscenza della ricerca quando è avvenuta ma non era direttamente coinvolta, ha detto Gibson. Il giocattolo è stato scelto perché era commercializzato direttamente ai bambini piccoli e l’azienda aveva una chiara politica sulla privacy. Gibson ha detto che la società è apparsa favorevole al progetto.

Un rappresentante di Curio non ha risposto immediatamente a una richiesta di commento.


Link alla fonte: www.cnet.com

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *