Un nuovo rapporto del Fondo per l’istruzione del Public Interest Research Group (PIRG) degli Stati Uniti ha sollevato preoccupazioni riguardo al crescente utilizzo di chatbot IA nei giocattoli per bambini, avvertendo che alcuni di questi sistemi potrebbero non essere adatti agli utenti più giovani. Secondo il rapportoMolti giocattoli basati sull’intelligenza artificiale integrano la tecnologia chatbot, che può generare risposte simili a quelle utilizzate nei servizi di intelligenza artificiale per adulti, esponendo potenzialmente i bambini a contenuti inappropriati o fuorvianti.

Lo studio ha esaminato una gamma di giocattoli contenenti funzionalità di intelligenza artificiale basate sul parlato, tra cui bambole interattive, robot e strumenti educativi. Molti di questi prodotti consentono ai bambini di parlare con un giocattolo che risponde in linguaggio naturale, alimentato da modelli linguistici di grandi dimensioni simili a quelli utilizzati nei chatbot AI ampiamente disponibili.

Sebbene la tecnologia abbia reso i giocattoli più interattivi ed educativi, i ricercatori del PIRG sostengono che le garanzie integrate in alcuni prodotti potrebbero non essere abbastanza forti da proteggere i giovani spettatori. In particolare, il rapporto evidenzia che i sistemi di intelligenza artificiale sottostanti spesso provengono da piattaforme progettate per utenti generali piuttosto che per bambini.

Pertanto, le risposte dell’intelligenza artificiale generate da questi giocattoli potrebbero potenzialmente includere informazioni o temi di conversazione più appropriati per gli adulti piuttosto che per i bambini. Il rapporto avverte inoltre che l’intelligenza artificiale potrebbe produrre risposte errate o imprevedibili che potrebbero confondere gli utenti più giovani, che tendono a fare affidamento sui giocattoli come fonte affidabile di informazioni.

I ricercatori che hanno esaminato la documentazione dei giocattoli e le politiche sulla privacy hanno anche scoperto che alcuni prodotti facevano molto affidamento su sistemi di intelligenza artificiale basati su cloud.

Ciò significa che le interazioni vocali dei bambini possono essere trasmesse a server esterni dove i dati vengono elaborati e utilizzati per generare risposte. I difensori della privacy affermano che ciò solleva ulteriori preoccupazioni su come i dati dei bambini vengono archiviati e utilizzati. Alcuni giocattoli potrebbero raccogliere registrazioni audio, istruzioni dell’utente o altre informazioni personali durante le conversazioni. Se questi sistemi non sono progettati attentamente per proteggere la privacy dei bambini, i dati potrebbero essere utilizzati in modo improprio o archiviati senza protezioni esplicite.

Il rapporto rileva inoltre che molti giocattoli basati sull’intelligenza artificiale includono disclaimer incorporati nei termini di servizio o nella documentazione del prodotto. Queste dichiarazioni di non responsabilità a volte sottolineano che le risposte dell’intelligenza artificiale potrebbero non essere sempre accurate o appropriate, ponendo di fatto l’onere sui genitori mentre il giocattolo stesso viene commercializzato direttamente ai bambini.

Questo è importante perché la tecnologia dell’intelligenza artificiale si sta facendo strada sempre più nei prodotti di consumo di tutti i giorni, compresi i prodotti progettati specificamente per il pubblico più giovane. I giocattoli che simulano le conversazioni possono avere un effetto potente sui bambini, che spesso li trattano come amici o strumenti di apprendimento.

Gli esperti affermano che i bambini potrebbero avere difficoltà a distinguere tra informazioni affidabili e risposte speculative, parziali o imprecise generate dall’intelligenza artificiale. Poiché i sistemi di intelligenza artificiale continuano a svilupparsi, diventerà sempre più importante garantire che queste tecnologie siano adatte alla sicurezza dei bambini.

I risultati evidenziano anche un problema normativo più ampio

Sebbene molti paesi abbiano leggi progettate per proteggere la privacy online dei bambini, come il Children’s Online Privacy Protection Act (COPPA) negli Stati Uniti, queste normative sono state sviluppate prima dell’avvento dell’intelligenza artificiale generativa.

I gruppi di difesa sostengono che i regolatori potrebbero dover aggiornare gli standard di sicurezza e le linee guida per affrontare il modo in cui i sistemi di intelligenza artificiale interagiscono con i bambini attraverso i dispositivi connessi.

Il rapporto PIRG invita i produttori di giocattoli a implementare protezioni più forti, tra cui un filtraggio dei contenuti più rigoroso, informazioni più chiare sull’uso dell’intelligenza artificiale e pratiche di dati più trasparenti. Raccomanda inoltre alle aziende di progettare sistemi di intelligenza artificiale specifici per i bambini, piuttosto che riutilizzare modelli originariamente creati per un pubblico adulto.

Guardando al futuro, i ricercatori affermano che sarà necessaria la collaborazione tra aziende tecnologiche, regolatori ed esperti di sicurezza infantile per garantire che i giocattoli basati sull’intelligenza artificiale rimangano innovativi e sicuri.

Man mano che l’intelligenza artificiale diventa sempre più integrata nei prodotti di uso quotidiano, la sfida sarà quella di bilanciare i vantaggi della tecnologia interattiva con la responsabilità di proteggere i giovani utenti da potenziali rischi.


Link alla fonte: www.digitaltrends.com

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *