Sam Altman vuole che ChatGPT si entusiasmi. OpenAI prevede di rilasciare una “modalità per adulti” che consentirà agli utenti di avere conversazioni in chiaro con il chatbot. Sembra abbastanza semplice, ma il lancio non è stato affatto fluido.
In ottobre, Altman annunciò che questa funzionalità di X sarebbe stata rilasciata a dicembre. Tuttavia, il rilascio è stato ritardato dopo che OpenAI ha dichiarato che la società stava riscontrando problemi con la verifica dell’età.
un nuovo Rapporto del WSJ Nota che questo potrebbe essere solo una parte della storia. Quando Sam Altman fece questo annuncio, non lo disse al suo staff. L’annuncio ha colto di sorpresa i dipendenti e i dirigenti di OpenAI e il lancio promesso a dicembre è fallito rapidamente.
ChatGPT è davvero pronto per questo?
OpenAI ha creato un comitato consultivo di psicologi e neuroscienziati per guidare lo sviluppo responsabile dell’IA. Il consiglio non è stato felice di apprendere che l’azienda continuava ad andare avanti in modalità adulta nonostante le sue obiezioni.
La loro più grande preoccupazione era l’eccessiva dipendenza emotiva dal chatbot. Un membro del consiglio ha evidenziato casi in cui gli utenti si sono tolti la vita dopo aver stretto un legame intenso con l’intelligenza artificiale e ha avvertito che OpenAI rischia di creare un “sexy allenatore suicida”. È una frase che nessuno si aspettava di sentire da nessuna parte, ma eccoci qui.
C’è anche un problema più pratico. OpenAI, il sistema di verifica dell’età creato per tenere i minori lontani dai contenuti per adulti, li classificava erroneamente come adulti circa il 12% delle volte. Con circa 100 milioni di utenti di età inferiore ai 18 anni ogni settimana, ciò significa che potenzialmente milioni di ragazzi vengono trascurati ogni settimana.
Cosa succede adesso?
OpenAI ha ritardato il lancio senza una nuova data confermata, affermando che aveva bisogno di più tempo per migliorare l’esperienza. Quando questa funzionalità arriverà, l’azienda prevede di limitare la modalità per adulti al testo, senza immagini erotiche, rendering audio o video.
L’azienda ha inoltre affermato che addestra i suoi modelli per impedire agli utenti di instaurare relazioni speciali con il chatbot e per ricordare loro che devono instaurare relazioni nel mondo reale. Resta da vedere se ciò basterà a mettere a tacere il crescente coro di critici interni ed esterni.
Personalmente, voglio che i modelli di intelligenza artificiale stiano il più possibile lontani dalla produzione di contenuti erotici finché non saranno in vigore protezioni attive. Abbiamo già visto quanto caos ha creato Grok quando ha permesso agli utenti di derubare chiunque. Non vogliamo vedere il ripetersi di qualcosa di simile o di peggio.
Link alla fonte: www.digitaltrends.com
