Recenti ricerche sulle capacità emotive dell’intelligenza artificiale suggeriscono che i chatbot basati sull’intelligenza artificiale, a lungo liquidati come meccanici e basati su regole, potrebbero essere migliori di molti esseri umani nel riconoscere modelli empatici nella comunicazione basata su testo. Questo cambiamento avviene poiché i modelli linguistici di grandi dimensioni (LLM) come ChatGPT, Gemini e altri sistemi generativi sono sempre più utilizzati nelle interazioni quotidiane, dal servizio clienti al supporto per la salute mentale.
Uno studio pubblicato Intelligenza artificiale della natura Ha scoperto che i modelli di intelligenza artificiale possono valutare le sottigliezze della comunicazione empatica quasi quanto gli esperti e significativamente meglio dei non esperti. I ricercatori hanno analizzato centinaia di conversazioni testuali reali contenenti supporto emotivo e hanno scoperto che l’intelligenza artificiale può rilevare costantemente sfumature di empatia in una varietà di contesti; Ciò suggerisce che questi sistemi abbiano “appreso” modelli linguistici affettuosi che molte persone hanno difficoltà ad applicare in modo affidabile.
L’empatia è un vantaggio per i chatbot AI
Questo è importante perché l’empatia (la capacità di comprendere e riflettere sull’esperienza emotiva di un altro) è stata tradizionalmente vista come un’abilità unicamente umana basata sull’esperienza personale e sulla risonanza emotiva. Nello sviluppo dell’intelligenza artificiale, l’empatia è stata spesso trattata come un ripensamento o un’aggiunta superficiale piuttosto che come una funzione comunicativa fondamentale. Ma poiché le persone interagiscono con gli agenti della chat in situazioni più cariche emotivamente, come chiedere consigli sulla salute o discutere di problemi personali, la capacità dell’intelligenza artificiale di generare risposte che trasmettono un senso di comprensione e convalida sta avendo un impatto nel mondo reale.
Per gli utenti, ciò significa che in ambienti di solo testo come finestre di chat o forum di supporto, l’intelligenza artificiale può offrire un livello di reattività confortante e rilevante. In alcuni benchmark, i sistemi di intelligenza artificiale sono stati valutati come più compassionevoli degli esseri umani, soprattutto in situazioni in cui gli esseri umani non hanno formazione nella comunicazione di supporto. Tuttavia, l’empatia non è un singolo tratto olistico: sebbene l’intelligenza artificiale possa essere abile nell’imitare la forma del linguaggio empatico, non sperimenta le emozioni come fanno gli esseri umani e potrebbe comunque non essere all’altezza in contesti che richiedono una profonda comprensione emotiva o una connessione personale.
Il passaggio a un’intelligenza artificiale empatica ha ampie implicazioni
Nel settore sanitario, ad esempio, gli strumenti di intelligenza artificiale accessibili possono offrire una validazione emotiva in situazioni in cui i medici non sono disponibili, ma i ricercatori avvertono che tali strumenti dovrebbero integrare, non sostituire, l’assistenza umana perché le sfumature relazionali e il giudizio etico sono vitali. Ci sono anche preoccupazioni etiche riguardo al fatto che gli utenti interpretino erroneamente la reattività dell’intelligenza artificiale come una comprensione genuina, evidenziando la necessità di trasparenza su ciò che l’intelligenza artificiale può e non può fornire.
Guardando al futuro, gli sviluppatori di intelligenza artificiale e gli psicologi stanno esplorando come migliorare questi sistemi per supportare meglio i bisogni umani evitando un eccessivo affidamento alla simulazione dell’empatia. Man mano che le prestazioni dell’intelligenza artificiale nel riconoscimento del linguaggio emotivo si rafforzano, la prossima sfida sarà garantire che questi modelli migliorino la connessione umana senza compromettere il valore della genuina empatia umana nei contesti sociali e clinici.
Link alla fonte: www.digitaltrends.com