In un nuovo saggio di 38 pagine pubblicato sul suo sito web personale, il CEO e cofondatore di Anthropic Dario Amodei chiede un’azione urgente per affrontare i rischi posti dall’intelligenza artificiale superintelligente.
Amodei scrive che questo tipo di intelligenza artificiale auto-migliorante potrebbe emergere in appena uno o due anni e avverte che i rischi includono la schiavitù e la “distruzione di massa” dell’umanità.
Saggio, “Gioventù della tecnologia“” affronta i rischi noti e sconosciuti associati all’intelligenza artificiale. Il CEO descrive dettagliatamente il potenziale del bioterrorismo alimentato dall’intelligenza artificiale, gli eserciti di droni controllati da un’intelligenza artificiale dannosa e il modo in cui l’intelligenza artificiale sta rendendo i lavoratori umani obsoleti in tutta la società.
Per affrontare questi rischi, Amodei propone misure che vanno dall’autoregolamentazione del settore dell’intelligenza artificiale agli emendamenti alla Costituzione americana.
Il CEO di Anthropic avverte che l’intelligenza artificiale distruggerà la metà di tutti i posti di lavoro dei colletti bianchi
Il saggio di Amodei è ponderato e ben studiato. Ma questo commette anche il peccato capitale di scrivere l’IA: non può resistere all’antropomorfizzazione dell’IA.
E trattando il suo prodotto come un essere vivente e cosciente, Amodeus cade proprio nella trappola da cui mette in guardia.
È caratteristico che allo stesso tempo New York Times ha pubblicato un importante studio sulla “psicosi dell’intelligenza artificiale”. È un termine generale senza una definizione medica precisa e si riferisce a una vasta gamma di problemi di salute mentale esacerbati dai chatbot di intelligenza artificiale come ChatGPT o Claude. Ciò può includere deliri, paranoia o completo distacco dalla realtà.
“Tuttavia, quando un venditore di intelligenza artificiale ti dice che l’intelligenza artificiale è una tecnologia in grado di cambiare irresistibilmente il mondo e rappresenta la rivoluzione agricola… devi prendere quella previsione per quello che è: una presentazione di vendita.”
Questi casi hanno spesso una cosa in comune: la persona vulnerabile parla con il chatbot AI per così tanto tempo che inizia a credere che il chatbot sia vivo. I Large Language Models (LLM) dietro piattaforme come ChatGPT possono creare una replica altamente realistica di una conversazione umana e, nel tempo, gli utenti possono sviluppare una dipendenza emotiva dal chatbot.
Quando parli troppo a lungo con una macchina programmata per farlo suono empatico – e quando quella macchina è sempre presente e ottimizzata per l’interazione – è fin troppo facile dimenticare che non c’è intelligenza al lavoro dietro lo schermo.
Spiegare il fenomeno noto come “psicosi dell’IA”
Gli LLM sono potenti motori di previsione delle parole, ma non hanno coscienza, sentimenti o empatia. Durante la lettura di The Youth of Technology, ho iniziato a chiedermi se Amodeus non avesse stabilito un legame emotivo eccessivo con la sua macchina.
Amodei è responsabile della creazione di uno dei chatbot più potenti al mondo. Senza dubbio ha trascorso innumerevoli ore usando Claude, parlando con lui, testandolo e migliorandolo. Anche lui cominciò a vedere Dio in macchina?
Il saggio descrive i chatbot basati sull’intelligenza artificiale come “psicologicamente complessi”. Parla dell’intelligenza artificiale come se avesse motivazioni e obiettivi propri. Descrive i modelli antropici esistenti come dotati di un forte senso di “identità personale” come “brava persona”.
Velocità della luce mashable
In breve, antropomorfizza l’intelligenza artificiale generativa, e non solo una futura forma di intelligenza artificiale superintelligente, ma l’odierna intelligenza artificiale basata su LLM.
Perché la morte dell’IA è sempre dietro l’angolo
Gran parte dei discorsi sui pericoli dell’intelligenza artificiale provengono direttamente dalla fantascienza, come ammette Amodei, eppure anche lui è colpevole della stessa copertura.
Il saggio si apre con una sezione intitolata “Come evitare Doomer”, in cui Amodei critica le voci “meno sensate” e “più sensazionali” che discutono i rischi dell’intelligenza artificiale. “Queste voci usavano un linguaggio ripugnante che ricorda la religione o la fantascienza”, scrive.
Ma il saggio di Amodei evoca ripetutamente anche la fantascienza. E per quanto riguarda la religione, sembra nutrire la convinzione fedele che la superintelligenza artificiale sia a portata di mano.
Fermatemi se l’avete già sentito: “Potrebbero non passare più di qualche anno prima che l’intelligenza artificiale diventi migliore degli esseri umani in quasi tutto. In effetti, questo quadro probabilmente sottostima il probabile ritmo del progresso.”
Per i sostenitori dell’intelligenza artificiale, la superintelligenza lo è Sempre proprio dietro l’angolo. In un saggio precedente con una tendenza più utopica:Macchine della grazia amorevoleAmodei ha scritto che l’emergere della super IA potrebbe richiedere solo uno o due anni. (Questo saggio è stato pubblicato nell’ottobre 2024, ovvero uno o due anni fa.)
Adesso fa la stessa valutazione: all’avvento della superintelligenza mancano uno o due anni. Ancora una volta, questo soltanto dietro l’angolo. Presto, molto presto, gli strumenti di intelligenza artificiale generativa come Claude miglioreranno, ottenendo un’esplosione di intelligenza che il pianeta non ha mai visto prima. La Singolarità arriverà presto, dicono i sostenitori dell’IA. Fidati di noi, dicono.
Ma qualcosa non può essere sempre inevitabile. Dovremmo aspettarci che l’intelligenza artificiale generativa continui ad avanzare in modo esponenziale anche se l’industria dell’intelligenza artificiale sembra sbattere la testa contro un muro di rendimenti decrescenti?
Nella bolla di Davos, i leader dell’IA non riescono a vedere una vera bolla dell’IA
Naturalmente, qualsiasi amministratore delegato dell’intelligenza artificiale avrebbe un forte incentivo a pensarla così. UN quantità di denaro senza precedenti è già successo investito nello sviluppo di infrastrutture di intelligenza artificiale. L’industria dell’intelligenza artificiale deve tenere aperto il rubinetto del denaro a tutti i costi.
La settimana scorsa a Davos, Jensen Huang di NVIDIA ha suggerito che gli investimenti nelle infrastrutture di intelligenza artificiale sono così grandi che non possono diventare una bolla. Dalle persone che ti hanno reso “troppo grande per fallire” arriva un nuovo successo: “Too Big to Fail”.
Ho visto i vantaggi della tecnologia dell’intelligenza artificiale e credo che sia uno strumento potente. Tuttavia, quando un venditore di intelligenza artificiale ti dice che l’intelligenza artificiale è una tecnologia inarrestabile che cambia il mondo come la rivoluzione agricola, o una minaccia che cambia il mondo come la bomba atomica, e che gli strumenti di intelligenza artificiale presto “saranno in grado di fare tutto” che puoi fare tu, dovresti prendere quella previsione per quello che è: una presentazione di vendita.
Il catastrofismo nel campo dell’intelligenza artificiale è sempre stato una forma di autoadulazione. Attribuisce agli esseri umani capacità divine di creare nuove forme di vita e ritrae gli oligarchi della Silicon Valley come titani capaci di plasmare le fondamenta stesse del mondo.
Sospetto che la verità sia molto più semplice. L’intelligenza artificiale è uno strumento potente. E tutti gli strumenti potenti possono essere pericolosi nelle mani sbagliate. Sono necessarie leggi per frenare la crescita incontrollata delle società di intelligenza artificiale, il loro impatto sull’ambiente e la crescente disuguaglianza di ricchezza.
A suo merito, Amodei nel suo saggio chiede una regolamentazione del settore, menzionando la parola “r” 10 volte. Ma confonde anche la fantascienza con un fatto scientifico.
Vi sono prove crescenti che i LLM lo faranno non porterà mai a un tipo di superintelligenza cui Amodeus crede con tanto zelo. Come affermato in un documento di ricerca di Apple, i programmi LLM sembrano offrire solo “l’illusione di pensare”. Il tanto atteso GPT-5 ha ampiamente deluso i fan più fedeli di ChatGPT. E molti progetti di IA aziendali su larga scala sembrano andare in crash e bruciare. forse fino al 95%..
Invece di preoccuparci dello spauracchio di un’apocalisse come Skynet, dovremmo invece concentrarci sui danni specifici dell’intelligenza artificiale: licenziamenti inutili causati da previsioni dell’intelligenza artificiale troppo sicure e pornografia deepfake non consensuale, per citarne solo due.
La buona notizia per gli esseri umani è che questi problemi sono risolvibili se mettiamo insieme le nostre menti umane: non sono necessari esperimenti mentali di fantascienza.
Argomenti
Intelligenza artificiale
Link alla fonte: mashable.com










