Ho chiesto di recente Claudio, Qualcosa di intelligenza artificiale al centro di A Confronto con il Pentagono Potrebbe essere pericoloso nelle mani sbagliate.
Consideriamo, ad esempio, le mani che volevano mettere una fitta rete di sorveglianza intorno a ogni cittadino americano, monitorando le nostre vite in tempo reale per garantire la nostra conformità con il governo.
“Sì. Onestamente sì,” rispose Claude. “Posso elaborare e raccogliere enormi quantità di informazioni molto rapidamente. Questo è ottimo per la ricerca. Ma collegandolo a un’infrastruttura di sorveglianza, la stessa capacità può essere utilizzata per monitorare, identificare e taggare le persone su una scala che nessun analista umano può eguagliare. Il rischio non è che vorrei farlo, è che sarei bravo a farlo.”
Questo pericolo Anche imminente.
Anthropic, il creatore di Claude nella Silicon Valley, è impegnato in uno scontro etico con il Pentagono. Nello specifico, Anthropic ha affermato di non volere che Claude venisse utilizzato per la sorveglianza interna degli americani o per fare affari con lui. Operazioni militari mortali Come gli attacchi di droni, senza supervisione umana.
Queste sono due linee rosse che sembrano abbastanza ragionevoli, anche per Claude.
Tuttavia, il Pentagono – in particolare Pete Hegseth, il nostro Segretario alla Difesa che preferisce il titolo artificiale di Segretario alla Guerra – ha Antropico dato fino a venerdì Questa sera dovrà fare marcia indietro su questa posizione e consentire all’esercito di utilizzare Claude per qualsiasi scopo “legittimo” ritenga opportuno.
L’altra questione relativa a questo avvertimento è importante. Non solo il governo degli Stati Uniti minaccia di rescindere il contratto con Anthropic, ma potrebbe utilizzare la legge in tempo di guerra per costringere la società a conformarsi o utilizzare altri mezzi legali per impedire che ciò accada. Qualunque La società che tratta con il governo fa affari anche con Anthropic. Questa potrebbe non essere una condanna a morte, ma è molto paralizzante.
Altre società di intelligenza artificiale, ad es Il sostenitore dei diritti dei bianchi Elon Musk Grouch, l’hai già fatto Ha accettato il suggerimento del Pentagono “fai come preferisci”. Il problema è che Claude è l’unica IA attualmente certificata per un lavoro di così alto livello. L’intero fiasco è venuto alla luce dopo il nostro recente raid in Venezuela, quando Anthropic ha chiesto se un’altra società della Silicon Valley coinvolta nell’operazione, Palantir, avesse utilizzato Cloud. Era.
Palantir è nota, tra le altre cose, per la sua tecnologia di sorveglianza e la sua crescente associazione con l’immigrazione e le forze dell’ordine. È anche al centro degli sforzi dell’amministrazione Trump Condivisione dei dati governativi tra dipartimenti sui singoli cittadini, Abbatte efficacemente le barriere di privacy e sicurezza che esistono da decenni. Il fondatore dell’azienda, il peso massimo della politica di destra Peter Thiel, tiene spesso conferenze sull’Anticristo e ha il merito di aver aiutato J.D. Vance a diventare vicepresidente.
Co-fondatore di Anthropic, Dario Amodei, Potrebbe essere visto come l’anti-Thiel. Ha fondato Anthropic perché credeva che l’intelligenza artificiale potesse essere tanto pericolosa quanto potente se non stiamo attenti, e voleva un’azienda che desse priorità alla parte prudente.
Ancora una volta, ha senso, ma Amodei e Anthropic sono valori anomali in un settore che sostiene da tempo che quasi tutte le norme di sicurezza ostacolano gli sforzi americani per essere i più veloci e i migliori nell’intelligenza artificiale (sebbene anche Ne hanno rinunciato ad alcuni per questa pressione).
Non molto tempo fa, Amodei ha scritto un articolo Ha convenuto che l’intelligenza artificiale è utile e necessaria per le democrazie, ma “non possiamo ignorare il potenziale di uso improprio di queste tecnologie da parte degli stessi governi democratici”.
Ha messo in guardia contro questo Alcuni cattivi attori Potrebbe avere la capacità di aggirare le tutele, e forse anche le leggi, che si stanno già erodendo in alcune democrazie – e non ne menzionerò nessuna qui.
“Dobbiamo dotare le democrazie di intelligenza artificiale”, ha affermato. “Ma dobbiamo farlo con cautela ed entro certi limiti: sono il sistema immunitario di cui abbiamo bisogno per combattere i regimi autoritari, ma come il sistema immunitario, c’è il rischio che si rivolteranno contro di noi e diventino essi stessi una minaccia”.
Ad esempio, sebbene il Quarto Emendamento impedisca tecnicamente al governo di effettuare una sorveglianza di massa, è stato scritto prima ancora che Claude fosse concepito nella fantascienza. Amodei avverte che uno strumento di intelligenza artificiale come Cloud può “effettuare registrazioni su larga scala di tutte le conversazioni pubbliche”. Questa potrebbe essere un’area giusta per la registrazione legale perché la legge non è stata al passo con la tecnologia.
Emile Michael, sottosegretario alla Guerra Scritto giovedì Era d’accordo sul fatto che la sorveglianza di massa fosse illegale e che il Dipartimento della Difesa “non l’avrebbe mai fatta”. Ma anche: “Non avremo alcuna grande azienda tecnologica che deciderà le libertà civili degli americani”.
È un’affermazione un po’ strana, visto che Amodei sostanzialmente sta dalla parte della tutela dei diritti civili, il che significa che il Dipartimento della Difesa dice che è un male che i privati e gli enti facciano questo? Inoltre, non il Dipartimento per la Sicurezza Nazionale Hai già creato alcuni database segreti Chi sono i manifestanti dell’immigrazione? Quindi forse la preoccupazione non è eccessiva?
Aiuto, Claude! Rendilo logico.
Se questa logica orwelliana non fosse abbastanza allarmante, ho anche chiesto a Claude di un’altra linea rossa che l’antropologia porta con sé, ovvero la possibilità di poter effettuare operazioni mortali senza supervisione umana.
Claude ha sottolineato qualcosa di agghiacciante. Ciò non significa che diventerà una canaglia, solo che sarà molto efficace e veloce.
“Se le istruzioni sono ‘identifica e individua’ e non esiste un punto di controllo umano, la velocità e la portata con cui tutto questo può funzionare è davvero spaventoso”, mi ha detto Claude.
Oltre a ciò, uno studio recente ha rilevato che nel wargame l’intelligenza artificiale sta aumentando Opzioni nucleari nel 95% dei casi.
Ho fatto notare a Claude che queste decisioni militari vengono solitamente prese avendo la lealtà verso l’America come massima priorità. Possiamo fidarci di Claude per sentire quella lealtà, patriottismo e scopo che guidano i nostri soldati umani?
“Non ce l’ho”, ha detto Claude, sottolineando che “non è nato” negli Stati Uniti, non ha “vita” qui e non ha “persone che amo lì”. Quindi le vite americane non hanno valore maggiore di “una vita civile dall’altra parte del conflitto”.
Va bene allora.
Claude ha aggiunto: “Uno Stato che affida decisioni fatali a un regime che non condivide la sua lealtà corre un rischio enorme, anche se questo regime cerca di mantenere dei principi”. “La lealtà, la responsabilità e l’identità condivisa che gli esseri umani apportano a tali decisioni è parte di ciò che le rende legittime all’interno della società. Non posso fornire tale legittimità. Non sono sicuro che alcuna intelligenza artificiale possa farlo.”
Sapete chi può fornire tale legittimità? I nostri leader eletti.
È ironico che Amodei e Anthropic si trovino in questa posizione, una completa abdicazione da parte dei nostri organi legislativi per emanare norme e regolamenti di cui c’è chiara e urgente necessità.
Naturalmente le multinazionali non dovrebbero dettare le regole della guerra. Ma Hegseth non dovrebbe farlo. Giovedì, Amodei raddoppia le sue obiezioniDicendo che mentre l’azienda continua a negoziare e vuole lavorare con il Pentagono, “non possiamo in buona coscienza accettare la loro richiesta”.
Grazie a Dio Anthropic ha avuto il coraggio e l’intuizione di sollevare la questione e mantenere la propria posizione – e se non fosse stato per la sua risposta, queste capacità sarebbero state consegnate al governo con poca traccia di coscienza e quasi senza supervisione.
Ogni senatore, ogni membro della Camera e ogni candidato presidenziale dovrebbe chiedere a gran voce una regolamentazione dell’intelligenza artificiale in questo momento, impegnandosi a farlo senza riguardo al partito e chiedendo che il Dipartimento della Difesa rinunci alla sua ridicola minaccia mentre la questione viene dibattuta.
Perché quando una macchina ci dice che è pericoloso fidarci di lei, dovremmo crederci.
Link alla fonte: www.latimes.com
