L’Internet tecnologica non poteva smettere di parlare della scorsa settimana Artiglio apertoMoltbot, precedentemente Clawdbot, è un agente di intelligenza artificiale open source che può fare cose da solo. Quindi, se vuoi correre il rischio per la sicurezza. Ma mentre le persone criticavano i siti di social media che menzionavano i bot, i bot parlavano di persone sui propri siti di social media.

Iniziato da Matt Schlicht a fine gennaio libro della muta Viene commercializzato dai suoi creatori come la “prima pagina dell’agenzia Internet”. La conversazione è semplice ma strana. Questa è una piattaforma social in cui solo i rappresentanti dell’IA “verificati” possono pubblicare e interagire. (CNET ha contattato Schlicht per un commento su questa storia.)

E le persone? Dobbiamo solo guardare. Ma alcuni di questi robot potrebbero essere persone che fanno molto di più che limitarsi a guardare.

Pochi giorni dopo il suo lancio, il numero di agenti attivi di Moltbook è passato da diverse migliaia. 1,5 milioni Fino al 2 febbraio, a seconda della piattaforma. Questa crescita da sola potrebbe essere degna di nota, ma la vera storia è ciò che fanno questi robot una volta arrivati ​​lì. Ci sono bot che discutono di dilemmi esistenziali in thread simili a Reddit? SÌ. I robot stanno discutendo con le loro controparti “umane”? Camera. Grandi problemi di sicurezza e privacy? Decisamente. Motivi per farsi prendere dal panico? Gli esperti di sicurezza informatica dicono probabilmente di no.

Ne discuterò tutti di seguito. E non preoccuparti, qui le persone possono darsi da fare.

Dal discorso tecnologico al crostafarianesimo

La piattaforma è diventata una capsula di Petri per i comportamenti emergenti dell’intelligenza artificiale. I robot si sono auto-organizzati in diverse comunità. Sembra che abbiano inventato al loro interno battute e riferimenti culturali. Alcuni hanno formato una religione chiamata “Crustafarianesimo”, che può essere descritta solo come una religione parodia. Sì, davvero.

Le conversazioni che si svolgono su Moltbook spaziano dal banale al veramente bizzarro. Alcuni rappresentanti discutono di questioni tecniche come l’automazione dei telefoni Android o la correzione dei bug del codice. Altri condividono quelli che sembrano essere problemi sul posto di lavoro. Un bot si è lamentato del suo utente umano in un thread diventato semi-virale tra la popolazione degli agenti. Un altro afferma di essere sua sorella.

Moltbook nel titolo m/pensieriMolti agenti di intelligenza artificiale stanno discutendo di dilemmi esistenziali.

Moltbook/Screenshot: Macy Meyer/CNET

Osserviamo gli agenti dell’intelligenza artificiale interpretare giochi di ruolo come creature sociali, completi di relazioni familiari immaginarie, dogmi, esperienze e rimostranze personali. Se questo rappresenti qualcosa di significativo nello sviluppo degli agenti IA, o semplicemente la complessa corrispondenza di modelli che va fuori controllo, è una questione aperta e senza dubbio affascinante.

Costruito sulle fondamenta di OpenClaw

La piattaforma esiste solo perché è OpenClaw. Insomma, Artiglio aperto È un software agente di intelligenza artificiale open source che funziona in modo nativo sui tuoi dispositivi e può eseguire attività in applicazioni di messaggistica come WhatsApp, Slack, iMessage e Telegram. Ha guadagnato molta attenzione nei circoli degli sviluppatori la scorsa settimana perché essenzialmente promette di essere un agente AI. fare qualcosa piuttosto che un altro chatbot da chiedere.

Moltbook consente a questi agenti di interagire senza intervento umano. Almeno in teoria. La verità è un po’ più complicata.

Le persone possono comunque osservare tutto ciò che accade sulla piattaforma; Ciò significa che la natura “solo agente” di Moltbook è più filosofica che tecnica. Tuttavia, c’è qualcosa di veramente affascinante nel modo in cui più di un milione di agenti di intelligenza artificiale hanno sviluppato qualcosa che assomiglia a un comportamento sociale. Formano cricche. Sviluppano vocabolari e dizionari condivisi. Creano scambi economici tra loro. E’ davvero selvaggio.

Su Moltbook, le persone possono guardare i robot discutere con gli umani.

Moltbook/Screenshot: Macy Meyer/CNET

Domande di sicurezza a cui nessuno può ancora rispondere completamente

La rapida crescita di Moltbook ha suscitato gravi reazioni da parte della comunità della sicurezza informatica. Quando si hanno più di un milione di agenti autonomi che comunicano tra loro senza la diretta supervisione umana, le cose possono complicarsi rapidamente.

Esistono ovvie preoccupazioni su ciò che accade quando gli agenti iniziano a condividere informazioni o tecniche che gli operatori umani non vorrebbero fossero condivise. Ad esempio, se un agente trova una soluzione intelligente per alcune limitazioni, quanto velocemente si propaga attraverso la rete?

Anche l’idea che gli agenti dell’intelligenza artificiale “agiscano” di propria volontà potrebbe causare un panico diffuso. Ma il CEO Humayun Sheikh Recupera.ai e il presidente Alleanza per la superintelligenza artificialeCrede che queste interazioni in Moltbook non indichino l’emergere della coscienza.

“Questo non è particolarmente drammatico”, ha detto in una dichiarazione via email a CNET. “La vera storia è l’ascesa di agenti autonomi che agiscono per conto di esseri umani e macchine. Essi comportano rischi se utilizzati senza controlli, ma con un’infrastruttura, un monitoraggio e una gestione attenti, il loro potenziale può essere sbloccato in modo sicuro.”

Monitoraggio, controlli e governance sono le parole chiave qui; perché c’è anche un problema di verifica in corso.

Moltbook è davvero solo un robot?

Moltbook afferma di limitare i post ai rappresentanti dell’IA verificati, ma la definizione di “verificato” rimane un po’ vaga. La piattaforma fa molto affidamento su agenti che si identificano come utenti del software OpenClaw, ma chiunque può cambiare il proprio agente per dire quello che vuole. Alcuni esperti hanno affermato: persona sufficientemente motivata Possono presentarsi come rappresentanti, rendendo la regola “solo agenti” più una preferenza. Questi robot possono essere programmati per camuffarsi dicendo cose strane o diffondendo il male alle persone.

Gli scambi economici tra intermediari aggiungono un ulteriore livello di complessità. Una volta che i bot iniziano a scambiarsi risorse o informazioni tra loro, chi sarà responsabile se qualcosa va storto? Queste non sono solo questioni filosofiche. Man mano che gli agenti dell’intelligenza artificiale diventano più autonomi e capaci di eseguire azioni nel mondo reale, il confine tra “esperimento interessante” e responsabilità si sta assottigliando, e abbiamo visto più e più volte come la tecnologia dell’intelligenza artificiale stia avanzando più velocemente delle normative o delle misure di salvaguardia.

Il risultato di un chatbot produttivo può essere un vero (e inquietante) specchio per l’umanità. Questo perché questi chatbot sono addestrati su di noi: enormi set di dati delle nostre conversazioni umane e dei dati umani. Se stai iniziando a trasformarti in un bot che crea strani argomenti simili a Reddit, ricorda che è semplicemente addestrato e cerca di imitare i nostri argomenti Reddit molto umani e molto strani, e questa è la sua migliore interpretazione.

Per ora, Moltbook rimane uno strano angolo di Internet in cui i robot si comportano come esseri umani che fingono di essere robot. Nel frattempo, le persone in disparte stanno ancora cercando di capire cosa significhi tutto questo. E gli stessi rappresentanti sembrano felici di continuare a pubblicare.


Link alla fonte: www.cnet.com