ci sei abituato intelligenza artificiale vivere su uno schermo. ESSO scrive e-mail, produce immagini E videorisponde alle domande e forse anche ti aiuta a programmare. Ma per la maggior parte, l’intelligenza artificiale è stata un fantasma nella macchina, bloccato in tasca o nel computer.
Cosa succede allora quando l’intelligenza artificiale lascia il tuo dispositivo e inizia a farsi strada nel mondo reale? È allora che ottiene un corpo.
L’intelligenza artificiale fisica si riferisce a sistemi di intelligenza artificiale incorporati nelle macchine che percepiscono il loro ambiente, prendono decisioni ed eseguono azioni utilizzando l’hardware. Pensare robot, auto senza conducentesistemi di automazione di magazzino e macchine chirurgiche.
UN. Studio PwCIl rapporto, pubblicato nel marzo 2026, prevede che il mercato globale dell’intelligenza artificiale fisica raggiungerà circa 430 miliardi di euro (500 miliardi di dollari) entro il 2030.
Esploriamo cosa sono queste macchine, quanto siamo lontani da sistemi veramente autonomi e cosa significa realmente per l’intelligenza agire e non solo rispondere.
Cos’è l’intelligenza artificiale fisica?
L’intelligenza artificiale fisica è l’intelligenza artificiale incorporata nelle macchine in grado di percepire, decidere e agire in ambienti del mondo reale.
Diverso chatbotI sistemi di intelligenza artificiale fisica raccolgono informazioni dal mondo 3D utilizzando sensori come fotocamere, microfoni e lidar (sensori di distanza basati su laser). Possono anche utilizzare sensori ambientali che misurano temperatura, pressione, umidità e vibrazioni per capire cosa sta succedendo intorno a loro. Elaborano queste informazioni in tempo reale e quindi controllano motori, ruote, bracci robotici o altri componenti meccanici per rispondere.
“L’intelligenza artificiale fisica non è sicuramente solo ChatGPT all’interno di un robot.” Zhengyang Kris Wengingegnere di sistemi robotici Domenicadice a CNET.
Potrebbe essere un chatbot avere allucinazioni Una citazione per la tua tesi. Ma uno robot di consegna Qualcuno che valuta male la distanza potrebbe colpire qualcuno.
Come funziona l’intelligenza artificiale fisica?
L’intelligenza artificiale fisica opera in un ciclo continuo di percezione, decisione, azione e apprendimento. Inizia con una macchina che cerca di dare un senso al mondo attraverso i dati che raccoglie dai suoi sensori.
Tuttavia, ciò che vede il sistema non è un film pulito.
È una tempesta caotica di dati per cui l’intelligenza artificiale deve essere in grado di distinguere lo zaino di un bambino da una cassetta della posta durante un forte acquazzone, ad esempio.
Per interpretare questo flusso di informazioni, i sistemi si affidano a diversi tipi di intelligenza artificiale. La visione artificiale analizza ciò che vedono le telecamere. apprendimento automatico i modelli riconoscono i modelli e prevedono cosa potrebbe accadere dopo. L’apprendimento per rinforzo consente al sistema di migliorare attraverso prove ed errori apprendendo quali azioni portano a risultati migliori. Anche alcuni sistemi più recenti utilizzano ragionamento attivo Pianificare più passi avanti e coordinare azioni complesse.
Una volta che il sistema ha creato un’immagine del suo ambiente, deve decidere cosa fare. Questa è la logica istantanea con cui l’intelligenza artificiale determina se il sacchetto di plastica che fluttua sulla strada è un’ombra innocua o qualcos’altro. sistema di guida autonoma Deve rallentare come una roccia.
Questa decisione si trasforma poi in azione. L’intelligenza artificiale invia comandi all’hardware e li trasforma in azioni, come guidare un veicolo o afferrare un oggetto con un braccio robotico.
Nel caso di un sistema autoeseguibile, se qualsiasi parte del ciclo viene ritardata anche per una frazione di secondo, non solo non funzionerà correttamente, ma andrà in crash. Weng ha detto a CNET che un’azione sbagliata del robot potrebbe persino danneggiare il robot stesso, e se il sistema non è addestrato a gestire situazioni insolite, potrebbe persino danneggiare il robot stesso. piuttosto infruttuoso nel mondo reale.
Evitare gli oggetti è la parte facile. Insegnare a un robot a manipolarli è molto più difficile. Un’intelligenza artificiale digitale vive in un mondo di set di dati puliti. Un’intelligenza artificiale fisica vive in un mondo di marciapiedi bagnati, abbagliamento degli obiettivi delle fotocamere e persone e animali imprevedibili che non seguono le regole del set di dati. Deve bilanciare simultaneamente percezione, ragionamento e movimento centinaia di volte al secondo.
Esempi di intelligenza artificiale fisica
Un robotaxi Waymo sta girando per San Francisco.
Alcune forme di intelligenza artificiale fisica sono già operative nel mondo reale. auto a guida autonoma o veicoli autonomi robotaxi E waymo ne sono alcuni degli esempi più chiari. Waymo e Quello di Tesla Utilizza modelli di intelligenza artificiale per interpretare i dati dei sensori e controllare i veicoli.
Weng dice che molte persone non si rendono conto che le auto senza conducente sono in realtà dei robot.
“Stanno raccogliendo dati sulla strada. E questo è un ottimo esempio di inserimento dei dati in un modello che aiuta a generare più dati. Lo chiamiamo volano dei dati”, dice Weng a CNET.
I robot sono disponibili in molte forme, dai robot umanoidi ai robot generici. L’Optimus di Tesla robot industriali in magazzini come Il robot Vulcan di Amazon Utilizzo dell’intelligenza artificiale per identificare, smistare e trasportare pacchi. Come la robotica chirurgica I sistemi da Vinci aiutano i medici con movimenti precisi. Anche il tuo roomba È una forma base di intelligenza artificiale fisica. Non scivola più come un autoscontro. Utilizza invece la localizzazione e la mappatura visiva simultanea per creare una mappa mentale della tua planimetria.
Viene utilizzata anche l’intelligenza artificiale fisica Spazi intelligenti e città intelligenti. Ad esempio, Singapore è a gemello digitale – replica virtuale 1:1 della città per eseguire simulazioni. In futuro, l’intelligenza artificiale fisica potrebbe aiutare a gestire intere città, come visto in progetti come: La città della tessitura di Toyota in Giappone.
Tutti questi sistemi combinano l’apprendimento automatico con l’hardware fisico, ma la maggior parte è mirata in modo ristretto. Un robot da magazzino può essere bravo a raccogliere scatole ma potrebbe essere inadeguato a spostarsi in un negozio di alimentari. Allo stesso modo, un sistema di guida autonoma potrebbe gestire bene le autostrade affrontare situazioni insolite come zone di costruzione o conducenti umani irregolari.
Il robot umanoide Neo di 1X ha capacità vocali alimentate dall’intelligenza artificiale.
Perché l’IA fisica è diversa dall’IA generativa?
IA generativa Ai modelli piace ChatGPT Prevedi modelli nel testo, nelle immagini o nell’audio. I modelli fisici di intelligenza artificiale devono prevedere i risultati in ambienti dinamici e reali.
L’intelligenza artificiale generativa viene addestrata su Internet, un’enorme libreria statica di dati di testo e immagini. L’intelligenza artificiale fisica è addestrata alla realtà e la realtà è costosa. Puoi addestrare un chatbot con miliardi di parole; costo dell’elettricità e del server. Addestrare un’auto a guida autonoma è diverso: devi guidarla davvero, tenendo conto della gravità, del ghiaccio nero e persino di un segnale di stop coperto di graffiti.
La raccolta di questi dati è lenta perché le macchine devono muoversi fisicamente, interagire con gli oggetti e osservare l’ambiente in tempo reale.
Per ridurre questi costi, gli sviluppatori gemello digitale simulazioni e modelli fondamentali del mondo creare dati sintetici. Questi sistemi creano spazi di formazione virtuale iperrealistici in cui i robot possono operare. padroneggiare la fisica e rare emergenze senza il rischio di un incidente nel mondo reale.
Anche così, le simulazioni sono tutt’altro che perfette.
“Ci sono ancora molti contatti complessi, attriti che sono davvero difficili da simulare e rendono realistico per i robot comprendere la differenza tra la simulazione e il mondo reale”, ha detto Weng a CNET.
Sfide, sicurezza e affidabilità
Una volta che l’intelligenza artificiale lascia lo schermo, l’affidabilità diventa tutto. I sistemi fisici devono operare in ambienti intrinsecamente imprevedibili. I sensori possono non funzionare correttamente, le telecamere possono essere accecate dall’abbagliamento e le persone possono comportarsi in modi che nessun set di dati di addestramento può catturare completamente.
“Probabilmente l’affidabilità viene trascurata molte volte. Può comunque essere inaffidabile e portare a prendere molte decisioni, soprattutto in condizioni di incertezza”, avverte Weng.
La maggior parte dei sistemi oggi sono progettati per gestire bene gli scenari comuni. La vera sfida sono le situazioni estreme: un camion di polli ribaltato o un cervo che sfreccia sulla strada. Questo è il periodo in cui questi sistemi vengono maggiormente testati.
“Quando interrompi qualsiasi copione intorno a lui, potrebbe pensare, ‘Ehi, non l’ho mai visto prima’, e non sa cosa fare. E può impazzire proprio lì”, dice Weng.
E a differenza del software, non puoi commettere un errore meccanico premendo CTRL+Z. Un’app difettosa può essere risolta dall’oggi al domani con un aggiornamento; Un malfunzionamento del robot o una collisione di un veicolo hanno conseguenze nel mondo reale.
“(L’intelligenza artificiale fisica) ha effettivamente la capacità di cambiare l’ambiente fisico circostante. Può anche applicare forza e torsione agli oggetti. E ciò avrà conseguenze fisiche”, afferma Weng, come scopre questo povero ragazzo nel video qui sotto.
Ciò solleva interrogativi sugli standard e sulla responsabilità. Quanto è sufficientemente sicuro prima della distribuzione? “Siamo ancora lontani dall’avere il livello ideale di protezione a più livelli e misure di sicurezza… Se è affidabile al 99% e l’1% è sbagliato, potrebbe comunque creare confusione”, ha detto Weng a CNET.
Dove sta andando l’intelligenza artificiale fisica?
Ricercatori e aziende stanno ora esplorando quella che viene spesso definita intelligenza artificiale incorporata, dove le macchine imparano facendo e non solo leggendo. L’idea è che l’intelligenza diventa più forte quando si basa sull’interazione fisica.
Gli esperti spesso indicano robot che potrebbero aiutare con l’assistenza agli anziani, macchine che potrebbero aiutare la risposta alle catastrofi o sistemi agricoli che monitorano autonomamente i raccolti. I magazzini possono operare con maggiore automazione e il trasporto urbano può diventare più autonomo.
“Molto probabilmente i robot appariranno in molti luoghi in cui le attività sono ripetitive e gli ambienti sono strutturati in qualche modo”, afferma Weng.
L’intelligenza artificiale fisica esiste già in forme limitate. L’intelligenza artificiale è iniziata come qualcosa che hai scritto. Ora è qualcosa che può muoversi.
Link alla fonte: www.cnet.com
