Quando tocco l’app di Anthropic Claude A.I. sul mio telefono e dagli un comando – dì “Raccontami una storia su un gatto cattivo” – accadono molte cose prima che il risultato (The Great Tuna Heist) appaia sul mio schermo.
La mia richiesta viene inviata al cloud (un computer). grande centro dati da qualche parte – da passare attraverso il Sonetto 4.5 di Claude grande modello linguistico. Il modello genera una risposta plausibile utilizzando testo predittivo avanzato, sfruttando le enormi quantità di dati su cui è stato addestrato. Questa risposta viene quindi reindirizzata al mio iPhone e appare sul mio schermo, parola per parola, riga per riga. Ha viaggiato per centinaia, se non migliaia, di miglia e ha attraversato molti computer nel suo tragitto da e verso il mio piccolo telefono. E tutto questo avviene in pochi secondi.
Per saperne di più: CNET sceglie il meglio dei premi CES 2026
Questo sistema funziona bene se quello che stai facendo è a basso rischio e la velocità non è davvero un problema. Posso aspettare qualche secondo per la mia piccola storia su Whiskers e la sua disavventura nella credenza della cucina. Tuttavia, non tutti i compiti dell’intelligenza artificiale sono così. Alcuni richiedono una velocità enorme. Un dispositivo di intelligenza artificiale non può permettersi di aspettare un secondo o due se deve avvisare qualcuno di un oggetto che blocca il suo percorso.
Altre richieste richiedono maggiore riservatezza. Non mi interessa se la storia del gatto passa attraverso dozzine di computer di proprietà di persone e aziende che non conosco e di cui potrei non fidarmi. E le mie informazioni sanitarie o i miei dati finanziari? Potrei voler mantenere una presa più stretta su questo problema.
Non perdere i nostri contenuti tecnologici imparziali e le recensioni basate sui laboratori. Aggiungi CNET come risorsa Google preferita.
Velocità e privacy sono le due ragioni principali per cui gli sviluppatori di tecnologia stanno spostando sempre più le operazioni di intelligenza artificiale dai grandi data center aziendali ai dispositivi personali come telefoni, laptop o smartwatch. Ci sono anche risparmi sui costi: non è necessario pagare un grande operatore di data center. Inoltre, i modelli presenti sul dispositivo possono funzionare senza connessione Internet.
Ma rendere possibile questo cambiamento richiede hardware migliore e modelli di intelligenza artificiale più efficienti (spesso più specializzati). La combinazione di questi due fattori determinerà in definitiva la velocità e la fluidità della tua esperienza su dispositivi come il tuo telefono.
Mahadev Satyanarayanan, noto come Satya, è professore di informatica alla Carnegie Mellon University. Ha esplorato il concetto di quello che da tempo è noto come edge computing, ovvero la gestione dell’elaborazione e dell’archiviazione dei dati il più vicino possibile all’utente reale. Il modello ideale per il vero edge computing, afferma, è il cervello umano, che non delega compiti come la visione, il riconoscimento, la parola o l’intelligenza a nessun “cloud”. Tutto avviene lì, completamente “sul dispositivo”.
“Ecco il problema: la natura ha impiegato un miliardo di anni per svilupparci”, mi ha detto. “Non abbiamo un miliardo di anni da aspettare. Stiamo cercando di farlo in cinque o 10 anni al massimo. Come possiamo accelerare l’evoluzione?”
Puoi accelerare tutto questo con un’intelligenza artificiale migliore, più veloce e più piccola in esecuzione su hardware migliore, più veloce e più piccolo. È sulla buona strada, come abbiamo già visto con le app e i dispositivi più recenti, compresi quelli che abbiamo visto al CES 2026.
Probabilmente l’intelligenza artificiale è in esecuzione sul tuo telefono in questo momento
L’intelligenza artificiale sul dispositivo è tutt’altro che nuova. Ricordi nel 2017 quando potevi sbloccare per la prima volta il tuo iPhone tenendolo davanti al viso? Questa tecnologia di riconoscimento facciale utilizzava un motore neurale integrato nel dispositivo; Era un’intelligenza artificiale di base, non un’intelligenza artificiale generale come Claude o ChatGPT.
Gli iPhone di oggi utilizzano un modello di intelligenza artificiale sul dispositivo molto più potente e versatile. Ha circa 3 miliardi di parametri; calcoli dei pesi individuali attribuiti alla probabilità in un modello linguistico. Si tratta di un valore relativamente piccolo rispetto ai grandi modelli generici su cui viene eseguita la maggior parte dei chatbot IA. Ad esempio, Deepseek-R1 671 miliardi di parametri. Ma non tutto è destinato a essere fatto. È invece progettato per attività specifiche sul dispositivo, come il riepilogo dei messaggi. Proprio come la tecnologia di riconoscimento facciale per sbloccare il telefono, questo è qualcosa su cui non puoi permetterti di fare affidamento su una connessione Internet per eseguire un modello nel cloud.
Apple ha potenziato le sue capacità di intelligenza artificiale sul dispositivo (chiamate Apple Intelligence) per includere funzionalità di riconoscimento visivo come consentirti di cercare le cose che hai screenshottato.
I modelli di intelligenza artificiale sul dispositivo sono ovunque. I telefoni Pixel di Google utilizzano esclusivamente il modello Gemini Nano dell’azienda Chip tensore G5. Questo modello supporta funzionalità come Magic Cue, che mostra le informazioni nelle e-mail, nei messaggi e altro quando ne hai bisogno, senza doverle cercare manualmente.
Gli sviluppatori di telefoni, laptop, tablet e dell’hardware al loro interno stanno sviluppando dispositivi pensando all’intelligenza artificiale. Ma va oltre questi. Ricordi gli orologi e gli occhiali intelligenti che offrono uno spazio molto più limitato anche del telefono più sottile?
“Le sfide del sistema sono molto diverse”, ha affermato Vinesh Sukumar, responsabile dell’intelligenza artificiale generativa e dell’apprendimento automatico presso Qualcomm. “Posso fare tutto questo su tutti i dispositivi?”
In questo momento la risposta è generalmente no. La soluzione è abbastanza semplice. Quando una richiesta supera le capacità del modello, scarica l’attività su un modello basato su cloud. Ma a seconda di come viene gestito questo trasferimento, potrebbe compromettere uno dei principali vantaggi dell’intelligenza artificiale sul dispositivo: mantenere i dati interamente nelle tue mani.
Intelligenza artificiale più privata e sicura
Gli esperti sottolineano ripetutamente che la privacy e la sicurezza sono i principali vantaggi dell’intelligenza artificiale integrata nei dispositivi. Nel caso del cloud, i dati volano in tutte le direzioni e sono esposti a maggiori vulnerabilità di sicurezza. È molto più semplice proteggerlo se rimane su un telefono crittografato o su un’unità laptop.
Dati utilizzati dai modelli di intelligenza artificiale dei tuoi dispositivi; Ciò può includere cose come le tue preferenze, la cronologia di navigazione o le informazioni sulla posizione. Sebbene tutto ciò sia necessario affinché l’intelligenza artificiale possa personalizzare la tua esperienza in base alle tue preferenze, è anche il tipo di informazioni che potresti non voler cadere nelle mani sbagliate.
“Ci impegniamo a garantire che l’utente abbia accesso a questi dati e che sia l’unico proprietario di questi dati”, ha affermato Sukumar.
Apple Intelligence ha dato a Siri un nuovo look su iPhone.
Esistono diversi modi in cui le informazioni possono essere trasferite per proteggere la tua privacy. Un fattore importante è che devi dare il permesso affinché ciò accada. Sukumar ha affermato che l’obiettivo di Qualcomm è garantire che le persone siano informate e abbiano la capacità di dire di no quando un modello raggiunge il punto di essere trasferito nel cloud.
Un altro approccio che potrebbe funzionare, oltre a richiedere il consenso dell’utente, è garantire che i dati inviati al cloud vengano elaborati in modo sicuro per brevi periodi di tempo e temporaneamente. Ad esempio, Apple utilizza la tecnologia che chiama Cloud computing privato. I dati trasferiti vengono elaborati esclusivamente sui server di Apple, vengono inviati solo i dati minimi necessari per l’attività e nulla di tutto ciò viene archiviato o reso disponibile ad Apple.
L’intelligenza artificiale senza il costo dell’intelligenza artificiale
I modelli di intelligenza artificiale eseguiti sui dispositivi offrono un vantaggio sia per gli sviluppatori di app che per gli utenti in quanto il costo corrente per gestirli è essenzialmente nullo. Non esiste alcuna società di servizi cloud che paghi per l’energia e la potenza di calcolo. È tutto sul tuo telefono. La tua tasca è il data center.
Questo è ciò che ha attratto Charlie Chapman, sviluppatore dell’app Noise Machine. Rumore oscuroall’utilizzo del Foundation Models Framework di Apple per uno strumento che ti consente di creare un mix di suoni. Il modello di intelligenza artificiale presente sul dispositivo non produce nuovi suoni; seleziona semplicemente i diversi suoni e livelli di volume disponibili per creare un unico mix.
Poiché l’intelligenza artificiale funziona sul dispositivo, non ci sono costi correnti quando crei i tuoi mix. Per un piccolo sviluppatore come Chapman, ciò significa che ci sono meno rischi per l’entità della base utenti della sua app. “Se qualche influencer pubblicasse casualmente un post a riguardo e io avessi un’incredibile quantità di utenti gratuiti, ciò non significa che all’improvviso andrò in bancarotta”, ha detto Chapman.
Per saperne di più: Nozioni di base sull’intelligenza artificiale: 29 modi per far sì che l’intelligenza artificiale funzioni per te, secondo i nostri esperti
La mancanza di costi continui derivanti dall’intelligenza artificiale sul dispositivo consente di automatizzare attività piccole e ripetitive come l’immissione di dati senza grandi costi o contratti informatici, ha affermato Chapman. Lo svantaggio è che i modelli disponibili variano da dispositivo a dispositivo; Pertanto, gli sviluppatori dovranno lavorare di più per garantire che le loro applicazioni vengano eseguite su hardware diverso.
Più attività di intelligenza artificiale vengono eseguite sui dispositivi di consumo, meno le aziende di intelligenza artificiale dovranno spendere per costruire gli enormi data center che tutte le principali aziende tecnologiche stanno cercando di guadagnare denaro e chip di computer. “Il costo delle infrastrutture è enorme”, ha detto Sukumar. “Se vuoi davvero crescere, non vuoi aumentare l’onere dei costi.”
Per i creatori che utilizzano l’intelligenza artificiale per l’editing di video o foto, l’esecuzione di questi modelli sul proprio hardware ha il vantaggio di evitare costosi abbonamenti basati su cloud o costi di utilizzo. al CES. abbiamo visto come computer speciali o dispositivi specialiPiace Nvidia DGX SparkPuò alimentare modelli di rendering video intensivo come Lightricks-2.
Il futuro dipende interamente dalla velocità
Molti dei reali vantaggi dell’intelligenza artificiale e dell’apprendimento automatico, soprattutto quando si tratta di funzioni in dispositivi come occhiali, orologi e telefoni, non hanno niente a che vedere con il chatbot che ho usato per creare la storia di un gatto all’inizio di questo articolo. Cose come il riconoscimento degli oggetti, la navigazione e la traduzione. Questi richiedono modelli e hardware più specializzati, ma richiedono anche più velocità.
Satya, professore alla Carnegie Mellon, sta studiando i diversi usi dei modelli di intelligenza artificiale e se funzionano in modo accurato e sufficientemente rapido utilizzando modelli su dispositivo. La tecnologia odierna è piuttosto buona quando si tratta di classificazione delle immagini degli oggetti; Può fornire risultati accurati entro 100 millisecondi. “Cinque anni fa non potevamo ottenere questo tipo di precisione e velocità da nessuna parte”, ha detto.
Questo screenshot ritagliato di riprese video acquisite con gli occhiali Oakley Meta Vanguard AI mostra le metriche di allenamento dell’orologio Garmin associato.
Ma per gli altri quattro compiti – rilevamento degli oggetti, segmentazione istantanea (la capacità di riconoscere gli oggetti e le loro forme), riconoscimento degli eventi e tracciamento degli oggetti – i dispositivi devono ancora essere trasferiti altrove su un computer più potente.
“Sarà piuttosto entusiasmante nei prossimi anni, cinque anni circa, poiché i fornitori di hardware cercheranno di rendere i dispositivi mobili più adatti all’intelligenza artificiale”, ha affermato Satya. “Disponiamo anche di algoritmi di intelligenza artificiale più potenti, più accurati e con una maggiore intensità di calcolo.”
Le opportunità sono enormi. In futuro, ha detto Satya, i dispositivi potrebbero utilizzare la visione artificiale per avvisarti prima che tu fallisca a causa di un pagamento irregolare o ricordarti con chi stai parlando e fornire un contesto sulle tue comunicazioni passate con loro. Tali cose richiederanno un’intelligenza artificiale più specializzata e hardware più specializzato.
“Queste cose verranno fuori”, ha detto Satya. “Possiamo vederli all’orizzonte, ma non sono ancora qui.”
Data di pubblicazione: 2026-01-20 22:09:00
Link alla fonte: www.cnet.com










