Google ci ha fornito una visione reale di come Android 17 potrebbe cambiare il modo in cui utilizzi il telefono. Nuovi strumenti per sviluppatori Lo ha annunciato martedì Lascia che gli agenti IA come Gemini entrino direttamente nelle tue app installate per trovare foto, gestire calendari o prenotare car pooling multistop mentre tu fai qualcos’altro.

L’idea è semplice. Invece di aprire le applicazioni una per una, dici all’intelligenza artificiale di cosa hai bisogno. Google lo definisce il “futuro dell’agenzia” e ora lo sta lanciando frammentariamente sulla serie Galaxy S26 e su alcuni dispositivi Pixel 10. Premendo a lungo il pulsante di accensione su questi telefoni è possibile delegare attività complesse ai Gemini. L’intelligenza artificiale sta inizialmente lavorando nelle app di consegna di cibo, generi alimentari e ride-sharing negli Stati Uniti e in Corea.

Due modi in cui i Gemelli possono prendere il controllo

Google lo sta sviluppando in due modi. Il primo è AppFunctions, un framework che consente agli sviluppatori di esporre funzionalità specifiche dell’app direttamente all’intelligenza artificiale. L’integrazione della Galleria Samsung su Galaxy S26 mostra come funziona. Chiedi a Gemelli di “mostrarmi le foto del mio gatto dalla Galleria Samsung”. L’intelligenza artificiale li trova e li visualizza. Non apri mai l’app Galleria. Funziona già con calendario, note e attività su dispositivi di più produttori.

La seconda strada è più ampia. Per le app senza integrazioni personalizzate, Google sta testando un framework di automazione dell’interfaccia utente. Permette ai Gemelli di svolgere compiti generali. La versione beta verrà lanciata sugli stessi dispositivi e supporta un numero selezionato di app nelle categorie di consegna di cibo, generi alimentari e ridesharing. L’intelligenza artificiale esegue un lavoro in più fasi utilizzando il contesto applicativo esistente.

Tu rimani al posto di guida

Lasciare che l’intelligenza artificiale si muova liberamente all’interno delle tue app sembra un rischio per la privacy. Google afferma di aver progettato queste funzionalità mettendo al centro la privacy e la sicurezza. Quando Gemini esegue un’attività tramite l’automazione dell’interfaccia utente, puoi monitorarne l’avanzamento tramite notifiche o visualizzazione live. Se qualcosa sembra sbagliato, intervieni e prendi il controllo manualmente.

Le azioni sensibili ottengono guardrail extra. Gemini ti avvisa prima di completare transazioni come gli acquisti. Il vero lavoro avviene sul tuo dispositivo, non su un server remoto. Google lo inquadra come un controllo utente aggiunto all’esperienza. L’obiettivo è garantire che l’automazione sia vantaggiosa, non spaventosa.

Android 17 e cosa ci aspetta

Questo è ancora presto. Google sta iniziando con un piccolo gruppo di sviluppatori per migliorare l’esperienza. L’anteprima dell’automazione dell’interfaccia utente è limitata a determinati dispositivi e categorie di app solo in due paesi. Tuttavia, la tabella di marcia punta ad Android 17 a partire dal momento in cui queste funzionalità verranno estese a più utenti, sviluppatori e produttori di dispositivi.

Per ora, se hai un Galaxy S26 o selezioni Pixel 10, puoi provarlo quando verrà rilasciata la versione beta. Per tutti gli altri il discorso è semplice. Il tuo telefono sta per diventare più intelligente nel gestire le attività noiose. Il passaggio dall’apertura delle app al dire all’IA ciò di cui hai bisogno è imminente. Entro la fine dell’anno, Android 17 inizierà probabilmente ad arrivare normalmente.


Link alla fonte: www.digitaltrends.com

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *