Secondo quanto riferito, Google sta sviluppando un importante aggiornamento per il suo produttivo assistente AI Gemini che potrebbe trasformarlo da un assistente principalmente conversazionale in qualcosa di più vicino a un rappresentante aziendale nella vita reale. Con il recente smontaggio del codice dell’app Google in versione beta 9to5GoogleGli sviluppatori hanno introdotto internamente stringhe che puntano a una funzionalità nota come “automazione dello schermo”. Ciò suggerisce che Gemini sarà presto in grado di eseguire azioni dirette in determinate app Android, come effettuare un ordine o prenotare una corsa, senza che l’utente debba toccare manualmente gli schermi.
Mentre Gemini supporta già attività di conversazione come la stesura di e-mail o la creazione di piani di ricerca, questo aggiornamento sembra destinato a consentirgli di interagire letteralmente con le interfacce delle app, toccando pulsanti e navigando tra le schermate per completare attività che normalmente svolgeresti da solo. Le prime prove della beta suggeriscono che queste funzionalità saranno inizialmente limitate a una manciata di app supportate e enfatizzeranno il controllo dell’utente, con Google che avverte che “Gemini è fallibile” e che gli utenti rimarranno responsabili delle azioni intraprese per loro conto.
In che modo questo aggiornamento sposta l’IA da assistente ad agente?
Il concetto alla base dell’automazione dello schermo è un passo importante verso una maggiore autonomia dell’IA nei flussi di lavoro digitali quotidiani. Invece di limitarsi a suggerire cosa puoi fare, Gemini potrebbe presto essere in grado di imporre tali scelte direttamente all’interno delle app. Le prime stringhe di codice della beta di Google mostrano anche misure sulla privacy, come avvisare gli utenti di non inserire informazioni di accesso o di pagamento nelle chat AI e avvisare che gli screenshot potrebbero essere rivisti per migliorare la funzionalità. Google offre già alcune funzionalità degli agenti su Workspace e sul Web attraverso la sua piattaforma Gemini Agent, dove l’intelligenza artificiale può gestire flussi di lavoro complessi e coordinarsi tra i servizi; ma l’automazione dello schermo può portare queste funzionalità direttamente sugli smartphone e sull’uso quotidiano delle app.
Se queste funzionalità diventassero ampiamente disponibili, potrebbero segnalare un cambiamento nel modo in cui le persone interagiscono con i dispositivi mobili, consentendo agli strumenti di intelligenza artificiale di agire per loro conto anziché toccare e scorrere. Ciò può semplificare le routine quotidiane, ma solleva anche interrogativi sul controllo, sulla sicurezza e sulla supervisione, soprattutto laddove l’automazione tocca compiti sensibili come le prenotazioni o gli ordini finanziari.
Secondo quanto riferito, Google sta posizionando questi aggiornamenti come facoltativi e controllati, consentendo agli utenti di interrompere o ignorare Gemini in qualsiasi momento. Tuttavia, per ora, la funzionalità di automazione dello schermo è in fase di sviluppo e non ha ancora raggiunto le versioni stabili.
Link alla fonte: www.digitaltrends.com