Immagina di dire qualcosa a bassa voce a te stesso e il tuo assistente AI sa cosa stai cercando di dire. Questo può avvenire attraverso gli occhiali, le cuffie o la fotocamera del telefono. Apple ha appena acquistato un’azienda Q.aiSta cercando di fare proprio questo. Sembra strano e fantascientifico, ma essendo una persona che osserva da molto tempo gli occhiali intelligenti e i dispositivi indossabili, mi suona anche molto familiare.

L’investimento di Apple in questa startup israeliana non è affatto piccolo. Secondo le informazioni ottenute, il costo dell’acquisizione ammonta a circa 2 miliardi di dollari. Rapporto originale del Financial Times E Fonti di notizie come Reuters. Questo è più di qualsiasi altra mossa di Apple dalla spettacolare acquisizione di Beats dieci anni fa. Ma a differenza di Beats, nessuno conosce Q.ai. Almeno non ancora. Tuttavia, le possibilità per nuove interfacce potrebbero essere molto potenti. Un altro tassello importante si aggiunge al puzzle in continua espansione delle future interfacce tecnologiche personali.

Q.ai non è un’azienda che ho mai incontrato o provato, ma uno dei suoi fondatori, Aviad Maizels, ha anche creato PrimeSense, la tecnologia a infrarossi che alimenta le funzionalità 3D di scansione della stanza della fotocamera Kinect di Microsoft per Xbox anni fa. PrimeSense (valore precedente) Acquisita da Apple Questa tecnologia nel 2013 Array di fotocamere TrueDepth per Face ID e anche Vision Pro di Apple Per il tracciamento delle mani a distanza ravvicinata.

A giudicare dai brevetti segnalati, Q.ai consente di tracciare piccoli movimenti facciali ed espressioni emotive con sensori ottici e potrebbe consentire l’immissione silenziosa di comandi in un’interfaccia AI o il riconoscimento di altri sottili segnali facciali. Sito israeliano GeekTime Entra un po’ più nel dettaglio, dicendo che la tecnologia misurerà i movimenti dei muscoli e delle labbra e potrebbe aver bisogno di essere vicino alla bocca.

CNET ha contattato Apple e Q.ai per un commento, ma nessuno dei due ha risposto immediatamente.

Vision Pro può già tracciare i movimenti facciali, ma non può convertire i movimenti delle labbra in parole.

Numi Prasarn/CNET

Parte di un nuovo sistema di interfaccia per dispositivi indossabili e occhiali?

Ho appena scritto che Apple sta già mostrando segni di movimento verso un ecosistema. dispositivi indossabili IA connessi: aghi, occhiali, cuffie, orologi o una combinazione di questi. Ognuno di questi dispositivi indossabili potrebbe potenzialmente utilizzare ciò che Q.ai sta sviluppando. Cuffie e occhiali sembrano essere le due aree più probabili, e secondo i rapporti AirPods di nuova generazione Avrà telecamere a infrarossi, le parti sembreranno ancora più pronte per la connessione.

Anche i visori per realtà mista come Vision Pro possono trarre vantaggio dalla tecnologia Q.ai. Vision Pro è già in grado di riconoscere le espressioni facciali con le sue telecamere di tracciamento oculare, telecamere rivolte verso il basso e sensori a infrarossi. Ma per me interagire con il Vision Pro è ancora un po’ imbarazzante. Uso gli occhi per guardare, le mani per pizzicare le cose, ma devo dire “Ehi Siri” per fare una richiesta vocale. Preferisco che le mie interazioni siano più naturali e sottili. Forse questo nuovo acquisto può aiutare.

Come menzionato dall’artista e ricercatrice di realtà aumentata Helen Papagiannis Note nell’ultima newsletter“Il presunto pin AI di Apple ha meno senso come prodotto autonomo e più come nodo nell’ecosistema Apple, sfruttando la percezione, l’intelligenza e il contesto condivisi tra i dispositivi che lavorano di concerto con gli AirPods e infine con gli occhiali.”

Disponibile occhiali intelligenti come quelli di Meta e quelli a venire da Google Facciamo affidamento principalmente sulla voce per l’interazione. Farlo silenziosamente può essere un enorme vantaggio, ma entrano in gioco anche altri aspetti oltre al suono. Meta ha una toppa nervosa che si indossa sul polso e ha l’obiettivo di aggiungere eventualmente il tracciamento oculare anche agli occhiali. Gli occhiali di Google funzioneranno anche con i gesti basati sull’orologio.

Sono anche un po’ preoccupato per la privacy. Qualsiasi tecnologia in grado di leggere le labbra e riconoscere le espressioni sottili può essere utilizzata per monitorare e ascoltare a distanza le tue intenzioni. Come è possibile utilizzare questa tecnologia in modo privato e affidabile? Oppure la possibilità di esprimere silenziosamente le richieste sarebbe più speciale dei comandi vocali che utilizzo attualmente?

Altro per andare oltre la lettura labiale?

Voglio ancora interfacce che non utilizzino affatto il parlato. Basato sull’elettromiografia di Meta tecnologia del nastro nervoso Indica modi più complessi in cui i movimenti del polso potrebbero evolversi per funzionare con occhiali e cuffie. Un’altra azienda israeliana, Wearable Devices, ha il proprio patch neurale chiamato Mudra e mira ad espandere le capacità di input di precisione derivate dagli impulsi elettrici dei motoneuroni.

L’elettroencefalografia, che misura i segnali cerebrali, è un’altra direzione. Sebbene alcune aziende stiano esplorando l’EEG per le interfacce cervello-computer, si tratta ancora principalmente di un sistema di sensori focalizzato su applicazioni mediche e sanitarie.

Possiamo annoverare anche la tecnologia Q.ai tra le interfacce che possono far sentire più connessi a noi i computer indossabili che utilizziamo. È strano e inquietante, ma penso anche che la maggior parte delle aziende produttrici di occhiali, tecnologia indossabile e VR/AR si stiano già muovendo in questa direzione. Questa non è un’anomalia. La mossa di Apple è un’altra parte della tendenza.


Link alla fonte: www.cnet.com