Come apprendiamo dal sito letsgodigital.org – rivista online fondata nel 1999 e considerata oggi uno dei migliori siti Web di tecnologia – Google ha brevettato una nuova tecnologia in grado non solo di percepire i gesti che compiamo con il nostro corpo, ma anche in grado di trasformare i movimenti in segnali per il funzionamento dei dispositivi tech indossabili. Questa tecnologia funziona tramite una “interfaccia skin” e può essere può essere applicata a un’ampia gamma di prodotti.
Il progetto risale al 2020 quando Google LLC ha depositato un brevetto presso l’OMPI (World Intellectual Property Office) per una “Skin interface for Wearables: Sensor fusion to improve signal quality”. Qualche giorno fa, precisamente il 3 marzo, la documentazione di 27 pagine è stata approvata e pubblicata.
Come spiegato nel progetto presentato, l’utente avrà la possibilità di controllare i propri dispositivi con uno swipe o un tocco in punti precisi sulla propria pelle. Tale gesto infatti creerà un’onda meccanica rilevata dai sensori dell’oggetto indossato, che permetteranno il suo controllo.
L’utente potrà ad esempio scorrere verticalmente o lateralmente, o anche fare un tocco corto o lungo, con una o più dita. In questo modo controllerà varie funzioni, come rispondere o terminare una telefonata, regolare il volume, inoltrare o riavvolgere l’audio, ecc.
Dopo aver dato modo a Google di controllare la nostra posizione e le nostre conversazioni, perchè non dargli adesso la possibilità di conoscere anche i nostri più piccoli gesti? D’altronde il vantaggio di non dover più toccare gli auricolari nell’orecchio con il rischio che si muovano non vale la candela?
Qui il PDF del progetto Google pixel skin interface wearables
Massimo A. Cascone, 07.03.2022
Fonte: https://nl.letsgodigital.org/wearables-smartwatches/google-pixel-watch-pixel-buds/