A medida que Google Glass va aumentando su disponibilidad a más usuarios mediante el Explorer Program,
van surgiendo nuevas opiniones y testimonios al respecto sobre los que
puede resultar interesante tener alguna información. Uno de los mejores
testimonios que he visto hasta el momento ha sido el de Lance Ulanoff, que ha estado probando una de las dos unidades que posee Mashable (a
$1.600 cada una), que hace especial hincapié en la facilidad de uso y
en la inmediatez con la que se acostumbró a llevarlas puestas y a
utilizarlas de manera habitual, tanto él como personas supuestamente
menos acostumbradas a la interacción con nuevas tecnologías.
Uno de los temas que me ha llamado la atención es el desarrollo de la interfaz táctil, el llamado “touchpad”
lateral que aparece en la fotografía: un rectángulo de plástico
estrecho y largo situado en el lateral derecho de nuestra cabeza, sobre
el que se pueden realizas diversas acciones, desde simplemente darle un
toque suave para activarlo, hasta movimientos en varios sentidos, a lo
largo o a lo ancho, con diferente interpretación en función de si son
ascendentes o descendentes. Sin tener aún experiencia propia al
respecto, la verdad es que parece un buen desarrollo que cumple muchas
reglas de usabilidad. Un videotutorial de Google explica brevemente el
uso, y la verdad, no parece que haya demasiado que explicar: con muy
pocas acciones sumamente intuitivas se avanza o retrocede a través de
las Cards (idénticas a las que podemos ver en Google Now),
se inician y detienen funciones, y se llevan a cabo acciones como
grabar o tomar una fotografía, que pueden también ser activadas mediante
comandos por voz.
Por supuesto, la cosa tambien tiene sus peligros: las gafas no traen ningún tipo de seguridad instalada, ni siquiera un sistema de autenticación, y si alguien pudiese hackear tu
dispositivo, podría estar literalmente “viendo lo que tú ves y oyendo
lo que tú oyes”. Pero independientemente de esta cuestión, con la que
sin duda habrá que lidiar más adelante, el desarrollo del interfaz me ha
parecido muy interesante. Pensar en Glass como plataforma de desarrollo
y en una multitud de apps adoptando ese tipo de gestos y
movimientos como base principal de actuación y relación con el usuario
puede aportar una mirada interesante a lo que será la gestión de muchos
de nuestros dispositivos en el futuro y nuestra relación con ellos y con
la información.
Suscribirse a:
Enviar comentarios (Atom)
No hay comentarios:
Publicar un comentario