Google Glass se ha mostrado como uno de los dispositivos que más dará que hablar a lo largo de los próximos años. Con el nuevo GDK ahora es posible desarrollar software para las gafas inteligentes con mucha más libertad.
Desde el lanzamiento de las Google Glass, el buscador, con la ayuda del feedback de los Desarrolladores Exploradores, ha ido creando nuevas aplicaciones, características y funcionalidades que poco a poco van estando disponibles en las gafas inteligentes. En su presentación mostraron cómo las Glass permiten grabar y reproducir fotografías y vídeos, llamar, mandar mensajes, chatear o buscar una dirección, además de interactuar con aplicaciones como Facebook, Twitter, Evernote, Tumblr o CNN, entre otras. Pero esto solo era el principio.
Con el lanzamiento del nuevo entorno de desarrollo Glass Development Kit (GDK), los desarrolladores pueden desde ahora sacar mucho más provecho a las Google Glass, ya que hasta el momento han estado creando software (el llamado Glassware, como lo bautizó Google), solo a través de la Mirror API.
Este nuevo kit es una extensión del Android SDK que permite crear software y ejecutarlo directamente en las Glass. Utiliza los mismos paradigmas que los desarrolladores de Android están acostumbrados a utilizar, así que aquel que tenga conocimientos de este sistema operativo le será mucho más fácil empezar a usar el nuevokit. Para aquellos que no los tengan, Google también facilita una guía rápida de uso para beginners.
A partir de ahora, por lo tanto, habrá tres modos de crear Glassware: a través del GDK, de la Mirror API o combinando ambos. En este sentido, Google recomienda utilizar el nuevo kit de desarrollo si necesitas una interacción con el usuario en tiempo real, funcionalidad offline y acceso directo a hardware. Si prefieres tener más independencia de la plataforma a utilizar, una infraestructura común y funciones que faciliten el desarrollo, deberás tener en cuenta el hecho de crear tus aplicaciones desde la Mirror API. No obstante, con el modelo híbrido, puedes utilizar la Mirror API y el GDK conjuntamente través de un menú común. De esta forma, es posible aprovechar las propiedades web existentes para crear aplicaciones más completas.
Además, con el nuevo kit de desarrollo las aplicaciones implementadas en las Glass podrán utilizarse con o sin conexión a Internet (por ejemplo, las traducciones se realizarán ahora sin necesidad de estar online). Ésta última es una característica muy novedosa, ya que hasta este momento era imprescindible estar conectado a la Red.
Para que te hagas una idea de lo que es posible, Google ha presentado cinco nuevos Glassware construidos en la nueva plataforma:
Allthecooks: Un programa para mirar recetas.
Word Lens: Un nuevo traductor de palabras que permite al usuario traducir a su idioma palabras o frases escritas en señales, anuncios, carteles, etc.
GolfSight: Una aplicación para jugadores de golf con mapas y estadísticas de juego.
Strava: Una aplicación para ciclistas con seguimiento de la distancia recorrida y visualización de progresos.
Spellista: Un puzzle interactivo.
En general, ya hay muchas aplicaciones específicamente creadas para las Google Glass. En esta lista puedes encontrar muchas de ellas. De hecho, algunos de los Explorers de Google han sabido adaptar las características de las Glass a sus nuevas creaciones. En el International Symposium on Wearable Computers (ISWC), celebrado junto a la International Joint Conference on Pervasive and Ubiquitous Computing(UbiComp), en Zürich, se pudieron ver algunas de estas aplicaciones más innovadoras:
– Lengua de Signos Americana (ASL). La aplicación SMARTsign, desarrollada por la Glass Explorer + Kim Xu, permite aprender el lenguaje de signos a través de micro lecciones directamente desde las Google Glass, pudiendo establecerse en varios intervalos según la preferencia del usuario, durante todo el día. Y es que, alrededor del 90 por ciento de los niños que nacen sordos nacen de padres que pueden oír, sin embargo, muchos de esos padres tienen dificultades para comunicarse con sus hijos al no conocer la lengua de signos.
– Información adaptada al usuario. Otro de los Exploradores asistente al evento ha pensado en integrar un sensor fNIRS para recibir información y notificaciones cuando el usuario así lo desee. Este sensor, en líneas muy generales, sería capaz de predecir lo ocupado que está el usuario y a partir de ahí, permitir que reciba o no información en sus Google Glass. Con ello, lo que pretende es encontrar la manera de adaptar las Google Glass a las necesidades de cada usuario.
Tu oportunidad
Además, si eres desarrollador y resides en Estados Unidos, aún tienes la oportunidad de unirte comoExplorador a su programa TheGlass Explorer, aunque según la compañía no están garantizadas al cien por cien todas las admisiones. No obstante, Google ha afirmado que tiene la intención de ir ampliándolo poco a poco. El programa empezó en junio de 2012 con alrededor de 2.000 desarrolladores que asistieron a la conferencia Google I/O, y la compañía quiere ampliar sus invitaciones a un total de 8.000.
Por último, si quieres ver demostraciones del alcance de todas las aplicaciones que se están creando para las GooglesGlass, no te pierdas este vídeo de presentación del GlassDevelopment Kit.