El equipo de Google está desarrollando una nueva aplicación Android que tiene como objetivo ayudar a las personas con discapacidad visual en sus actividades diarias llamada Lookout, utiliza la cámara del móvil para detectar objetos, personas o textos del entorno del usuario y, como si fuera un asistente virtual, emite audios detallándolos.
El usuario debe llevar el dispositivo móvil como si fuera un collar o en el bolsillo de la camisa, permitiendo que la cámara pueda capturar lo que sucede en el exterior.
El usuario puede utilizar la aplicación de cuatro modos diferentes, dependiendo de la actividad que se está realizando.
Por ejemplo, si tiene que realizar las actividades diarias dentro de su propia casa, debe escoger Casa, para que la app emita notificaciones indicando dónde están los objetos en relación a su posición actual, para no crear confusión.
Para que el usuario pueda guiarse, el móvil le dirá en qué posición está con frases como "a las tres en punto" (derecha), "a las 12 en punto" (de frente).
Esta app aprovecha el potencial del aprendizaje automático, así que mientras más la utilice el usuario, más respuestas personalizadas obtendrá, ya que va aprendiendo poco a poco del comportamiento de quienes poseen esta herramienta.
Otra característica interesante es que la aplicación no necesita conexión a internetpara funcionar.