Psicóloga clínica y social

Integradora social

Formadora de formadores

Tecnopedagoga

Información y Asesoramiento

Apoyo psicológico

Recursos

Psicovan

Tu mano Virtual en Diversidad Funciona

En la última versión de Windows 10, llamada 2004, la opción de lupa ahora también incluye el sistema de voz a texto del propio narrador de Windows, pudiendo leer el contenido en pantalla y que se activa, bien apretando el play que incorpora la lupa o, con el cursor del mouse activando el botón que aparece en la barra de lupa.

Una mejora que irá bien a personas con baja visión.

 

Huawei ha creado una app que permite a las personas con discapacidad visual transformar las expresiones faciales en diferentes sonidos facilitando con ello las relaciones interpersonales. Se trata de Facing Emotion, una aplicación basada en Inteligencia Artificial capaz de convertir siete emociones en siete sonidos diferentes.

Así, gracias a ella las personas ciegas podrán interpretar la ira, el miedo, el disgusto, la felicidad, la tristeza, la sorpresa y el desprecio de su interlocutor.

¿Cómo funciona Facing Emotion?

La app Facing Emotion funciona, de momento, en el Huawei Mate 20 Pro, un móvil que se caracteriza por su procesador pensado para la Inteligencia Artificial. Para empezar a usarla, basta con presionar la cámara traserapara escanear la cara de la persona con la que hablamos e identificar diferentes rasgos como los ojos, las cejas, la nariz o la boca, además de las posiciones que hay entre ellos.

Una vez hecho esto, es hora de la Inteligencia Artificial que aplica un aprendizaje automático para que las personas con discapacidad parcial o total sean capaces de identificar la expresión del rostro de la persona con la que hablan.

Junto a la app, Huawei ha desarrollado también un soporte impreso en 3D pensado para que las personas invidentes que necesiten bastón puedan usar la app con manos libres. Los archivos se pueden descargar de forma gratuita desde Shapeways.

 

Vía | Android Community

Eye-D ayuda a personas con discapacidad visual a sea consciente de la ubicación, explorar y navegar a lugares cercanos de interés, evaluar su entorno con la cámara del smartphone y leer el texto impreso. Eye-D será el verdadero compañero para la mayoría de lass necesidades de asistencia diaria.

https://eye-d.in/

El equipo de Google está desarrollando una nueva aplicación Android que tiene como objetivo ayudar a las personas con discapacidad visual en sus actividades diarias llamada Lookout, utiliza la cámara del móvil para detectar objetos, personas o textos del entorno del usuario y, como si fuera un asistente virtual, emite audios detallándolos.

El usuario debe llevar el dispositivo móvil como si fuera un collar o en el bolsillo de la camisa, permitiendo que la cámara pueda capturar lo que sucede en el exterior.

El usuario puede utilizar la aplicación de cuatro modos diferentes, dependiendo de la actividad que se está realizando.

Por ejemplo, si tiene que realizar las actividades diarias dentro de su propia casa, debe escoger Casa, para que la app emita notificaciones indicando dónde están los objetos en relación a su posición actual, para no crear confusión.

Para que el usuario pueda guiarse, el móvil le dirá en qué posición está con frases como "a las tres en punto" (derecha), "a las 12 en punto" (de frente).

Esta app aprovecha el potencial del aprendizaje automático, así que mientras más la utilice el usuario, más respuestas personalizadas obtendrá, ya que va aprendiendo poco a poco del comportamiento de quienes poseen esta herramienta.

Otra característica interesante es que la aplicación no necesita conexión a internetpara funcionar. 

imagen con objetos

Facebook

Este sitio web utiliza cookies para tener la mejor experiencia de usuario. Si continúa navegando está dando su consentimiento para la aceptación de dichas galletas y la aceptación de esta Política de cookies,