Las personas con discapacidad ya pueden controlar sus teléfonos con gestos faciales

El logotipo de Android se muestra en un teléfono inteligente. Logaster.

Google lanzó dos nuevas herramientas que permiten que el aprendizaje automático y las cámaras frontales de los teléfonos inteligentes funcionen detectando los movimientos faciales y oculares.

Los usuarios pueden escanear la pantalla de su teléfono y seleccionar una tarea sonriendo, levantando las cejas, abriendo la boca o mirando a la izquierda, derecha o arriba.

“Para hacer que Android sea más accesible para todos, estamos lanzando nuevas herramientas que facilitan el control de su teléfono y la comunicación mediante gestos faciales”, dijo Google.

Los Centros para el Control y la Prevención de Enfermedades estiman que 61 millones de adultos en Estados Unidos viven con discapacidades, lo que ha empujado a Google y a sus rivales Apple y Microsoft a hacer que los productos y servicios sean más accesibles para ellos.

“Todos los días, la gente usa comandos de voz, como ‘hey, Google’, o sus manos para navegar en sus teléfonos”, explicó el gigante tecnológico en una publicación de blog. “Sin embargo, eso no siempre es posible para las personas con discapacidades motoras y del habla graves”.

Los cambios son el resultado de dos nuevas funciones, una se llama “Interruptores de cámara”, que permite a las personas usar sus rostros en lugar de deslizar y tocar para interactuar con los teléfonos inteligentes.

Project Activate

El otro es Project Activate, una nueva aplicación de Android que permite a las personas usar esos gestos para desencadenar una acción, como hacer que un teléfono reproduzca una frase grabada, envíe un mensaje de texto o haga una llamada.

“Ahora es posible que cualquier persona utilice movimientos oculares y gestos faciales personalizados para su rango de movimiento para navegar en su teléfono, sin manos ni voz”, afirmó la compañia.

Apple, Google y Microsoft han implementado constantemente innovaciones que hacen que la tecnología de Internet sea más accesible para las personas con discapacidades o que encuentran que la edad ha dificultado algunas tareas, como la lectura.

Los asistentes digitales controlados por voz integrados en los altavoces y los teléfonos inteligentes pueden permitir que las personas con problemas de visión o de movimiento le digan a las computadoras qué hacer.

Existe un software que identifica texto en páginas web o en imágenes y luego lo lee en voz alta, así como generación automática de subtítulos que muestran lo que se dice en videos.

Una función -AssistiveTouch- que Apple incorporó al software que alimenta su reloj inteligente permite que las pantallas táctiles se controlen mediante la detección de movimientos como pellizcos con los dedos o con las manos.

Apple dijo en una publicación que “esta función también funciona con VoiceOver para que pueda navegar por Apple Watch con una mano mientras usa un bastón o lleva un animal de servicio”.

El gigante de la informática Microsoft por su parte describe la accesibilidad como esencial para capacitar a todos con herramientas tecnológicas.

“Para permitir un cambio transformador, la accesibilidad debe ser una prioridad”, citó. “Nuestro objetivo es integrarlo en lo que diseñamos para cada equipo, organización, aula y hogar”.

Con información de AFP.

Share this...
Share on Facebook
Facebook
Tweet about this on Twitter
Twitter