Investigadores de la Universidad Politécnica de Madrid han desarrollado una aplicación que permite a los ciegos familiarizarse con un lugar desconocido, antes de visitarlo físicamente, sin más ayuda que la de un smartphone.
Un equipo de investigadores del Centro de Tecnología Biomédica (CTB) de la Universidad Politécnica de Madrid (UPM) mantiene activa desde hace años la línea de investigación eGLANCE, que les ha llevado a desarrollar una aplicación que permite a las personas ciegas percibir los objetos, personas, y otros elementos de una sala, aunque estos estén más allá del alcance de su bastón. La herramienta, además, les guía a través del mejor camino entre dos puntos, evitando los obstáculos. De este modo, pueden tomar decisiones eficientes en situaciones en las que el estado de localizaciones distantes es un factor determinante, lo que conduce a la disminución del esfuerzo físico y mental extra al que se ven sometidos en sus decisiones cotidianas.
Visitar un lugar desconocido supone un esfuerzo grande y estresante para los invidentes. La carencia de información visual impone una fuerte carga cognitiva a la hora de familiarizarse con la disposición de los obstáculos. Así mismo, lleva aparejados unos elevados niveles de incertidumbre e inseguridad durante los desplazamientos, ya que las estructuras sobresalientes a la altura de la cabeza, como letreros, o algunas concavidades del entorno, provocan situaciones de riesgo. El profesor José Javier Serrano del CTB-UPM está convencido de que la realidad virtual y la realidad aumentada son tecnologías viables para ayudar a los ciegos a familiarizarse y desplazarse por lugares desconocidos. Basándose en esta hipótesis puso en marcha la línea de investigación eGLANCE, con el objetivo de desarrollar una aplicación para que los ciegos puedan, en primer lugar, percibir los objetos, personas, y otros elementos de una sala sin necesidad de desplazarse. En segundo lugar, familiarizarse con antelación −por ejemplo desde su hogar− con un lugar desconocido. En tercer lugar, ser guiados a través del mejor camino entre dos puntos, evitando los obstáculos.
Uno de los resultados más relevantes de eGLANCE hasta la fecha es su modelo de interacción para realidad virtual adaptado a las necesidades de los ciegos o, lo que es lo mismo, su modelo de realidad virtual tiflointeractiva. En él se define cómo dirigir la atención a cualquier punto de una sala virtual (interacción cognitiva) y cómo informar de los objetos, personas, y otros elementos presentes en cada región (interacción sensitiva). Los ciegos dirigen su atención, o su “mirada”, controlando el movimiento de un elemento virtual inédito hasta la fecha: el Foco de Atención. Este solo existe en el mundo virtual, se controla mediante gestos, y va chocando con las representaciones de los objetos reales a medida que se mueve por la sala virtual. Por otra parte, se informa a los ciegos de los elementos presentes a través de información multisensorial con una combinación de voz, sonidos, y vibraciones.
El modelo de interacción se ha probado experimentalmente con éxito en el propio CTB y en él han participado investigadores de la UPM, del Centro de Investigación Biomédica en Red (CIBER-BBN) y de la Universidad de las Fuerzas Armadas ESPE (UFA-ESPE). El equipo del profesor Serrano ha implementado el modelo de tiflointeracción en unas interfaces para smartphone y ha construido, a modo de videojuego, los modelos virtuales de algunas de las salas del propio CTB. Los investigadores contaron con la colaboración de un grupo de voluntarios ciegos compuesto por afiliados a la ONCE, trabajadores de la Fundación ONCE, y alumnos adscritos al servicio de apoyo de la UPM. Estos usaron dichos videojuegos para aprender la disposición de cada sala y posteriormente se midió la calidad de sus mapas cognitivos y su capacidad para desenvolverse en los correspondientes espacios reales. “Los resultados que hemos obtenido con este trabajo podría ser una referencia en los tipos de interfaces sensibles utilizadas en realidad virtual aumentada para personas ciegas, lo que proporciona una mayor eficiencia y eficacia durante el aprendizaje de nuevos entornos” concluye Serrano.
eGLANCE viene contando desde sus inicios con el asesoramiento de la ONCE y de la Fundación ONCE. La prueba experimental del modelo de interacción ha contado con la financiación de la Cátedra Indra-Fundación Adecco y de los fondos FEDER de la Comisión Europea.
Guerrón, N. E., Cobo, A., Serrano Olmedo, J. J., & Martín, C. (2020). Sensitive interfaces for blind people in virtual visits inside unknown spaces. International Journal of Human-Computer Studies, 133, 13–25. https://doi.org/10.1016/j.ijhcs.2019.08.004
Cobo, A., Guerrón, N. E., Martín, C., del Pozo, F., & Serrano, J. J. (2017). Differences between blind people’s cognitive maps after proximity and distant exploration of virtual environments. Computers in Human Behavior, 77 (Supplement C), 294–308. https://doi.org/10.1016/j.chb.2017.09.007
Uno de los resultados más relevantes de eGLANCE hasta la fecha es su modelo de interacción para realidad virtual adaptado a las necesidades de los ciegos o, lo que es lo mismo, su modelo de realidad virtual tiflointeractiva. En él se define cómo dirigir la atención a cualquier punto de una sala virtual (interacción cognitiva) y cómo informar de los objetos, personas, y otros elementos presentes en cada región (interacción sensitiva). Los ciegos dirigen su atención, o su “mirada”, controlando el movimiento de un elemento virtual inédito hasta la fecha: el Foco de Atención. Este solo existe en el mundo virtual, se controla mediante gestos, y va chocando con las representaciones de los objetos reales a medida que se mueve por la sala virtual. Por otra parte, se informa a los ciegos de los elementos presentes a través de información multisensorial con una combinación de voz, sonidos, y vibraciones.
Proyección del Foco de Atención a lo largo de la línea de visión. Imagen: Antonio Cobo. |
El modelo de interacción se ha probado experimentalmente con éxito en el propio CTB y en él han participado investigadores de la UPM, del Centro de Investigación Biomédica en Red (CIBER-BBN) y de la Universidad de las Fuerzas Armadas ESPE (UFA-ESPE). El equipo del profesor Serrano ha implementado el modelo de tiflointeracción en unas interfaces para smartphone y ha construido, a modo de videojuego, los modelos virtuales de algunas de las salas del propio CTB. Los investigadores contaron con la colaboración de un grupo de voluntarios ciegos compuesto por afiliados a la ONCE, trabajadores de la Fundación ONCE, y alumnos adscritos al servicio de apoyo de la UPM. Estos usaron dichos videojuegos para aprender la disposición de cada sala y posteriormente se midió la calidad de sus mapas cognitivos y su capacidad para desenvolverse en los correspondientes espacios reales. “Los resultados que hemos obtenido con este trabajo podría ser una referencia en los tipos de interfaces sensibles utilizadas en realidad virtual aumentada para personas ciegas, lo que proporciona una mayor eficiencia y eficacia durante el aprendizaje de nuevos entornos” concluye Serrano.
eGLANCE viene contando desde sus inicios con el asesoramiento de la ONCE y de la Fundación ONCE. La prueba experimental del modelo de interacción ha contado con la financiación de la Cátedra Indra-Fundación Adecco y de los fondos FEDER de la Comisión Europea.
Guerrón, N. E., Cobo, A., Serrano Olmedo, J. J., & Martín, C. (2020). Sensitive interfaces for blind people in virtual visits inside unknown spaces. International Journal of Human-Computer Studies, 133, 13–25. https://doi.org/10.1016/j.ijhcs.2019.08.004
Cobo, A., Guerrón, N. E., Martín, C., del Pozo, F., & Serrano, J. J. (2017). Differences between blind people’s cognitive maps after proximity and distant exploration of virtual environments. Computers in Human Behavior, 77 (Supplement C), 294–308. https://doi.org/10.1016/j.chb.2017.09.007
No hay comentarios:
Publicar un comentario