agenciasinc.es
El ingenio desarrollado
por científicos de la UC3M podría resultar de utilidad a personas con
discapacidad visual moderada, fundamentalmente a quienes tienen problemas para
percibir toda la amplitud del entorno. Se trata de un sistema integrable en
unas gafas de realidad virtual que detecta la distancia y forma de los objetos.
Un sencillo código de colores es la forma de interactuar con el usuario.
“Este dispositivo se orienta a quienes en un
deambular normal se chocarían con todo lo que dejan de ver por las pérdidas de
su campo visual, producto de glaucomas, patologías retinianas, etc.”, indica el
responsable del proyecto, Ricardo Vergaz, profesor del departamento de
Tecnología Electrónica de la UC3M.
El prototipo se ha desarrollado sobre el soporte
de un dispositivo HMD (Head Mounted Display), un casco de realidad virtual que
integra dos cámaras y que está acoplado a un pequeño ordenador que procesa
todas las imágenes que le llegan. A continuación, gracias al algoritmo que han
desarrollado estos investigadores, el sistema determina la distancia y los
contornos de los objetos y se lo comunica al usuario en tiempo real mediante
dos micropantallas, resaltando la silueta de los elementos de la escena y
variando el color en función de la distancia.
“Detecta los objetos y las personas que se
mueven dentro del campo visual que tendría una persona sin patologías. A menudo
el paciente no los ve también por problemas de contraste”, explica el profesor
Vergaz. “La información sobre profundidad es la que más echaban de menos los
pacientes que usan este tipo de ayudas técnicas”, comenta.
En estos momentos el invento se está probando
sobre el soporte de unas gafas 'inteligentes' en colaboración con el Instituto
de Oftalmología Aplicada (IOBA) de la Universidad de Valladolid, donde realizan
los ensayos clínicos de cara a su validación y aplicabilidad. “El IOBA nos
contará sus resultados a finales de este año tras probarlo con una muestra de
población representativa de los pacientes que podrían utilizar el dispositivo,
lo que nos permitirá valorar el éxito y validez de su funcionamiento y
mejorarlo”, comenta Ricardo Vergaz.
El objetivo final es mejorar la ergonomía del
dispositivo, de modo que el usuario no tenga inconveniente en llevar estas
gafas junto con un mecanismo electrónico ligero que se podría llevar en un
bolsillo.
Este proyecto potencia la línea de investigación
relacionada con el diseño, desarrollo e innovación de nuevas técnicas
destinadas a personas con discapacidades, iniciada en la UC3M por el Grupo
de Displays y Aplicaciones Fotónicas. La aplicación ha sido elaborada
en el marco del Proyecto de Ayudas Técnicas Integradas para Discapacidades
visuales, Transportables y Accesibles(ATIDivisTA), en la convocatoria de ayudas
para la consolidación de grupos de investigación con jóvenes investigadores de
la Comunidad de Madrid. En el proyecto participa el profesor doctor Juan
Carlos Torres, y el ingeniero industrial Carlos Barranco, contratado para
plasmar las evoluciones del prototipo tras el término del proyecto.
Este grupo de investigadores también está
desarrollando otro ingenio que consiste en una lupa virtual. “La principal
novedad – destaca Vergaz - radica en el tipo de algoritmo desarrollado, que
permite al usuario perderse menos mientras lee el texto”. El resultado es
similar al modo en que funcionaría una lupa real, pero controlando la
presentación en pantalla (móvil, tableta, etc.), con la modificación de la
forma y dirección del aumento, para facilitar la lectura y evitar perder la
línea y la referencia textual.
Este sistema podría resultar de gran utilidad a
personas con pérdida de visión en el campo central, como las que sufren
degeneración macular asociada a la edad. Todas estas patologías no producen
ceguera total y hay cientos de miles de personas afectadas o que potencialmente
pueden serlo, en mayor o menor medida, sólo en España.