Investigadores desarrollan un audífono que puede 'ver'
Un equipo de investigación de la Universidad de Stirling, en Escocia, está desarrollando un audífono de última generación capaz de 'ver'. La investigación está dirigida por un científico informático y está diseñando un dispositivo para ayudar a los usuarios en entornos ruidosos.
El nuevo dispositivo auditivo utilizará una cámara en miniatura capaz de leer los labios, procesará la información visual en tiempo real y fusionará e intercambiará las señales visuales y auditivas. El investigador Amir Hussain, quien lidera este ambicioso proyecto de investigación, ha recibido fondos de cerca de 500.000 libras procedentes del UK Government’s Engineering and Physical Sciences Research Council (EPSRC) y de la industria.
'Este emocionante proyecto, pionero en todo el mundo, tiene el potencial de mejorar significativamente las vidas de millones de personas que tienen problemas de audición', dijo Hussain en el anuncio de la Universidad de Stirling.
'Existentes audífonos comerciales son capaces de trabajar sobre una base de sólo audio, pero el modelo audiovisual de última generación que queremos desarrollar hará un seguimiento inteligente del rostro del orador en busca de señales visuales, como la lectura labial. Esto mejorará aún más los sonidos de audio que son recogidos y amplificados por los audífonos convencionales '.
Hussain explicó que con el enfoque de 360 ° del equipo de diseño del software se espera abrir más posibilidades para los usuarios de dispositivos auditivos, lo que les permite comunicarse con confianza en los entornos más ruidosos, reduciendo potencialmente sus esfuerzos para escuchar. Hussain cree que, además de las personas con pérdida auditiva, la capacidad de la lectura de labios del dispositivo propuesto también podría resultar potencialmente valioso para aquellas personas que necesitan comunicarse en lugares muy ruidosos, donde se usan protectores auditivos, como en las fábricas y en los entornos de respuesta a emergencias.
El equipo de Hussain informa que está trabajando en un prototipo y los recientes fondos se destinarán a abordar el reto clave de mezclar y mejorar el audio seleccionado y las señales visuales. El profesor de psicología Roger Watt, de la Universidad de Stirling trabajará con Hussain para ayudar a desarrollar nuevos modelos de computación de la visión humana, para el seguimiento en tiempo real de los rasgos faciales.
Los investigadores informan de que, una vez desarrollado el software del prototipo se pondrán a disposición de otros investigadores de todo el mundo, abriendo la oportunidad de seguir trabajando en este campo. Las futuras investigaciones del hardware del prototipo explorará las ubicaciones con mayor usabilidad y mejor estética de la mini cámara móvil, como por ejemplo, su montaje en unas gafas ordinarias, un broche portátil, un collar o un pendiente.
Hussain también está colaborando con Jon Barker, de la Universidad de Sheffield, que ha desarrollado enfoques biológicamente inspirados para separar las fuentes de discurso que complementarán las técnicas de mejora de audio-visuales que están desarrollando en Stirling.
Otros socios del proyecto son MRC/CSO Institute of Hearing Research y el fabricante de audífonos Phonak.