domingo, 8 de julio de 2012
La uam desarrolla una herramienta informática para personas sordas
Investigadores de la Escuela Politécnica Superior de la Universidad Autónoma de Madrid (UAM) han desarrollado una herramienta informática para personas con discapacidad auditiva que genera mensajes en lengua de signos a partir de textos y voz, expresa características del 'lenguaje corporal' a través de un avatar (personaje virtual).
La investigación que fundamenta este desarrollo tecnológico ha sido publicada en la revista 'International Journal of Human-Computer Studies'.
Este nuevo programa informático es capaz de generar de manera automática mensajes en lengua de signos a partir de textos escritos o señales de voz.
Se trata de una tecnología innovadora dentro del campo que estudia la interacción persona-computador, pues integra elementos del llamado 'lenguaje corporal' a través de un avatar que calcula tanto los movimientos de brazos y manos como la postura corporal y la expresión facial para representar los mensajes signados.
Este programa, según informa la UAM, "será una herramienta de gran utilidad para personas con discapacidad auditiva, especialmente para las que nacieron con sordera o la adquirieron en una edad muy temprana; casos en los que la baja comprensión lectora impide obtener información de cualquier texto y la única vía de comunicación es la lengua de signos".
El trabajo que ha dado lugar a este desarrollo fue publicado en la revista 'International Journal of Human-Computer Studies' por el grupo de investigación Human Computer Technology Laboratory (HTCLab). Este grupo, que pertenece a la Escuela Politécnica Superior de la Universidad Autónoma de Madrid (UAM), lleva más de diez años trabajando en tecnologías de apoyo para personas con diferentes discapacidades.
SINTETIZADORES DE VOZ
Tal y como sucedía con los primeros sintetizadores de voz, los mensajes en lengua de signos representados por personajes virtuales pueden percibirse robóticos y artificiales. Para mejorar esta percepción, los investigadores del HTCLab vienen trabajando en la incorporación de elementos paralingüísticos: elementos como el tono, la velocidad o la intensidad que acompañan al mensaje y transmiten información adicional, permitiendo que el receptor del mensaje conozca el estado anímico del emisor y su relación con el contenido que está recibiendo.
La elección de qué elementos pueden integrarse no resulta sencilla ya que el propio cuerpo se utiliza para generar el mensaje signado, un cambio inadecuado motivado por el 'lenguaje corporal' podría modificar el mensaje.
Por ejemplo: los puños cerrados se perciben como una actitud agresiva. Si se cambia la forma de la mano para expresar emociones, se cambia a la vez el signo y también su significado. Es equivalente a que si para expresar enfado cambiásemos todas las 'a' por 'o' (una 'casa' con enfado se convertiría en un 'coso'). En suma, incluir información emocional en el mensaje implicaría modificar el contenido del mismo, perdiendo así el objetivo primordial del lenguaje, que es comunicar.
Por esto, el estudio ha analizado la tensión muscular, la velocidad de los movimientos y la expresión facial.
Las personas sordas que han evaluado los resultados de este trabajo identificaron correctamente las diferentes versiones (tensa, relajada y neutra) de los mensajes. Adicionalmente, no encontraron ningún cambio en el contenido del mensaje en lengua de signos.
(SERVIMEDIA)
0 comentarios:
Publicar un comentario