UV y UNAM desarrollan sistema multimodal de traducción para sordos

Por Claudia Peralta Vázquez*

 

Xalapa, Ver., 05/12/2016.- La Universidad Veracruzana (UV), a través del Centro de Investigación en Inteligencia Artificial (CIIA), y la Universidad Nacional Autónoma de México (UNAM), mediante las facultades de Ciencias e Ingeniería, buscan crear –desde hace dos años– un traductor bidireccional para facilitar a las personas sordomudas la comunicación e integración a la sociedad.

Esta innovación, que tiene un 40 por ciento de avance, es resultado de un proyecto de movilidad entre ambas instituciones de educación superior, dio a conocer Homero Vladimir Ríos Figueroa, académico del CIIA de la UV.

En el marco del Segundo Taller de Interacción Multimodal, Inteligencia Artificial y Aplicaciones, que tuvo lugar los días 1 y 2 de diciembre en el auditorio del CIIA, y en el cual participaron estudiantes y catedráticos tanto de la UV como de la UNAM, apuntó que este sistema permitirá entender y reconocer el lenguaje de señas.

Lo anterior significa que cuando alguien desee comunicarse con una persona sordomuda –a través de una pantalla de computadora o mecanismo móvil como un celular– aparezca una animación que realizará la traducción en ambos sentidos.

El especialista, quien dentro de este evento impartió la ponencia “Reconocimiento del alfabeto de señas mexicano con distribuciones de probabilidad”, resaltó la complejidad de este lenguaje que incluye más de mil palabras, y aparte del alfabeto hay gestos que se hacen con las dos manos y el cuerpo.

Indicó que una vez que este trabajo concluya, la idea es implementarlo en todo el país, a fin de que en kioscos, plazas, hospitales, espacios públicos y centros educativos se fomente la integración de las personas sordomudas y puedan comunicarse libremente.

El objetivo del Taller de Interacción Multimodal es precisamente mostrar los avances en cuanto a sistemas multimodales o medios para comunicarse con las computadoras.

Junto con los robots, añadió, se busca crear sistemas más naturales (además del mouse, teclado o pantallas táctiles) como gestos, reconocimiento facial, de emociones y expresiones corporales, “incluso, existe un casco que detecta ondas cerebrales”.

El profesor de la Maestría en Inteligencia Artificial citó el caso de Brasil, donde ya cuentan con una aplicación en el celular de lenguaje de señas. Mediante la cámara se reconocen ciertos gestos y al momento de escribir un texto se anima un avatar para traducirlo.taller-ilsjshsgs-d

En otros países como Estados Unidos, Gran Bretaña y Francia, debido a su alto sistema de financiamiento, también se registran avances significativos.

En México, el lenguaje de señas tiene poco más de una década de haberse reconocido formalmente como un acervo cultural, por parte del gobierno de la República.

En la actualidad también es reconocido por el Consejo Nacional para Prevenir la Discriminación (Conapred) y la Secretaría de Educación Pública (SEP).

Mencionó que al igual que la UV y la UNAM, existen otras universidades que buscan incursionar en este tipo de trabajos, como el Instituto Politécnico Nacional (IPN) y otras instituciones de educación superior del Estado de México. “Nosotros buscamos un sistema que pueda funcionar en condiciones más generales”.

Homero Vladimir Ríos resaltó que en México se trabaja con el software del robot, aunque hay algunas universidades donde desarrollan algunos componentes de hardware, pero muchos de los robots se compran en el extranjero.

El trabajo que se desarrolla en el CIIA es muy importante, toda vez que se enfoca en cómo utilizar los robots en el hogar o en ciertos contextos.

Cabe mencionar que este proyecto se realiza en coordinación con Ana Luisa Solís González-Cosío, profesora de la Facultad de Ciencias de la UNAM, y sus estudiantes. También participan otros investigadores especialistas en sistemas multimodales y en robótica.