La Universidad Veracruzana, a través del Centro de Investigación en Inteligencia Artificial (CIIA) desarrolla un sistema de reconocimiento de imágenes para traducir señas a texto.
El doctor Homero Vladimir Ríos Figueroa, investigador del CIIA, señaló que el objetivo del proyecto es crear un sistema que ayude en la traducción del lenguaje de señas mexicano, mediante el uso de una cámara o sensor MS-Kinect.
Explicó que a través de estos dispositivos, se obtienen nubes de puntos que son interpretadas por algoritmos de visión por computadora y de esta forma, las señas y gestos pueden ser traducidos a texto o voz.
Figueroa dijo que el proyecto contempla la creación de un traductor bidireccional. Por ello, la investigadora de la Facultad de Ciencias de la Universidad Nacional Autónoma de México (UNAM), Ana Luisa González, trabaja en la animación de un avatar, capaz de realizar el lenguaje de señas.
El propósito —abundó— el especialista es crear un sistema que funcione como un traductor bidireccional, con el reconocimiento de expresiones dinámicas del lenguaje de señas y la función de un avatar que emule el lenguaje de señas mexicano.
Destacó que este sistema podría integrarse en lugares públicos como bancos u hospitales para facilitar la comunicación de personas con discapacidad auditiva.
De acuerdo con el especialista, los avances registrados se ubican en la detección del alfabeto a través del dispositivo y la animación del avatar, además deben integrar más expresiones al sistema, pues el lenguaje de señas mexicano es muy amplio.
“Buscamos que el alfabeto pueda ser reconocido en condiciones ambientales y complejas, además de ampliar el vocabulario hasta que abarque todo el lenguaje y sea capaz de reconocerlo y ejecutarlo, lo cual podría tomar largo tiempo”, apuntó.
El lenguaje de señas consiste en expresiones faciales y signos articulados por las manos que permite la comunicación de las personas con discapacidad auditiva, por lo que el experto enfatizó su interés en hacer del sistema un medio de inclusión social que, en medida de lo posible, dé respuesta a las necesidades de este sector de la población.
La maestra de inteligencia artificial y becaria del Programa Nacional de Posgrados de Calidad (PNPC) del Consejo Nacional de Ciencia y Tecnología (Conacyt), Candy Obdulia Sosa Jiménez, trabaja también en el reconocimiento de expresiones dinámicas en el lenguaje de señas mexicano.
De tal manera que, en conjunto con el trabajo de reconocimiento del alfabeto de señas elaborado por el doctor Vladimir Ríos, formarán parte del sistema de traducción bidireccional.
Según datos del Instituto Nacional de Estadística y Geografía (INEGI) en México, alrededor de 690 mil personas presentan alguna discapacidad auditiva.
En tanto que, la Organización Mundial de la Salud estima que existen 360 millones de personas con pérdida auditiva, de las cuales sólo 70 millones usan el lenguaje de señas.