Signavox es una aplicación web para traducir el lenguaje de señas mexicano (LSM) a oraciones, se trata de un traductor desarrollado por estudiantes de la Facultad de Ciencias de la Electrónica (FCE) de la BUAP, quienes han puesto en alto el nombre de la institución al obtener con este trabajo la medalla de oro en Infomatrix Argentina, XX Concurso Iberoamericano de Proyectos Estudiantiles de Ciencia y Tecnología.
El equipo -que compitió con pares de al menos seis países y ganó en la categoría de desarrollo de software-, está formado por los alumnos de Electrónica: Iralice Cardona Castillo, Fernando León Oropeza (bicampeón de Fepro) y José Orizaga y Espin de Mecatrónica. Su trabajo, asesorado por el maestro Nicolás Quiroz Hernández, obtuvo previamente el primer lugar en la categoría de desarrollo de Software y Hardware en la XVII Competencia Fepro 2025, realizada por la Facultad de Ciencias de la Computación de la BUAP, lo que les permitió obtener la acreditación para asistir al encuentro internacional.
Signavox inició en el Laboratorio SLED de la FCE, un centro de desarrollo de prototipos electrónicos donde se diseñan y elaboran trabajos que forman a los alumnos de licenciatura y posgrado. De este espacio han salido proyectos ganadores de Fepro en los años 2019, 2024 y 2025.
Cómo funciona
En el desarrollo de esta host o aplicación web, Iralice Cardona se encargó de la base de datos, para ello fue necesario conocer el lenguaje de señas para grabarlo, a fin de que la inteligencia artificial (IA) aprendiera cada seña. Por su parte, Fernando León trabajó en el núcleo del proyecto, es decir, el modelo de IA y en su capacidad para traducir y formar las oraciones. José Orizaga contribuyó con la base de datos, pero sobre todo, con el desarrollo de la interfaz.
El mecanismo de operación es sencillo: cuando una persona que emplea el LSM se coloca frente a la pantalla, el programa arma un diseño de hombros, brazos, manos y rostro de la persona, a través de puntos de referencia, con el fin de obtener información cada vez que se muevan y formen una letra o palabra con señas. Posteriormente, con una herramienta de Google se obtiene un cubo de datos en tres dimensiones, partiendo de los diferentes puntos de referencia de las posiciones, así se implementa el modelo de IA.
“Lo que hacemos es tomar 42 poses o imágenes y se manda al modelo implementado, el cual es un clasificador, es decir, registra los movimientos, cómo se van ejecutando y así suelta una respuesta, que es básicamente la traducción de la seña en una palabra. De ahí, lo que hacemos es tomar las últimas cinco predicciones para poder formar una oración y para eso nos apoyamos en un modelo de lenguaje”, explicó Fernando León.


