twitter account

¿La inteligencia artificial (IA) puede ayudarnos a entender la evolución del lenguaje?

08/04/2022
Las lenguas de signos cambian de forma semejante a las lenguas habladas

Un nuevo estudio ha utilizado el aprendizaje automático para mostrar cómo la lengua de señas estadounidense se ve moldeado por la necesidad de formas más fáciles de comunicarse.

A los lingüistas les resulta difícil ponerse de acuerdo sobre cómo y por qué evolucionan las lenguas. Pero con la ayuda de la inteligencia artificial (IA), ahora podrían hacerlo.

Un nuevo estudio sobre la lengua de señas estadounidense (ASL, por su sigla en inglés) ha intentado modelar estructuralmente cómo el lenguaje puede ser moldeado por las personas que lo utilizan para facilitar la comunicación.

“Las lenguas de signos ofrecen una oportunidad única para preguntarse cómo el cuerpo da forma a la estructura del lenguaje, porque se producen utilizando partes del cuerpo humano diferentes a las de las lenguas habladas y se prestan a un conjunto diferente de capacidades perceptivas y motoras”, escriben los autores del estudio.

La especialista en estudios sobre sordera Naomi Caselli, de la Universidad de Boston (BU), y un equipo de investigadores descubrieron que las señas ASL que son difíciles de entender ―los que son raros o tienen formas de mano poco comunes― se hacen más cerca de la cara del signante, donde la gente suele mirar durante la percepción de las señas.

En cambio, las formas de mano comunes, que son mucho más habituales, se hacen más lejos de la cara, en la visión periférica del perceptor.

Para llegar a estas conclusiones, Caselli, junto con investigadores de la Universidad de Siracusa y del Instituto Tecnológico de Rochester, examinó la evolución del ASL con la ayuda de una herramienta de IA que analizó vídeos de más de 2.500 señas de ASL-LEX, la mayor base de datos interactiva de ASL del mundo.

Según Caselli, los resultados, publicados en la revista Cognition, sugieren que la ASL ha evolucionado para facilitar el reconocimiento de los signos.

“Cada vez que usamos una palabra, esta cambia un poco”, afirma Caselli, profesor asistente del Wheelock College of Education & Human Development de la Universidad de Boston. “Durante largos períodos, las palabras con formas de mano poco comunes han evolucionado para producirse más cerca de la cara y, por tanto, son más fáciles de ver y reconocer para el perceptor”.

Aunque el estudio de la evolución del lenguaje es complejo, Caselli dijo que “se pueden hacer predicciones sobre cómo podrían cambiar las lenguas a lo largo del tiempo, y probar esas predicciones con una instantánea actual de la lengua”.

Caselli añadió que el equipo comenzó a utilizar el algoritmo de IA para estimar la posición del cuerpo y las extremidades del hablante.

“Introducimos el vídeo en un algoritmo de aprendizaje automático que utiliza la visión por ordenador para averiguar dónde están los puntos clave del cuerpo. Así podemos averiguar dónde están las manos en relación con la cara en cada seña”.

A continuación, los investigadores cotejaron estos datos con los de ASL-LEX sobre la frecuencia con la que se utilizan las señas y las formas de las manos.

Por ejemplo, descubrieron que muchas señas que utilizan formas de mano comunes, como la seña de los niños, se producen más lejos de la cara que las señas que utilizan formas de mano más raras, como la de la luz.

El conjunto de datos se creó con la ayuda del Laboratorio de Innovación de Software y Aplicaciones del Instituto Hariri, un proyecto que forma parte de un conjunto creciente de conocimientos que conectan la informática y la lengua de señas en la Universidad de Boston.

“El equipo que está detrás de estos proyectos es dinámico, con investigadores de la lengua de signos que trabajan en colaboración con científicos de la visión por ordenador”, dijo Lauren Berger, una científica sorda y becaria posdoctoral en la Universidad de Boston, que trabaja en enfoques computacionales para la investigación de la lengua de signos.

Caselli cree que entender cómo funcionan las lenguas de signos puede ayudar a mejorar la educación de los sordos, y espera que los últimos descubrimientos puedan llamar la atención sobre la diversidad de las lenguas humanas y las extraordinarias capacidades de la mente humana.

“Si todo lo que estudiamos son las lenguas habladas, es difícil separar las cosas que tienen que ver con el lenguaje en general de las que son particulares de la modalidad auditivo-oral. Las lenguas de señas ofrecen una excelente oportunidad para aprender cómo funcionan todas las lenguas”, afirma Caselli.

“Ahora, con la IA, podemos manipular grandes cantidades de vídeos de lengua de señas y comprobar realmente estas cuestiones de forma empírica”.