twitter account

UNAM: inteligencia artificial para identificar pensamientos suicidas

Gerardo Sierra, director del grupo de Ingeniería Lingüística de la UNAM

En una labor que combina las disciplinas de psicología y lingüística, un equipo multidisciplinario de la UNAM desarrolla un proyecto para detectar posibles ideas suicidas en publicaciones de usuarios de plataformas como Twitter y Facebook.

La investigación es conducida por el titular del grupo de ingeniería lingüística del Instituto de Ingeniería de la Universidad Nacional Autónoma de México (UNAM), Gerardo Sierra, y por la académica del posgrado de la Facultad de Psicología Patricia Andrade, con la finalidad de identificar la discusión y la promoción del suicidio.

“Es necesario conocer las dinámicas de su expresión que son propias de estos entornos virtuales y utilizar métodos como el análisis del lenguaje, a fin de desarrollar herramientas de detección que contribuyan a la labor preventiva”, apuntó el universitario, de acuerdo con un comunicado de la UNAM.

Con el proyecto se busca identificar características lingüísticas que puedan procesarse para detectar riesgos y, luego, hipotéticamente distinguir a personas que tengan pulsiones de atentar contra su persona, agregó la universidad.

Mediante un conteo comparativo de grupos anónimos de usuarios de Facebook y Twitter, se identificó una diferencia lingüística entre quienes señalan presuntos riesgos y quienes hablan de cualesquiera otros temas, abundó.

“Usuarios en riesgo hablan de sí mismos, siempre en primera persona, no utilizan el plural ni el ‘nosotros’ o ‘ustedes’”, destacó el coordinador del equipo de ingeniería lingüística.

Frases y palabras que pueden detonar alertas son algunas como “yo me siento así”, “yo estoy pensando”, “¿por qué me sucede esto a mí?”, “me ha pasado”, “llorar”, “desesperación”, “soledad”, “frustración”, “deprimido” y “pesimista”, apuntó la UNAM.

Los estudiosos involucrados también llamaron la atención sobre categorías de palabras que denotan ansiedad, angustia, tristeza, muerte, vinculadas al yo, a la individualidad.

“Sí existen diferencias lingüísticas significativas que son señal de riesgo de suicidio”, esclareció Gerardo Sierra.

Aunque los resultados son inéditos y contundentes, se requiere continuar con investigaciones que amplíen los datos, pues por ahora el caso se encuentra en una primera aproximación al fenómeno, detalló el especialista.

Como un siguiente paso, el universitario mencionó el desarrollo de un software que hiciera una búsqueda continua y automatizada de posibles términos de riesgo, pues de otra forma se requiere un análisis humano de una cantidad inmensa de tuits y publicaciones de Facebook, lo que además requiere autorizaciones.

“El desarrollo paulatino de estos métodos generará aplicaciones que servirán para identificar los posibles casos urgentes que requieren atención psicológica”, distinguió la UNAM.

“Asimismo, serán de ayuda para los profesionales de la salud en el diseño de programas de prevención basados en información clara y específica acerca de los pensamientos y emociones que las personas experimenten”, abundó.