twitter account

¿Qué es el procesamiento del lenguaje natural?

30/11/2022
Samuel Greengard

El procesamiento del lenguaje natural (PLN) es una rama de la inteligencia artificial (IA) que se centra en que los ordenadores incorporen el habla y el texto de forma similar a la comprensión humana. Esta área de la informática se basa en la lingüística computacional —típicamente basada en métodos estadísticos y matemáticos— que modelan el uso del lenguaje humano.

La PNL desempeña un papel cada vez más importante en la informática y en la vida cotidiana de los seres humanos. Asistentes inteligentes como Siri de Apple, Alexa de Amazon y Cortana de Microsoft son ejemplos de sistemas que utilizan la PNL.

Además, otras herramientas se basan en el procesamiento del lenguaje natural. Entre ellas: los sistemas de navegación en los automóviles; los sistemas de transcripción de voz a texto, como Otter y Rev; los chatbots; y los sistemas de reconocimiento de voz utilizados para la atención al cliente. De hecho, la PNL aparece en un universo de aplicaciones, herramientas, sistemas y tecnologías en rápida expansión.

En todos los casos, el objetivo es simplificar la interfaz entre humanos y máquinas. En muchos casos, la capacidad de hablar a un sistema o de que este reconozca las entradas escritas es la forma más sencilla y directa de realizar una tarea.

Aunque los ordenadores no pueden “entender” el lenguaje de la misma manera que los humanos, las tecnologías del lenguaje natural son cada vez más expertas en reconocer el contexto y el significado de las frases y las palabras y transformarlas en respuestas y acciones adecuadas.

Procesamiento del lenguaje natural: una breve historia

La idea de que las máquinas entiendan el habla humana se remonta a las primeras novelas de ciencia ficción. Sin embargo, el campo del procesamiento del lenguaje natural comenzó a tomar forma en la década de 1950, después de que el pionero de la informática Alan Turing publicara un artículo titulado “Computing Machinery and Intelligence”. En él presentaba el Test de Turing, que proporcionaba una forma básica de medir las capacidades de lenguaje natural de una computadora.

Durante la década siguiente, los investigadores experimentaron con computadoras que traducían novelas y otros documentos a través de lenguas habladas, aunque el proceso era extremadamente lento y sujeto a errores. En los años sesenta, el profesor del MIT Joseph Weizenbaum desarrolló ELIZA, que imitaba los patrones del habla humana de forma notable.

Durante el siguiente cuarto de siglo, el campo siguió evolucionando. A medida que los sistemas informáticos se hicieron más potentes en la década de 1990, los investigadores empezaron a lograr notables avances utilizando métodos de modelado estadístico.

Los programas informáticos de dictado y traducción de idiomas empezaron a madurar en la década de 1990. Sin embargo, los primeros sistemas requerían formación, eran lentos, engorrosos de usar y estaban sujetos a muchos errores. No fue hasta la introducción del aprendizaje automático supervisado y no supervisado a principios de la década de 2000, y luego la introducción de las redes neuronales alrededor de 2010, que el campo comenzó a avanzar de manera significativa.

Con estos desarrollos, los sistemas de aprendizaje profundo fueron capaces de digerir volúmenes masivos de texto y otros datos y procesarlos utilizando métodos de modelado del lenguaje mucho más avanzados. Los algoritmos resultantes se volvieron mucho más precisos y utilitarios. 

Artículo traducido mediante la herramienta DeepL y editado.