twitter account

¿Por qué ni siquiera los grandes modelos de inteligencia artificial logran alcanzar un nivel similar a la inteligencia humana?

05/09/2022
Matthias Bastian

El desarrollo de la inteligencia artificial tropieza con los límites del lenguaje humano

Cuando las primeras personas tuvieron acceso a la potente IA de texto GPT-3 de OpenAI, se desarrolló un tremendo impulso en la creación de aplicaciones, y un cierto misterio: ¿Qué conocimientos, qué habilidades podrían esconderse en esas 96 capas y 175.000 millones de parámetros?

¿Podría haber algo más oculto en las profundidades del modelo que la simple finalización de frases? ¿Una comprensión más profunda del mundo, quizá la clave del sentido común de una máquina y, por tanto, de una IA similar a la humana?

GPT-3 fue la chispa inicial para la difusión de grandes modelos lingüísticos
La introducción de GPT-3 supuso el impulso para el desarrollo de modelos lingüísticos más avanzados. Desde entonces, han aparecido otros muchos modelos, algunos de ellos aún más grandes y potentes, que ofrecen ventajas en un número cada vez mayor de escenarios de aplicación, algunos de los cuales van más allá de la generación directa de textos.

Por ejemplo, la comprensión del lenguaje de los grandes modelos lingüísticos es fundamental para la revolución gráfica que se está llevando a cabo con DALL-E, StableDiffusion y similares, o ayuda en el desarrollo de robots que pueden utilizarse en la vida cotidiana.

Desde el punto de vista actual, los modelos lingüísticos aún no han hecho una contribución clara en el camino hacia una IA similar a la humana.

Producen texto inteligible, con tanta credibilidad que el ex desarrollador de Google Blake Lemoine afirmó que un chatbot de Google tenía conciencia. No la tienen; no entienden el mundo.

Condenados a la superficialidad

En un ensayo conjunto con el investigador de IA Jake Browning, el jefe de IA de Meta (Facebook), Yann LeCun, describe por qué cree que los grandes modelos lingüísticos de IA no pueden abrir el camino hacia una IA similar a la humana.

Los dos científicos sostienen que el lenguaje contiene apenas una pequeña parte del conocimiento humano. Gran parte de ese conocimiento, al igual que el de los animales, no existe ni en forma verbal ni simbólica, afirman. En consecuencia, los grandes modelos lingüísticos no podrían acercarse siquiera a la inteligencia humana, “incluso si se entrenan desde ahora hasta la muerte térmica del universo”.

La limitación, por tanto, no es la inteligencia artificial, sino “la naturaleza limitada del lenguaje”, escriben los investigadores. Los sistemas lingüísticos de la IA actual son impresionantes, pero “están condenados a una comprensión superficial que jamás se aproximará al pensamiento completo que vemos en los humanos”.

Según los investigadores, la IA utiliza el entrenamiento de datos lingüísticos para adquirir una pequeña parte del conocimiento humano a través de un diminuto cuello de botella. Los modelos lingüísticos, por tanto, se asemejan a un espejo que da la ilusión de profundidad al reflejarlo todo, pero que en realidad sólo tiene unos centímetros de grosor. “Si intentamos explorar sus profundidades, nos damos de bruces”, escriben los investigadores.
El problema no es la IA, sino el lenguaje.

Cualquier forma de lenguaje, dicen, no es más que un tipo de representación del conocimiento muy comprimido y “muy específico y profundamente limitado”. Sin embargo, la comprensión humana del lenguaje depende a menudo de una comprensión más profunda del contexto en el que se sitúa una frase o un párrafo.

La comprensión está influida, por ejemplo, por una percepción compartida de las situaciones o por el conocimiento de los roles sociales. Las investigaciones sobre la comprensión de textos por parte de los niños han demostrado que los conocimientos previos sobre el texto desempeñan un papel crucial en la comprensión, afirman los investigadores.

“Abandonar la idea de que todo el conocimiento es lingüístico nos permite darnos cuenta de que gran parte de nuestro conocimiento es no lingüístico”, escriben los investigadores, que citan como ejemplo un manual de instrucciones de IKEA que sólo muestra ilustraciones y prescinde de instrucciones textuales.

Por tanto, en la búsqueda del sentido común de las máquinas, los investigadores tendrían que pensar en sistemas que se centren en el mundo en sí mismo, y no en las palabras utilizadas para describirlo.

LeCun propuso a principios de marzo una arquitectura de IA formada por varios módulos modelados a partir del cerebro humano. El núcleo de esta arquitectura es el módulo del modelo del mundo, diseñado para aprender representaciones abstractas del mundo e ignorar los detalles sin importancia para hacer predicciones sobre el mundo, tal como hacen los humanos constantemente.

Este artículo fue traducido del inglés mediante la herramienta de inteligencia artificial  Deepl, y editado por un humano.