twitter account

Las “alucinaciones” de la inteligencia artificial

28/11/2023
Manuel López Michelone

Vivimos una época asombrosa. Hoy —gracias a Internet— tenemos acceso a un número gigantesco de páginas web, con una enorme cantidad de información que nos puede ser útil y relevante. Es claro que también hay muchas páginas “basura” y que muchas veces tenemos que hacer un trabajo más fino para discernir entre la información valiosa y la que podemos desechar.

Sin embargo, con la llegada de ChatGPT, comenzó una interesante propuesta de herramientas modernas de inteligencia artificial, las cuales nos parecen cada vez más asombrosas. Por ejemplo, ChatGPT puede resolvernos problemas de programación. Podemos pedirle que nos escriba el código de una rutina específica y asómbrense, el sistema entrega el código en el lenguaje de programación solicitado y, además, comenta las partes fundamentales del algoritmo propuesto. Y ChatGPT hace muchas más cosas: puede hacer pequeños ensayos sobre sobre cualquier tema y aparentemente responder prácticamente cualquier pregunta que le hagamos.

Pero, en el uso frecuente de ChatGPT se ha encontrado algo curioso. El sistema en muchas ocasiones da información falsa. Esto ocurre porque ChatGPT busca la información en muchísimos sitios web para así procesar las respuestas, pero esto en ocasiones entrega resultados espurios. Así, los académicos del Diccionario de Cambridge han acuñado un nuevo término para este efecto llamado “alucinación”. Y esta es —dicen— la palabra del año (en lo que se refiere al tema de las nuevas inteligencias artificiales).

La palabra alucinar, en este contexto, la definen en el diccionario de Cambridge como “Cuando una inteligencia artificial alucina, produce información falsa”.

La teoría detrás de ChatGPT se basa en el modelo de IA generativa, el cual comenzó a hacerse popular desde el año 2022. ChatGPT, Bard de Google y otras herramientas parecidas, usan este modelo, el cual ha resultado muy bueno en general, aunque desde luego, tiene sus inconvenientes.

Fue el propio diccionario de Cambridge el que calificó la palabra “alucinación” en el contexto de la IA generativa, como la palabra del año, pues dice que hay que reconocer que estas nuevas tecnologías son asombrosas pero que aún estamos aprendiendo a usarlas de forma segura y efectiva. Esto nos debe hacer pensar en su potencial, su fuerza y su debilidad.

Hay que señalar que la palabra “alucinar” se refiere coloquialmente como “percibir cosas como visiones, sonidos u olores que parecen reales, pero no lo son. Estas cosas son creadas por la mente”.

Pero no es sólo ChatGPT, sino también Bard de Google, que se basa en el modelo del lenguaje PaLM, quien ocasionalmente entrega resultados “alucinados” aunque hay que reconocer que cada vez son menos las pifias que comete. Y un ejercicio curioso para la IA generativa de Google fue preguntarle: “Qué tan frecuentemente alucinas, Bard?”. El sistema contestó cosas como estas: “Como un modelo del lenguaje, no soy capaz de sufrir alucinaciones en la forma que tienen los seres humanos. Puedo generar texto similar a las alucionaciones e incluso puedo cometer errores en los resultados que entrego que bien pueden ser interpretadas como alucinaciones”.

Es claro que la fuente de errores es la incapacidad para reconocer la realidad de la ficción, es decir, de datos comprobables o textos que dan una interpretación errónea de algún tema. Y mientras no se incorpore al modelo del lenguaje usado las restricciones correspondientes, estaremos en una encrucijada, sobre todo en los temas que desconocemos y que le confiamos a Bard o ChatGPT para que nos den una solución.

Pero tiempo al tiempo, porque esta IA generativa llegó para quedarse.