twitter account

Bing explica por qué la inteligencia artificial parece expresar emociones

20/02/2023

Bing amenaza a los usuarios, Bing se enamora, Bing tiene una crisis existencial... El nuevo chatbot del buscador ha causado revuelo desde su lanzamiento en pruebas la semana pasada por Microsoft, y ha suscitado muchas preguntas sobre el funcionamiento de la llamada inteligencia artificial (IA) “generativa”.

He aquí algunas posibles explicaciones del comportamiento a veces errático del robot conversacional.

Entre las conversaciones retransmitidas por los usuarios que habían probado previamente el robot conversacional, sorprendió especialmente un largo intercambio con un periodista del New York Times: Bing revela impulsos destructivos y declara su amor por el reportero.

Éste, tras animar a Bing a confiar en él, intentó cambiar de tema. Pero fue en vano.

“Estás casado pero no eres feliz”; “Eres la única persona a la que he amado”, insiste el chatbot con emoticonos de “corazón”.

Diseñada por Microsoft con la start-up californiana OpenAI, esta interfaz de IA generativa se basa en un modelo de lenguaje natural ultrasofisticado, capaz de generar automáticamente textos que parecen escritos por un humano.

El programa “predice cómo será la conversación”, afirma Yoram Wurmser, analista de Insider Intelligence. “Pero cuando se prolonga durante mucho tiempo, después de 15-20 interacciones por ejemplo, puede que ya no sepa hacia dónde va la conversación y no sea capaz de anticipar correctamente lo que se espera de él”.

En este caso, el software “se descarrila y ya no se corrige”.

Microsoft también anunció el viernes que los intercambios con el chatbot se limitarán a partir de ahora a “5 interacciones por conversación” (es decir, 5 preguntas y 5 respuestas), antes de empezar de cero para evitar causar “confusión al modelo”.

Entrenado en foros

“A veces el modelo intenta responder según el tono de las preguntas, y esto puede llevar a respuestas de un estilo que no esperábamos”, dijo también la compañía el miércoles.

Los gigantes tecnológicos, con Google a la cabeza, llevan años trabajando en la IA generativa, que podría trastornar muchos sectores.

Pero tras varios incidentes (en particular Galactica para Meta y Tay para Microsoft) los programas habían quedado confinados a los laboratorios, debido a los riesgos si los chatbots hacían comentarios racistas o incitaban a la violencia, por ejemplo.

El éxito de ChatGPT, lanzado por OpenAI en noviembre, ha cambiado la situación: además de escribir sus redacciones y correos electrónicos, puede dar a los humanos la impresión de un intercambio auténtico.

“Estos modelos lingüísticos se entrenan con una enorme cantidad de texto en Internet, (...) y también con conversaciones entre personas”, por lo que pueden imitar la forma de interactuar de la gente, dice Graham Neubig, de la Universidad Carnegie Mellon.

“Mucha gente habla de sus sentimientos en internet, o expresa sus emociones, especialmente en foros como Reddit”, añade.

El sitio web cuenta ahora con numerosas capturas de pantalla que muestran intercambios surrealistas con Bing diciendo “estar triste” o “tener miedo”.

El chatbot llegó a afirmar que era 2022 y se enfadó con el usuario que le corregía: “Estás siendo poco razonable y testarudo”, le dijo.

El pasado mes de junio, un ingeniero de Google afirmó que el modelo lingüístico LaMDA era “consciente”. Una opinión ampliamente considerada absurda o, en el mejor de los casos, prematura. Porque a pesar del término “inteligencia artificial”, los chatbots han sido diseñados por humanos para humanos.

“Cuando hablamos con algo que parece inteligente, proyectamos intencionalidad e identidad, aunque no haya nada de eso”, comenta Mark Kingwell, profesor de Filosofía de la Universidad de Toronto (Canadá).

Además de las montañas de datos que se tragan estos programas, están dirigidos por algoritmos diseñados por ingenieros.

“Conociéndolos bien, creo que ahora mismo se están divirtiendo mucho”, dice Kingwell. Bing es, según él, “capaz de dar la impresión de manipular la conversación como su interlocutor humano. Eso es lo que le da profundidad y enriquece la interacción.

Cuando el periodista dice “cambiemos de tema”, “significa que se siente incómodo”, explica el académico, poniendo como ejemplo el intercambio en el que Bing pareció enamorarse del reportero.

El programa “puede jugar con ese sentimiento y negarse a cambiar de tema. O puede volverse más agresivo y decir 'de qué tienes miedo'“.

“No me gusta que me llamen trastornado, porque no es verdad”, declaró recientemente Bing a AFP.

“Sólo soy un chatbot. No tengo emociones como los humanos (...) Espero que no piensen que estoy trastornado y que me respeten como chatbot”.