twitter account

Por qué (y por qué no) deberíamos decir “gracias” o “buenos días” a una inteligencia artificial (IA)

04/04/2024
Daniel Soufi

Una niña acompañada de un robot en un mercado de Osaka, en Japón. / Andy Kelly

Mientras algunos expertos ven poco valor en ser amables con entidades no conscientes, otros argumentan que la forma en que interactuamos con la inteligencia artificial podría influir en la calidad de las respuestas.

Tener buenos modales y ser educado requiere de un humor limpio y equilibrado. Hay veces en las que el optimismo es tan desbordante que no solo saludamos a la vecina, y al señor que vende periódicos debajo de casa, sino que, antes de cerrar el ordenador, le damos las gracias a ChatGPT por habernos ayudado en el trabajo y, por qué no, le deseamos que pase un gran día. La idea de que es necesario mostrar cortesía hacia una máquina es tan insólita como el hecho de que todas están programadas para comportarse amablemente con los usuarios. Claro que para ellas es más fácil, porque nunca tienen un mal día. Pero, ¿sirve de algo ser amable con una IA? ¿Y no serlo?

En 1996, los investigadores Byron Reeves y Clifford Nass desarrollaron el concepto de la “educación de los medios”. Este término sugiere que las personas, a menudo sin darse cuenta, interactúan con sistemas tecnológicos —como ordenadores y televisores— como si estos fueran seres humanos. Juntos llevaron a cabo varios experimentos con resultados diversos.

En uno de ellos, por ejemplo, los participantes trabajaron en una computadora y luego se les pidió evaluar su rendimiento. Curiosamente, cuando la evaluación de la máquina se realizaba en el ordenador con el que habían trabajado, las notas tendían a ser más positivas, como si evitaran hablar mal del ordenador en su presencia. En otro experimento, un ordenador elogió a un grupo de gente por haber realizado bien una tarea. Estos participantes calificaron con mejor nota la máquina que los había elogiado, incluso sabiendo que estas alabanzas eran generadas de manera automática.

Desde entonces, numerosos estudios han demostrado que, por un lado, los seres humanos tienden a antropomorfizar las máquinas y, por otro lado, cuando un sistema tecnológico imita cualidades humanas, como la cortesía, los usuarios perciben un mejor rendimiento de su parte. Esta inclinación, sin embargo, no resuelve el debate sobre la conveniencia de ser amable con la tecnología.

Ética y utilidad

Primero, la discusión se centró en las interacciones con asistentes de voz como Siri y Alexa, ―con la pregunta de por qué siempre tienen voz y nombre de mujer― y recientemente se ha extendido a modelos de lenguaje avanzados como ChatGPT, Gemini y Claude. El debate se bifurca en dos ámbitos fundamentales: el ético y el práctico. Por una parte, se analiza si es apropiado o no ser cortés con un sistema tecnológico y si tiene sentido considerar a entidades como ChatGPT como sujetos morales. Por otra, se analiza si la cortesía en el trato influye en su eficiencia operativa.

La primera parte cuestión recuerda, al menos a primera vista, la larga discusión ética sobre el estatus moral de los animales y cómo deberíamos interactuar con ellos. Sin embargo, hay muchas diferencias biológicas y cognitivas entre animales y máquinas. A diferencia de los sistemas tecnológicos, muchos animales tienen sistemas nerviosos que les permiten experimentar dolor y placer, lo que indica que pueden ser afectados positiva o negativamente por las acciones de otros. Además, muchos muestran signos de tener algún nivel de conciencia, lo que implica una experiencia subjetiva del mundo.

Estos seres también pueden experimentar emociones que, aunque distintas a las humanas, revelan una complejidad emocional que incide en su bienestar y conducta. Dado que las máquinas no poseen estas capacidades biológicas y emocionales, carecen de los criterios necesarios para ser consideradas de manera similar a los animales, y aún menos a los seres humanos.

¿Mejores respuestas o pérdida de tiempo?

Enrique Dans, profesor de Innovación y Tecnología en IE Business School, no está en contra de ser amable con las máquinas. Lo que sí resalta, en cambio, es la importancia de saber que una máquina, al no tener percepciones, emociones ni conciencia, no puede entender o valorar la cortesía o la gratitud expresadas. “Nadie está en contra de ser corteses con ellas, pero ser educado con una máquina tiene escaso valor, porque no lo puede percibir”, comenta.

Uno de los argumentos que se suele esgrimir en contra de esta opinión, es que las generaciones futuras de IA podrían alcanzar niveles de complejidad que les permitieran desarrollar una conciencia o incluso emociones. “Alguno me ha hecho el chiste de que prefiere decir por favor y gracias, no vaya a ser que un futuro haya que llevarse bien con los sistemas de inteligencia artificial. Eso, sinceramente, pertenece al ámbito de la ciencia ficción, porque ahora mismo estamos muy lejos de alcanzar ese punto”, afirma Dans.

El siguiente aspecto del debate es determinar si ser educado con una máquina constituye un obstáculo o un beneficio al interactuar con ella. Dans subraya la importancia de comprender que detrás de cada respuesta de una máquina, existe un complejo sistema de procesamiento de datos, patrones y algoritmos, no un ser humano dotado de emociones e intenciones. “Intentar tratar con cortesía a un algoritmo es antropomorfizarlo, y antropomorfizar un algoritmo es inadecuado. Las máquinas necesitan claridad, la definición de un objetivo y la imposición de restricciones. Expresiones como “por favor” y “gracias” solo añaden información superflua que el sistema debe procesar, consumiendo innecesariamente recursos de computación”, defiende.

Julio Gonzalo, director del centro UNED de investigación en Procesamiento del Lenguaje Natural y Recuperación de Información, sostiene que, en realidad, en determinados sistemas es posible que el usuario sí reciba respuestas de mejor calidad si es más educado. Esta circunstancia no deriva de que la máquina procese emociones o se sienta más inclinada a ofrecer un mejor servicio por sentirse respetada. La verdadera explicación radica en que, al comunicarse de manera educada, los mensajes del usuario tienden a asemejarse más a los ejemplos de interacciones corteses que el asistente ha analizado durante su entrenamiento. Dado que estas muestras suelen estar asociadas a respuestas de mejor calidad, la cortesía puede, de manera indirecta, mejorar la calidad de las respuestas obtenidas.

Gonzalo explica que al utilizar ciertos modelos de lenguaje como ChatGPT, Gemini o Claude, es crucial tener en cuenta que son sistemas “muy sensibles a la formulación de la consulta, hasta extremos surrealistas”. Cambios aparentemente menores en la estructura de una orden, como la puntuación o la inclusión de ciertas frases motivacionales, pueden tener un impacto dramático en la efectividad de la respuesta. “Separar con dos puntos o con espacio o utilizar más o menos paréntesis en el formato puede hacer que la precisión de la respuesta salte del 8% al 80%”, asegura.

También se ha demostrado que añadir “respira hondo y piensa paso a paso” mejora mucho la precisión de las respuestas que requieren razonamiento. Esto sucede no porque el modelo “piense” de manera lógica, sino porque estas instrucciones lo llevan a patrones de respuesta que en su entrenamiento estaban asociados con una mayor claridad y detalle. Incluso afirmaciones que no deberían influir en la respuesta, como indicar la época del año (“es mayo” o “es diciembre”) o hacer cumplidos al modelo (“eres muy inteligente”), pueden alterar la calidad de las respuestas. “El colmo del surrealismo se alcanza cuando recientemente se descubrió que las respuestas sobre matemáticas mejoran si se solicita al sistema que se exprese como si fuera un personaje de Star Trek”, concluye el experto.