twitter account

Por qué es imposible construir un modelo lingüístico de IA imparcial

09/08/2023
Melissa Heikkilä

Imagen de Stephanie Arnett/MITTR / Midjouney

Los modelos lingüísticos de inteligencia artificial se han convertido recientemente en la última frontera de la guerra cultural estadounidense. Comentaristas de derechas han acusado a ChatGPT de tener un "sesgo woke" (ideológico), y grupos conservadores han empezado a desarrollar sus propias versiones de chatbots de IA. Mientras tanto, Elon Musk ha dicho que está trabajando en "TruthGPT", un modelo lingüístico de "máxima búsqueda de la verdad" que contrastaría con los chatbots "políticamente correctos" creados por OpenAI y Google. 

Un chatbot de inteligencia artificial imparcial y basado exclusivamente en hechos es una idea bonita, pero técnicamente imposible. (Musk aún no ha compartido ningún detalle de lo que supondría su TruthGPT, probablemente porque está demasiado ocupado pensando en X y en peleas de jaula con Mark Zuckerberg). Para entender por qué, merece la pena leer un artículo que acabo de publicar sobre una nueva investigación que arroja luz sobre cómo el sesgo político se cuela en los sistemas lingüísticos de IA. Los investigadores realizaron pruebas con catorce grandes modelos lingüísticos y descubrieron que ChatGPT y GPT-4 de OpenAI eran los más libertarios de izquierdas, mientras que LLaMA de Meta era el más autoritario de derechas.

"Creemos que ningún modelo lingüístico puede estar totalmente libre de sesgos políticos", me dijo Chan Park, investigador doctorado de la Universidad Carnegie Mellon que participó en el estudio.

Uno de los mitos más extendidos en torno a la IA es que la tecnología es neutral e imparcial. Es un argumento peligroso que no hará sino agravar el problema de la tendencia humana a confiar en los ordenadores, incluso cuando se equivocan. De hecho, los modelos lingüísticos de la IA no sólo reflejan los sesgos de sus datos de entrenamiento, sino también los sesgos de las personas que los crearon y entrenaron.

Y aunque es bien sabido que los datos que se utilizan para entrenar los modelos de inteligencia artificial son una fuente importante de estos sesgos, la investigación sobre la que escribí muestra cómo los sesgos se cuelan prácticamente en todas las fases del desarrollo del modelo, afirma Soroush Vosoughi, profesor adjunto de informática en el Dartmouth College, que no participó en el estudio.

El sesgo en los modelos lingüísticos de IA es un problema especialmente difícil de solucionar, porque no entendemos realmente cómo generan las cosas que hacen, y nuestros procesos para mitigar el sesgo no son perfectos. Esto, a su vez, se debe en parte a que los sesgos son problemas sociales complicados que no tienen una solución técnica fácil.

Por eso creo firmemente en la honestidad como mejor política. Investigaciones como esta podrían animar a las empresas a seguir y trazar los sesgos políticos de sus modelos y a ser más francas con sus clientes. Podrían, por ejemplo, declarar explícitamente los sesgos conocidos para que los usuarios puedan tomar los resultados de los modelos con cautela.

En este sentido, OpenAI me dijo a principios de este año que está desarrollando chatbots personalizados capaces de representar diferentes políticas y visiones del mundo. Un enfoque sería permitir a la gente personalizar sus chatbots de IA. Es algo en lo que se ha centrado la investigación de Vosoughi.

Como se describe en un artículo revisado por pares, Vosoughi y sus colegas crearon un método similar a un algoritmo de recomendación de YouTube, pero para modelos generativos. Utilizan el aprendizaje por refuerzo para guiar los resultados de un modelo lingüístico de IA con el fin de generar determinadas ideologías políticas o eliminar el discurso de odio.

OpenAI utiliza una técnica llamada aprendizaje por refuerzo a través de la retroalimentación humana para afinar sus modelos de IA antes de lanzarlos. El método de Vosoughi también utiliza el aprendizaje por refuerzo para mejorar el contenido generado por el modelo después de su lanzamiento.

Pero en un mundo cada vez más polarizado, este nivel de personalización puede tener resultados buenos y malos. Si bien puede servir para eliminar información desagradable o errónea de un modelo de IA, también puede utilizarse para generar más desinformación.

"Es un arma de doble filo", admite Vosoughi.

La nueva empresa del CEO de OpenAI, Sam Altman, Worldcoin, pretende crear un sistema de identidad global llamado "World ID" que se basa en los datos biométricos únicos de los individuos para demostrar que son humanos. Se lanzó oficialmente la semana pasada en más de 20 países. Ya está siendo investigado en varios de ellos.

Pesadilla para la privacidad: para entender por qué, merece la pena leer una investigación del MIT Technology Review del año pasado, que descubrió que Worldcoin recopilaba datos biométricos sensibles de personas vulnerables a cambio de dinero en efectivo. Es más, la empresa utilizaba los datos sensibles, aunque anónimos, de los usuarios de prueba para entrenar modelos de inteligencia artificial, sin su conocimiento.

En el número de esta semana de The Technocrat, nuestro boletín semanal sobre política tecnológica, Tate Ryan-Mosley y nuestra reportera de investigación Eileen Guo analizan qué ha cambiado desde la investigación del año pasado y cómo entendemos las últimas noticias.

Bits y Bytes

Se trata del primer caso conocido de detención injusta de una mujer por reconocimiento facial.

El pasado mes de febrero, Porcha Woodruff, embarazada de ocho meses, fue detenida por un presunto robo y sustracción de un vehículo y permaneció recluida durante 11 horas, pero su caso fue sobreseído un mes después. Es la sexta persona que denuncia haber sido acusada falsamente de un delito por una coincidencia de reconocimiento facial. Las seis personas han sido negras, y Woodruff es la primera mujer que denuncia que le ha ocurrido esto (The New York Times).

¿Qué puedes hacer cuando un sistema de IA miente sobre ti?

El verano pasado escribí un artículo sobre cómo nuestros datos personales se están desmenuzando en vastos conjuntos de datos para entrenar modelos lingüísticos de IA. Esto no sólo es una pesadilla para la privacidad, sino que podría dañar nuestra reputación. Mientras escribíamos el artículo, un investigador y yo descubrimos que el chatbot experimental BlenderBot de Meta había llamado terrorista a una destacada política holandesa, Marietje Schaake. Y, como se explica en este artículo, por el momento hay poca protección o recurso cuando los chatbots de IA vomitan y difunden mentiras sobre ti. (The New York Times)

Ahora todas las startups son empresas de IA. ¿Estamos en una burbuja?

Tras el lanzamiento de ChatGPT, el bombo de la IA este año ha sido INTENSO. Parece que todas las empresas tecnológicas han fundado una empresa de IA. Pero nueve meses después del lanzamiento del chatbot, todavía no está claro cómo van a ganar dinero estas startups y la tecnología de IA, y hay informes de que los consumidores están empezando a perder interés. (The Washington Post)

Meta está creando chatbots con personas para intentar retener a los usuarios

Sinceramente, esto suena más molesto que otra cosa. Meta se está preparando para lanzar chatbots con inteligencia artificial y diferentes personalidades a partir del mes que viene en un intento de aumentar la participación y recopilar más datos sobre las personas que utilizan sus plataformas. Los usuarios podrán chatear con Abraham Lincoln o pedir consejos sobre viajes a chatbots de IA que escriban como surfistas. Pero plantea cuestiones éticas delicadas: ¿cómo evitará Meta que sus chatbots manipulen el comportamiento de las personas y puedan inventar algo perjudicial, y cómo tratará los datos de los usuarios que recopile? (The Financial Times).