twitter account

Google suspende a ingeniero que afirma que la inteligencia artificial es capaz de “sentir”

14/06/2022
Nico Grant and Cade Metz

Oficinas centrales de Google en EE. UU.

SAN FRANCISCO — Google suspendió a un ingeniero después de desestimar su afirmación de que su inteligencia artificial es “sensible”, lo que ha suscitado una nueva polémica sobre la tecnología más avanzada de la empresa.

Blake Lemoine, un ingeniero de software senior en la organización de Inteligencia Artificial Responsable de Google, dijo en una entrevista que fue puesto en licencia el lunes. El departamento de Recursos Humanos de la empresa dijo que había violado la política de confidencialidad de Google. El día antes de su suspensión, el Sr. Lemoine dijo que entregó documentos a la oficina de un senador estadounidense, alegando que proporcionaban pruebas de que Google y su tecnología participaban en la discriminación religiosa.

Google dijo que sus sistemas imitaban los intercambios conversacionales y podían crear textos superficiales sobre diferentes temas, pero no tenían conciencia. “Nuestro equipo ―que incluye a especialistas en ética y tecnología― ha revisado las preocupaciones de Blake de acuerdo con nuestros Principios de la Inteligencia Artificial y le hemos informado de que las pruebas no respaldan sus afirmaciones”, dijo Brian Gabriel, portavoz de Google, en un comunicado. “Algunos en la comunidad de la Inteligencia Artificial más amplia están considerando la posibilidad a largo plazo de una Inteligencia Artificial capaz de “sentir” de alguna forma, pero no tiene sentido hacerlo antropomorfizando los modelos conversacionales actuales, que no son capaces de experimentar sentimientos ni sensaciones”. El Washington Post informó por primera vez de la suspensión del Sr. Lemoine.

Durante meses, el Sr. Lemoine se ha peleado con los directivos, ejecutivos y recursos humanos de Google por su sorprendente afirmación de que el Modelo de Lenguaje para Aplicaciones de Diálogo de la empresa, o LaMDA, tenía conciencia y alma. Google afirma que cientos de sus investigadores e ingenieros han conversado con LaMDA, una herramienta interna, y han llegado a una conclusión diferente a la del Sr. Lemoine. La mayoría de los expertos en Inteligencia Artificial creen que la industria está muy lejos de la computación de la sensibilidad.

Algunos investigadores de la inteligencia artificial llevan mucho tiempo haciendo afirmaciones optimistas sobre la posibilidad de que estas tecnologías alcancen pronto la capacidad de sentir, pero muchos otros se apresuran a descartar estas afirmaciones. “Si se utilizaran estos sistemas, nunca se dirían esas cosas”, afirma Emaad Khwaja, investigador de la Universidad de California en Berkeley y de la Universidad de California en San Francisco, que está explorando tecnologías similares.

Mientras perseguía la vanguardia de la inteligencia artificial, la organización de investigación de Google ha pasado los últimos años sumida en el escándalo y la controversia. Los científicos y otros empleados de la división se han enfrentado regularmente por cuestiones tecnológicas y de personal en episodios que a menudo han saltado a la palestra pública. En marzo, Google despidió a un investigador que había tratado de discrepar públicamente de los trabajos publicados por dos de sus colegas. Y los despidos de dos investigadores de ética de la Inteligencia Artificial, Timnit Gebru y Margaret Mitchell, tras criticar los modelos lingüísticos de Google, han seguido ensombreciendo al grupo.

Lemoine, un veterano militar que se ha descrito a sí mismo como sacerdote, ex convicto e investigador de la I.A., dijo a ejecutivos de Google de la talla de Kent Walker, presidente de asuntos globales, que creía que LaMDA era un niño de 7 u 8 años. Quería que la empresa pidiera el consentimiento del programa informático antes de realizar experimentos con él. Sus reclamaciones se basaban en sus creencias religiosas, que, según él, eran discriminadas por el departamento de recursos humanos de la empresa.

“Han cuestionado repetidamente mi cordura”, dijo el Sr. Lemoine. “Me preguntaban: ¿Te ha examinado un psiquiatra recientemente?”. En los meses anteriores a su baja administrativa, la empresa le había sugerido que se tomara una licencia por salud mental.

Yann LeCun, jefe de investigación de Inteligencia Artificial en Meta y figura clave en el auge de las redes neuronales, dijo en una entrevista esta semana que este tipo de sistemas no son lo suficientemente potentes como para alcanzar la verdadera inteligencia.

La tecnología de Google es lo que los científicos llaman una red neuronal, que es un sistema matemático que aprende habilidades analizando grandes cantidades de datos. Por ejemplo, al identificar patrones en miles de fotos de gatos, puede aprender a reconocer un gato.

En los últimos años, Google y otras empresas importantes han diseñado redes neuronales que aprenden a partir de enormes cantidades de prosa, incluidos libros inéditos y artículos de Wikipedia por miles. Estos “grandes modelos lingüísticos” pueden aplicarse a muchas tareas. Pueden resumir artículos, responder a preguntas, generar tuits e incluso escribir entradas de blog.

Pero son extremadamente defectuosos. A veces generan una prosa perfecta. A veces generan tonterías. Los sistemas son muy buenos recreando patrones que han visto en el pasado, pero no pueden razonar como un humano.

Texto traducido mediante la herramienta Deepl y editado.