twitter account

Google incorpora nuevas habilidades en lenguaje de inteligencia artificial para que los robots entiendan mejor a los humanos

17/08/2022
James Vincent

Alphabet ha estado probando sus prototipos de Everyday Robots limpiando las oficinas de la empresa.

La empresa matriz de Google, Alphabet, está uniendo dos de sus proyectos de investigación más ambiciosos ―la robótica y la comprensión del lenguaje de la IA― en un intento de hacer un “robot ayudante” que pueda entender las órdenes del lenguaje natural.

Desde 2019, Alphabet ha estado desarrollando robots que pueden realizar tareas sencillas como ir a buscar bebidas y limpiar superficies. Este proyecto de Everyday Robots aún está en sus inicios ―los robots son lentos y vacilantes― pero han recibido ahora una actualización: una mejor comprensión del lenguaje, cortesía del modelo de lenguaje grande (LLM) PaLM de Google.

La mayoría de los robots solo responden a instrucciones breves y sencillas, como “tráeme una botella de agua”. Pero los LLM como el GPT-3 y el MuM de Google son capaces de analizar mejor la intención que hay detrás de órdenes más complejas. En el ejemplo de Google, podrías decirle a uno de los prototipos de Everyday Robots “Se me ha derramado la bebida, ¿puedes ayudarme?”. El robot filtra esta instrucción a través de una lista interna de posibles acciones y la interpreta como “tráeme la esponja de la cocina”.

Sí, es un listón bastante bajo para un robot “inteligente”, pero sin duda sigue siendo una mejora. Lo que sería realmente inteligente sería que ese robot viera que derramas una bebida, te oyera gritar “¡Caramba, derramé la bebida!” y te ayudara.

Google ha bautizado el sistema resultante como PaLM-SayCan, nombre que refleja la forma en que el modelo combina las habilidades de comprensión del lenguaje de los LLM (“Say”) con asequibilidad de sus robots (eso es “Can”, filtrar instrucciones a través de posibles acciones).

Google afirma que, al integrar PaLM-SayCan en sus robots, estos fueron capaces de planificar respuestas correctas a 101 instrucciones del usuario el 84% de las veces y ejecutarlas con éxito el 74%. Se trata de una tasa de aciertos sólida, pero estas cifras deben tomarse con una pizca de sal. No tenemos la lista completa de los 101 comandos, por lo que no está claro hasta qué punto estaban limitadas estas instrucciones. ¿Capturan realmente toda la amplitud y complejidad del lenguaje que cabría esperar de un robot de ayuda a domicilio? Es poco probable.

Y es que este es el gran reto para Google y otros que trabajan en robots domésticos: la vida real es un desorden sin concesiones. Hay demasiadas órdenes complejas que querríamos pedirle a un verdadero robot doméstico, desde “limpiar los cereales que acabo de derramar bajo el sofá” hasta “sofreír las cebollas para la salsa de la pasta” (ambas órdenes contienen una gran cantidad de conocimientos implícitos, desde cómo limpiar los cereales hasta dónde están las cebollas en la heladera y cómo prepararlas, etc.).

Por eso, el único robot doméstico de este siglo que ha logrado un mínimo de éxito ―el robot aspiradora― solo tiene un propósito en la vida: aspirar la suciedad.

A medida que la inteligencia artificial va mejorando en habilidades como la visión y la navegación, vamos viendo cómo entran en el mercado nuevos tipos de robots, pero estos siguen estando limitados a propósito en lo que pueden hacer. Por ejemplo, el robot Retriever de Labrador Systems, que consiste, básicamente, en una estantería con ruedas que traslada objetos desde una parte de la casa a otra. No cabe duda de que este sencillo concepto tiene un gran potencial ―el robot Retriever podría ser increíblemente útil para las personas con movilidad limitada―, pero aún estamos muy lejos de los robots mayordomos que lo hacen todo de nuestros sueños.