por Hipertextual
24 de junio de 2025
Google ha desarrollado una IA que puede ejecutarse en un robot y no requiere conexión a internet. El nuevo modelo Gemini Robotics On-Device no depende de la nube, por lo que los robots podrían operar de forma autónoma en tiempo real. La nueva IA forma parte de Gemini Robotics, una familia de modelos desarrollada por DeepMind para integrarse en la próxima generación de robots.
De acuerdo con una publicación en el blog de DeepMind, Gemini Robotics On-Device hace honor a su nombre y funciona directamente en el dispositivo. El modelo utiliza una arquitectura VLA (visión, lenguaje y acción) que permite a los robots comprender su entorno y ejecutar diversas tareas, como manejar objetos, ensamblar piezas mecánicas o doblar ropa.
Google señala que su IA está diseñada para la experimentación rápida y puede adaptarse a nuevas tareas a través de la puesta a punto. Esto último es importante para quienes deseen personalizarlo, ya que solo requiere entre 50 y 100 demostraciones para aprender una nueva tarea.
La capacidad de ejecutarse directamente en el robot sin una conexión a internet le otorga algunas ventajas. De entrada, el nuevo modelo de Gemini tiene menor latencia, por lo que responderá más rápido a las instrucciones. Además, la ausencia de conectividad mejora la privacidad y seguridad del robot, dos características fundamentales en algunas industrias como la seguridad o el cuidado de la salud.
La nueva IA de Gemini Robotics puede aplicarse a cualquier robot
Junto con el anuncio, Google mostró algunos robots ejecutando tareas comunes impulsadas por la IA. Si bien el modelo de lenguaje está optimizado para robots de dos brazos, la tecnológica llevó a cabo pruebas en el robot humanoide Apollo y el Franka FR3. El primero fue capaz de manipular objetos e introducirlos a una bolsa de papel, mientras que el segundo cambió una correa de distribución y la ajustó a una polea.
En términos de protección, Gemini Robotics On-Device incluye mecanismos de seguridad física y semántica. Google dijo que se basó en los principios de IA que rigen a todos sus modelos y aplicó un enfoque holístico de responsabilidad durante el desarrollo. No obstante, la IA no es perfecta y puede cometer errores, por lo que Google sugiere realizar ejercicios de seguridad para evitar un comportamiento no deseado.
Los modelos de Gemini Robotics están basados en Gemini 2.0, aunque se diferencian por su capacidad de adaptarse a diversas situaciones. La variante On-Device se une a Robotics y Robotics-ER, dos modelos de lenguaje presentados a inicios de marzo de 2025. Gemini Robotics combina visión, lenguaje y acción para que los robots realicen tareas físicas, mientras que Robotics-ER se enfoca en el reconocimiento de objetos.
Google confirmó que las próximas versiones se actualizarán a Gemini 2.5 para lograr una mejor comprensión del entorno. Gemini Robotics On-Devices estará disponible a través de un SDK para que los desarrolladores puedan implementarlo en sus robots. El modelo no tiene limitación física, por lo que se puede aplicar a robots humanoides y probarse a través del simulador de física MuJoCo.