por Xataka
4 de julio de 2025
2025 iba a ser el año de los agentes IA. Lo han dicho personalidades de la talla del CEO de Nvidia o Sam Altman. Las principales empresas dedicadas a la IA han presentado sus agentes: Anthropic, OpenAI, Google… Los agentes IA apuntaban a ser la gran revolución de este año, pero lo que estamos viendo deja bastante que desear. Cada vez son más las voces que están bajando las expectativas.
Expertos en crear hype. Si en algo son expertos los gurús de la IA es en generar expectación. A principios de año, Altman decía que los agentes iban a transformar la mano de obra en 2025. Seis meses después, matizaba su discurso: “los agentes IA están comportándose como empleados junior”. Ahora, el año de los agentes IA será 2026, pero quizás esto tampoco es una predicción realista.
No tan deprisa. Cada vez son más las voces que están llamando a la calma. En The Algorithmic bridge hablan del bombo que se ha dado a los agentes IA y cómo está contribuyendo a que se esté perdiendo la confianza en el sector. Y es que, querer correr mucho genera falsas expectativas y acaba por decepcionar. Una de estas voces es la de Andrej Karpathy, co-fundador de OpenAI y responsable de IA en Tesla, por lo que algo de IA, sabe. Karpathy llama a la calma: “hay mucha gente demasiado entusiasmada con los agentes IA”.
La promesa. Tras el boom de los modelos de lenguaje, los agentes IA se presentan como la próxima gran evolución. Mientras que a un chatbot sólo podemos pedirle una tarea, un agente puede planificar tareas más grandes de forma autónoma. Por ejemplo, un agente IA podría gestionar el stock de una tienda, controlando qué hace falta y haciendo pedidos a los proveedores, todo de forma autónoma. Sobre el papel, los agentes son herramientas muy potentes y plantean una amenaza muy seria para muchos puestos de trabajo.
La realidad. Si 2025 está dejando algo claro de los agentes IA, es que fallan más que una escopeta de feria. Ya se han puesto en práctica en varios casos como la creación de esta empresa ficticia o este experimento que llevó a cabo Anthropic. El resultado ha sido decepcionante. Uno de los puntos en los que más fallaron es a la hora de buscar en internet. Por ejemplo, uno de estos agentes dejó una tarea por completar porque apareció un pop-up en la pantalla y no supo cerrarlo. Cuando salen de su entorno, los agentes tienden a fallar más porque se encuentran con información que no controlan, como el caso del pop-up. Otro tipo de agentes, como Claude Code, funcionan en un entorno cerrado y son mucho más fiables.
Otra de las limitaciones es el tiempo que pueden estar trabajando. Se ha visto como los agentes IA que cometen un error en una tarea, lo van encadenando en las sucesivas, haciendo que la solución se vea comprometida y eche por tierra todo el trabajo. Y esto empeora cuanto más tiempo pasan trabajando. Una posible solución a este problema sería poner a varios agentes a trabajar en paralelo para así poder contrastar y encontrar la solución óptima.
Su momento llegará. Los agentes IA no están listos para funcionar de forma autónoma y sustituir a un trabajador al 100%, pero eso no significa que no vayan a llegar a ese punto. De hecho, ya están mejorando. Según esta investigación, los agentes IA están aumentando el tiempo que pueden trabajar de forma autónoma en una tarea con una tasa de éxito del 50%. En 2024 el tiempo era de 8 minutos y actualmente ya se encuentra en 1 hora. Si siguen mejorando de forma sostenida, para 2027 podrán trabajar cuatro horas seguidas.
Karpathy lo compara con su primer viaje en un robotaxi de Waymo en 2013: “han pasado 12 años y seguimos trabajando”. No estamos en el año de los agentes IA, sino “la década de los agentes. Esto va a llevar bastante tiempo. Tenemos que hacerlo con cuidado. Esto es software, seamos serios”, advierte.
Imagen | Gemini
-
La noticia
Se suponía que los agentes iban a por a la IA en otra dimensión en 2025. Como con otras cosas de la IA, solo se suponía
fue publicada originalmente en
Xataka
por
Amparo Babiloni
.