por 24Horas
24 de junio de 2025
Un nuevo estudio liderado por Apple ha encendido las alarmas en el mundo tecnológico: los modelos de inteligencia artificial más avanzados sufren un "colapso total de precisión" al enfrentarse a desafíos de alta complejidad.
LEE TAMBIÉN EN CONCIENCIA 24.7:
- Una nueva era para el arte: IA logra restaurar pinturas dañadas en horas
- Piel robótica sensible: un avance que acerca a los robots al tacto humano
- Los cohetes Starship de SpaceX siguen fallando y complican los planes de Elon Musk
Según la investigación publicada recientemente, los llamados Modelos de Razonamiento Extendido o Large Reasoning Models (LRMs), diseñados para resolver problemas complejos dividiéndolos en pasos lógicos, comienzan a fallar justamente cuando más se los necesita.
“Al acercarse a cierto umbral crítico, los modelos, en lugar de intensificar su razonamiento, lo reducen, aunque la dificultad aumente”, explica el documento.
¿Qué descubrió Apple?
El equipo sometió a estos modelos a desafíos lógicos, como el clásico rompecabezas Torre de Hanoi y problemas de cruces de río, con resultados preocupantes. Mientras que los modelos estándar superaron las tareas simples sin problemas, tanto ellos como los LRMs colapsaron completamente en escenarios complejos.
Incluso cuando se les proporcionó un algoritmo con la solución correcta, los sistemas no lograron aplicarlo. Y lo que es más llamativo: antes del colapso, los modelos gastaban potencia de cálculo en soluciones erróneas, perdiendo eficiencia.
¿Qué significa esto para el futuro de la IA?
La investigación pone en entredicho la carrera tecnológica por alcanzar la Inteligencia Artificial General (AGI), esa etapa en que una IA puede igualar la capacidad intelectual de un ser humano.
Gary Marcus, académico estadounidense y una de las voces más escépticas sobre los avances actuales de la IA, calificó los hallazgos como "devastadores".
“Quien crea que los modelos de lenguaje actuales son la vía directa hacia una AGI transformadora, se está engañando”, señaló en su boletín de Substack.
El estudio evaluó modelos de renombre como OpenAI o3, Gemini Thinking de Google, Claude 3.7 Sonnet-Thinking de Anthropic y DeepSeek-R1. Mientras OpenAI declinó comentar, los otros desarrolladores fueron contactados por los investigadores.
¿Estamos ante un límite técnico?
Los investigadores de Apple concluyen que estos resultados indican una limitación fundamental de escala en la forma actual de razonar de la IA. En sus palabras, los enfoques actuales podrían estar topando con una barrera estructural en el desarrollo de razonamiento generalizable, es decir, la capacidad de aplicar conclusiones específicas a problemas más amplios.
Andrew Rogoyski, del Instituto de IA Centrada en las Personas de la Universidad de Surrey, fue categórico en sus declaraciones a The Guardian:
“Este hallazgo sugiere que podríamos haber llegado a un callejón sin salida con el enfoque actual hacia la inteligencia artificial”.