La inteligencia artificial ya forma parte de un salto tecnológico que abarca cada vez más aspectos de la vida diaria. Desde lo laboral hasta las relaciones personales. Es un proceso imparable, más allá de la postura que asumamos. Ahora la firma Apple Research ha publicado un sorprendente estudio que cuestiona la capacidad de los llamados large reasoning models (LRM), modelos de IA avanzados diseñados para descomponer problemas complejos, al enfrentar rompecabezas lógicos con niveles crecientes de dificultad.
Para analizar esta información, hay que decir que detrás hay una guerra directa entre las empresas del sector para tener más posición en el mercado, especialmente contra OpenAl y Google. Y Apple es la que ha venido a la retaguardia en esta carrera. Por eso muchos ven en esto la intención de desprestigio que hace la empresa con sede en Cupertino, California. Según sus investigadores, estos sistemas exhiben un “colapso total de precisión” cuando la complejidad supera cierto umbral, llegando incluso a empeorar su desempeño comparado con modelos menos sofisticados”.
El informe señala que este fenómeno no solo expone una debilidad puntual, sino una falla de escala estructural: conforme sube la dificultad, los LRMs reducen sus esfuerzos de razonamiento en lugar de intensificarlos, algo parecido a una rendición. En tareas de dificultad media, los LRMs alcanzan un leve beneficio al suponer una estrategia de pensamiento, pero en niveles altos todos los modelos caen en un colapso absoluto, incluso cuando se les proporciona el algoritmo correcto para resolverlos, tal como indica The Guardian.
Según Apple, detrás del aparente razonamiento de los LRMs hay, en realidad, una elegante simulación basada en el patrón. Los sistemas emulan cadenas de pensamiento pero, como se sostiene, no aplican algoritmos explícitos ni lógica formal: responden por asociación.
Apple researchers say reasoning models are flawed!
— Kirk Borne (@KirkDBorne) June 9, 2025
See research paper: "The Illusion of Thinking: Understanding the Strengths and Limitations of Reasoning Models via the Lens of Problem Complexity" https://t.co/4OpjSkuwAK#AI #MachineLearning #DeepLearning #GenAI #LLMs pic.twitter.com/Gd3BtVvCAy
Por ello fallan cuando el problema exige seguir reglas mecánicas, como en la Torre de Hanoi: aunque se les entregue la solución paso a paso, prefieren seguir rutas incorrectas y, llegado un punto crítico, “se rinden”. Esta inhabilidad de pensar está alineada con sesgos humanos documentados desde la psicología cognitiva. Sesgos como la ilusión de validez: evaluar decisiones con excesiva confianza basándose en patrones superficiales.
La causa, según otros estudios, puede rastrearse a lo que los investigadores denominan “rigidez de razonamiento” o reliance en patrones familiares. Un artículo del MIT muestra que las IA, aun cuando se les da instrucciones claras, tienden a ignorarlas y repetir estructuras conocidas. Además, trabajos previos sobre transformadores han identificado limitaciones en su capacidad composicional: funcionan bien con patrones seriales, pero colapsan al requerir grados de razonamiento más complejos.
El nuevo estudio (desde la visión de Apple) plantea tres factores clave que contribuyen al colapso: (1) la dependencia excesiva de patrones de entrenamiento, (2) la lógica rígida que impide ajustarse a nuevos enunciados, y (3) la optimización que premia respuestas rápidas sobre razonamientos correctos. Esto lleva a abandonar cuando las etapas se vuelven un desafío real. Esa combinación genera sistemas que destacan en tareas conocidas, pero se estrellan frente a lo desconocido, siendo incapaces de extender su razonamiento.
Estas limitaciones arrojan una sombra sobre las expectativas de una IA con capacidad general (AGI). La metáfora del colapso no es accidental: ante puzzles de complejidad creciente, las IA no solo fallan, sino que abandonan, un síntoma que podría afectar aplicaciones críticas donde el razonamiento no es opcional.
La comunidad científica ya debate nuevos caminos: algunos plantean revisar las arquitecturas neuronales, otros proponen incorporar lógica simbólica o poner un mayor énfasis en el aprendizaje mediante reglas explícitas. Sin duda, Apple ha sacudido el paradigma: no basta con imitar patrones, hay que diseñar sistemas capaces de razonar con consistencia, adaptarse y verificar sus propios pasos, tal como humanos rigurosos hacen en matemáticas y ciencia.