Apple en guerra con la Inteligencia Artificial: un estudio señala que no piensa en problemas complejos

Un estudio de Apple pone en duda la capacidad de los modelos de Inteligencia Artificial (IA) avanzada para razonar ante desafíos complejos, apuntando a fallas sistemáticas a la hora de razonar sobre problemas complejos. En el fondo hay una guerra entre las grandes empresas para posicionarse en este sector.

Inteligencia Artificial
La Inteligencia Artificial gana cada vez más terreno en la vida laboral y personal. Ahora una investigación generada por Apple indica que ante problemas complejos la AI no razona y se rinde. Más allá de la guerra entre empresas, muchos ya piensan en caminos para mejorar estos problemas de razonamiento.

La inteligencia artificial ya forma parte de un salto tecnológico que abarca cada vez más aspectos de la vida diaria. Desde lo laboral hasta las relaciones personales. Es un proceso imparable, más allá de la postura que asumamos. Ahora la firma Apple Research ha publicado un sorprendente estudio que cuestiona la capacidad de los llamados large reasoning models (LRM), modelos de IA avanzados diseñados para descomponer problemas complejos, al enfrentar rompecabezas lógicos con niveles crecientes de dificultad.

Los resultados de una investigación realizada por Apple cuestionan la fiabilidad de los modelos de AI en escenarios reales donde el razonamiento correcto es fundamental. Pero también está claro que detrás hay una guerra abierta entre las empresas que intentan acaparar mayores cuotas de mercado.

Para analizar esta información, hay que decir que detrás hay una guerra directa entre las empresas del sector para tener más posición en el mercado, especialmente contra OpenAl y Google. Y Apple es la que ha venido a la retaguardia en esta carrera. Por eso muchos ven en esto la intención de desprestigio que hace la empresa con sede en Cupertino, California. Según sus investigadores, estos sistemas exhiben un “colapso total de precisión” cuando la complejidad supera cierto umbral, llegando incluso a empeorar su desempeño comparado con modelos menos sofisticados”.

El informe señala que este fenómeno no solo expone una debilidad puntual, sino una falla de escala estructural: conforme sube la dificultad, los LRMs reducen sus esfuerzos de razonamiento en lugar de intensificarlos, algo parecido a una rendición. En tareas de dificultad media, los LRMs alcanzan un leve beneficio al suponer una estrategia de pensamiento, pero en niveles altos todos los modelos caen en un colapso absoluto, incluso cuando se les proporciona el algoritmo correcto para resolverlos, tal como indica The Guardian.

Un espejismo de inteligencia: patrones, no pensamiento

Según Apple, detrás del aparente razonamiento de los LRMs hay, en realidad, una elegante simulación basada en el patrón. Los sistemas emulan cadenas de pensamiento pero, como se sostiene, no aplican algoritmos explícitos ni lógica formal: responden por asociación.

Por ello fallan cuando el problema exige seguir reglas mecánicas, como en la Torre de Hanoi: aunque se les entregue la solución paso a paso, prefieren seguir rutas incorrectas y, llegado un punto crítico, “se rinden”. Esta inhabilidad de pensar está alineada con sesgos humanos documentados desde la psicología cognitiva. Sesgos como la ilusión de validez: evaluar decisiones con excesiva confianza basándose en patrones superficiales.

La causa, según otros estudios, puede rastrearse a lo que los investigadores denominan “rigidez de razonamiento” o reliance en patrones familiares. Un artículo del MIT muestra que las IA, aun cuando se les da instrucciones claras, tienden a ignorarlas y repetir estructuras conocidas. Además, trabajos previos sobre transformadores han identificado limitaciones en su capacidad composicional: funcionan bien con patrones seriales, pero colapsan al requerir grados de razonamiento más complejos.

Causas profundas: algoritmos, rigidez y errores cognitivos

El nuevo estudio (desde la visión de Apple) plantea tres factores clave que contribuyen al colapso: (1) la dependencia excesiva de patrones de entrenamiento, (2) la lógica rígida que impide ajustarse a nuevos enunciados, y (3) la optimización que premia respuestas rápidas sobre razonamientos correctos. Esto lleva a abandonar cuando las etapas se vuelven un desafío real. Esa combinación genera sistemas que destacan en tareas conocidas, pero se estrellan frente a lo desconocido, siendo incapaces de extender su razonamiento.

AI Apple
Algunos ya plantean la necesidad de revisar las arquitecturas neuronales, mientras que otros proponen incorporar lógica simbólica o poner un mayor énfasis en el aprendizaje mediante reglas explícitas.

Estas limitaciones arrojan una sombra sobre las expectativas de una IA con capacidad general (AGI). La metáfora del colapso no es accidental: ante puzzles de complejidad creciente, las IA no solo fallan, sino que abandonan, un síntoma que podría afectar aplicaciones críticas donde el razonamiento no es opcional.

La comunidad científica ya debate nuevos caminos: algunos plantean revisar las arquitecturas neuronales, otros proponen incorporar lógica simbólica o poner un mayor énfasis en el aprendizaje mediante reglas explícitas. Sin duda, Apple ha sacudido el paradigma: no basta con imitar patrones, hay que diseñar sistemas capaces de razonar con consistencia, adaptarse y verificar sus propios pasos, tal como humanos rigurosos hacen en matemáticas y ciencia.