El inesperado talón de Aquiles de la inteligencia artificial, según Apple Infobae

El inesperado talón de Aquiles de la inteligencia artificial, según Apple. Noticias en tiempo real 11 de Junio, 2025 06:20

La ilusión del pensamiento: los modelos de IA de razonamiento colapsan ante problemas complejos, según investigación de Apple (Imagen Ilustrativa Infobae)

Un nuevo estudio de Apple revela que los modelos de inteligencia artificial especializados en razonamiento, conocidos como Large Reasoning Models (LRMs), colapsan completamente cuando enfrentan problemas de complejidad creciente, desafiando la idea de que estos sistemas “piensan” de manera efectiva.

La investigación, publicada apenas días antes del evento WWDC de Apple, analizó el comportamiento de modelos como OpenAI o1 y o3, DeepSeek R1, Claude 3.7 Sonnet Thinking y Google Gemini Flash Thinking. Los resultados representan un jarro de agua fría para los optimistas de la inteligencia artificial general (AGI) y una confirmación para los escépticos, ya que muestran evidencia contundente sobre las limitaciones de la inteligencia de estos modelos.

Según informaron los investigadores de Apple, mientras los LRMs tienen un buen desempeño en matemáticas y programación, cuando se enfrentan a problemas más complejos solo proporcionan “La Ilusión del Pensamiento”.

Este hallazgo podría explicar la cautela de Apple para incorporar masivamente la IA en sus dispositivos, a diferencia de competidores como Google y Samsung, que han priorizado estas capacidades en sus productos.

Apple explica su cautela con la IA tras evidenciar fallos en modelos avanzados frente a problemas difíciles (REUTERS/Laure Andrillon)

Cómo los investigadores evaluaron las habilidades de razonamiento

Para evaluar los modelos de razonamiento, los investigadores de Apple utilizaron puzzles o rompecabezas lógicos clásicos como la Torre de Hanoi. Este puzzle consiste en discos apilados de mayor a menor en una de tres clavijas, y el objetivo es mover todos los discos a la tercera clavija sin colocar nunca un disco más grande sobre uno más pequeño.

Otros puzzles incluían el salto de fichas de damas a espacios vacíos, el problema de cruzar un río (habitualmente planteado con un zorro, una gallina y un saco de grano), y la configuración específica de bloques apilados.

Estos rompecabezas son reconocibles de clases de matemáticas o juegos en línea, ya que representan una forma simple de evaluar la capacidad humana para razonar y resolver problemas. Una vez que se comprende la lógica, solo hay que seguirla incluso cuando aumenta la complejidad, lo que en este caso significa más discos, fichas, animales o bloques. Sin embargo, los investigadores descubrieron que los LRMs comienzan a fallar después de cierto punto.

“Los resultados muestran que todos los modelos de razonamiento exhiben un patrón similar respecto a la complejidad: la precisión disminuye progresivamente a medida que aumenta la complejidad del problema hasta alcanzar un colapso completo (precisión cero) más allá de un umbral de complejidad específico para cada modelo”, escribieron los investigadores. En los resultados mostrados, Claude 3.7 Sonnet + thinking y DeepSeek R1 comienzan a fallar cuando se añade un quinto disco al problema de la Torre de Hanoi. Incluso cuando se aplica más potencia de cálculo a los LRMs, siguen fallando en los puzzles más complejos.

Tres regímenes de complejidad y el colapso de los modelos

La investigación de Apple desafía la idea de que la inteligencia artificial puede razonar como los humanos (Imagen Ilustrativa Infobae)

El estudio identificó tres regímenes de complejidad en el comportamiento de los modelos evaluados. En tareas de baja complejidad, los modelos de lenguaje estándar (LLMs), sin mecanismos de razonamiento explícito, superaron en eficiencia y precisión a los LRMs. Cuando la dificultad aumentó a un nivel medio, los LRMs demostraron una ventaja clara, gracias a su capacidad para generar cadenas de pensamiento más extensas.

Sin embargo, al enfrentar problemas de alta complejidad, ambos tipos de modelos experimentaron un colapso total en su desempeño. Además, los investigadores descubrieron que los modelos de razonamiento inicialmente aplican más “tokens de pensamiento” a medida que aumenta la complejidad, pero sorprendentemente abandonan el esfuerzo en cierto punto.

“Al aproximarse a un umbral crítico —que corresponde estrechamente con su punto de colapso de precisión— los modelos, de manera contraintuitiva, comienzan a reducir su esfuerzo de razonamiento a pesar del aumento en la dificultad del problema”, señala el estudio. Es decir, cuando los problemas se vuelven más difíciles, utilizan menos tokens o “piensan” menos.

Pero, ¿qué sucede cuando se les proporciona a los LRMs las respuestas? La precisión tampoco mejora. Incluso cuando los investigadores incluyeron el algoritmo en las instrucciones, de modo que los modelos solo necesitaban seguir los pasos, continuaron fallando.

Análisis de los procesos intermedios y el fenómeno del “overthinking”

El acceso a las “huellas de razonamiento” permitió a los investigadores examinar cómo evolucionan las soluciones intermedias dentro del proceso de pensamiento de los LRMs. En problemas simples, los modelos suelen encontrar la solución correcta rápidamente, pero continúan explorando alternativas incorrectas, lo que se traduce en un uso ineficiente de recursos computacionales. Este comportamiento, conocido como “overthinking” (pensar demasiado), implica que los modelos generan respuestas redundantes incluso después de haber hallado la solución.

El estudio de Apple genera debate sobre el futuro y las verdaderas capacidades de la inteligencia artificial (Imagen Ilustrativa Infobae)

En tareas de complejidad media, la tendencia se invierte: los modelos exploran, primero, caminos incorrectos y solo después de un proceso extenso logran dar con la respuesta correcta. Cuando la complejidad supera el umbral crítico, los modelos dejan de encontrar soluciones correctas en cualquier punto de su razonamiento, lo que evidencia una incapacidad para autocorregirse y adaptarse a desafíos más exigentes.

Según detalla Apple en su estudio, en el caso de la Torre de Hanoi, los modelos podían ejecutar hasta 100 movimientos correctos en configuraciones de alta dificultad antes de cometer un error, mientras que en el problema de cruzar el río fallaban tras apenas cinco movimientos. Esta disparidad sugiere que la frecuencia con la que los modelos han sido expuestos a ciertos tipos de puzzles durante su entrenamiento puede influir en su desempeño, aunque no explica completamente las limitaciones observadas.

Comparación con el rendimiento humano y limitaciones del estudio

Aunque los resultados pueden parecer desalentadores para quienes esperan una IA capaz de razonar como los humanos, el estudio de Apple aclara que estos hallazgos no implican que los LRMs carezcan por completo de habilidades de razonamiento. Más bien, evidencian que, ante problemas de alta complejidad, su desempeño no supera —y en ocasiones iguala— las limitaciones humanas.

El experto en IA Gary Marcus, citado por el medio original, contextualizó los resultados: “Los humanos (ordinarios) también tienen un conjunto de límites (bien conocidos) que se asemejan a lo que el equipo de Apple descubrió. Muchos (no todos) los humanos fallan en versiones de la Torre de Hanoi con 8 discos”. Marcus añadió: “Lo que muestra el artículo de Apple, fundamentalmente, independientemente de cómo se defina la AGI, es que los LLMs no son sustitutos de buenos algoritmos convencionales bien especificados”.

El estudio reconoce varias limitaciones. Los rompecabezas utilizados representan solo una fracción de los desafíos de razonamiento que se presentan en el mundo real, y la mayoría de los experimentos se realizaron mediante acceso a APIs de modelos cerrados, lo que restringe el análisis de los estados internos de los sistemas. Además, la validación de las soluciones se basó en simuladores deterministas, lo que puede no ser aplicable a dominios menos estructurados.

El futuro del razonamiento en IA

Los propios autores del estudio de Apple subrayan que su trabajo tiene un alcance limitado. Los entornos de puzzles, aunque permiten un control preciso de la complejidad, no reflejan la diversidad de problemas reales ni las demandas de razonamiento basadas en conocimiento. Además, el uso de modelos cerrados y simuladores estructurados restringe la generalización de los hallazgos a otros contextos.

Quedan abiertas preguntas fundamentales sobre la capacidad de los LRMs para desarrollar razonamiento generalizable y sobre las mejoras necesarias para superar las barreras identificadas. El estudio concluye que, si bien los LRMs han avanzado en tareas específicas, enfrentan límites inherentes que desafían la idea de una inteligencia artificial capaz de pensar como los humanos.

La publicación de este estudio justo antes del WWDC de Apple ha generado debate en la comunidad tecnológica.

Mientras empresas como Google y Samsung han apostado por integrar la IA en el centro de sus dispositivos, Apple ha adoptado una postura más cautelosa.

El hallazgo de que los LRMs colapsan ante problemas complejos desafía la narrativa de que la IA está cerca de alcanzar capacidades de razonamiento humano.


Compartir en:
   

 

 

Mara Lezama despierta al elefante blanco. 19:43

Por León Company Columna Comunicado con valor: Mara Lezama despierta al elefante blanco Por años, ese edificio quedó varado en el tiempo: un elefante blanco de concreto que observaba mudo el ir y venir de los cancunenses, como si su mera presencia recordara que la corrupción puede dejar cicatrices que tardan décadas en cerrarse. Fue […]T

Quintana Roo Hoy

Histórico recurso a comunidades indígenas en el estado de Veracruz. 19:16

Zaragoza, Ver, 06 de julio de 2025.- Legisladoras y legisladores locales veracruzanos acompañaron a la gobernadora de Veracruz, Rocío Nahle García, a la Asamblea del Fondo de Aportaciones para la Infraestructura Social de Pueblos Indígenas y Afromexicanos (FAISPIAM) en el municipio de Zaragoza, Veracruz, encabezada por la presidenta de México,

Nius de Veracruz

¿Para qué sirve un ventilador de refrigeración?.

¿Sabías que uno de los componentes más importantes para que tu maquinaria pesada funcione correctamente es el ventilador del motor? En este artículo te vamos a contar qué es un ventilador de enfriamiento, qué tipos existen y por qué es tan clave para que tu equipo no se sobrecaliente y trabaje a su máximo rendimiento.

Lado.mx

¡Impactante! Ingresos de la minería en la nube de Bow Miner revelados: XRP gana $20,000 al día, ETH gana $35,000 al día ¡y BTC es aún más sorprendente!.

Despídete de la minería tradicional y da la bienvenida a la nueva era de la riqueza inteligente. Imagina estar recostado en una silla de playa, bebiendo una bebida helada, mientras tus activos criptográficos generan ingresos para ti las 24 horas del día.

Lado.mx

Frentes Políticos / 6 de julio de 2025.02:53

1. Al rescate. La presidenta Claudia Sheinbaum y el canciller Juan Ramón de la Fuente no se quedaron con los brazos cruzados ante la tragedia en Texas. Tras las inundaciones en el condado de Kerr, la SRE activó al consulado en San Antonio y ofreció apoyo inmediato a posibles connacionales afectados. Con 50 muertos, 15 de ellos menores, el gobier

Excelsior

Plaga de llantas inunda a Tijuana. 04:43

Ernesto MéndezTIJUANA.— Llantas, llantas, llantas; llantas por todos lados. Con las lluvias y el vertido de aguas residuales miles de llantas viajan a través del canal del río Tijuana de regreso a su lugar de origen. De México a Estados Unidos.Cada vez que llueve calculamos que llegan a California entre tres mil y cinco mil llantas procedente

Excelsior

la casa de los famosos

Maryfer Centeno SÍ estará en “La Casa de los Famosos México 3”, confirma productora . 18:00

Rosa María Noguerón confirmó que Maryfer Centeno será parte de la tercera temporada del reality.

El Imparcial

Andrea Legarreta le pregunta en vivo a Aarón Mercury ¿a qué se dedica?. 18:33

Aarón Mercury es el tercer confirmado para La Casa de los Famosos México y al momento de su revelación vivió un divertido momento con Andrea Legarreta

Periódico Correo

Mamá de Poncho de Nigris hace spoiler sobre un nuevo habitante de La Casa de los Famosos México. 19:20

La señora Leticia Guajardo lanza el nombre de un posible participante del famoso reality show

Infobae

padres

Padres de San Diego ganan en extra innings . 04 de Julio, 2025 21:20

Jake Cronenworth dio el hit para dejar en el terreno a los Rangers de Texas

El Imparcial

Dreamers: se sienten extranjeros donde crecieron. 11:50

MIAMI, EU.- Los dreamers llegaron a Estados Unidos siendo niños, crecieron en las mismas escuelas de quienes nacieron en el país, aprendieron el idioma y, ahora, bajo la segunda presidencia de Donald Trump, viven cada día como si fueran intrusos. Este 4 de julio, Día de la Independencia, dicen no tener qué celebrar.“Llegué en brazos de mi m

Vanguardia.com.mx

Padres RHP Yu Darvish (elbow) to make season debut on Monday . 20:59

Padres right-hander Yu Darvish will make his season debut when San Diego hosts the Arizona Diamondbacks on Monday night.,The five-time All-Star has be

Deadspin

Rocky

La nueva peli de Street Fighter podría tener muchos problemas; su reparto no parece que vaya a ser uno de ellos . 01:45

El 24 de octubre llegará a los cines Mortal Kombat 2, pero esta no es la única peli basada en un exitoso videojuego de lucha que está en marcha. En el horizonte también hay una adaptación de Street Fighter sin vinculación alguna con el "clásico" de Jean-Claude Van Damm

3d Juegos

Sylvester Stallone cumple 79 años: la parálisis facial que marcó su vida, los trabajos más insólitos y su valiente lucha por ser Rocky Balboa. 01:20

El actor pasó de dormir en estaciones de buses y limpair jaulas de leones, a conquistar Hollywood gracias a un personaje nacido de la desesperación y la esperanza

Infobae

La información agregada y la responsabilidad de esta, pertenece a los sitios que lo publican. Lado.mx solo se encarga de publicarla.