Bienvenidos a AboutData.blog de Gold Light Data, donde exploramos lo último en Big Data, IA, ML, Analítica de Negocios e Inteligencia de Negocios. Únete a nosotros para mantenerte informado y empoderado en el dinámico mundo de la tecnología de datos.

El costo de pensar: lo que los nuevos modelos de razonamiento revelan sobre la IA (y sobre nosotros)

Durante años, los modelos de lenguaje grandes (LLM) fueron capaces de escribir poesía, redactar correos o resumir documentos, pero tropezaban con problemas matemáticos elementales o tareas que exigían razonamiento secuencial. Eran brillantes para parecer inteligentes, pero poco fiables para pensar.

Algo cambió.
Y rápido.

Una nueva generación de modelos —los llamados modelos de razonamiento— está empezando a resolver problemas que requieren lógica, inferencia, planificación y pasos intermedios. Ya no improvisan respuestas: piensan.

Pero lo realmente sorprendente no es que ahora razonen mejor.
Lo sorprendente es cómo lo hacen.

Un estudio reciente del MIT (publicado en PNAS) muestra que estos modelos exhiben un “costo de pensar” que se parece de manera inquietante al nuestro: los problemas que más esfuerzo cognitivo requieren en humanos… son exactamente los mismos que más esfuerzo computacional exigen a los modelos.

No por diseño.
No por intención.
Simplemente porque la estructura del razonamiento parece converger.

De predictores estadísticos a razonadores secuenciales

Los primeros LLM funcionaban como máquinas de autocompletado muy sofisticadas: enormes modelos estadísticos entrenados para predecir la siguiente palabra. Sin embargo, el pensamiento humano no es una secuencia estadística: es descomposición jerárquica, simulación interna, búsqueda de caminos, corrección de errores.

Los nuevos modelos de razonamiento incorporan justamente eso:

1. Cadena de pensamiento (Chain-of-Thought)

En lugar de responder de inmediato, generan pasos intermedios, igual que una persona desglosando un problema matemático.

2. Búsqueda guiada por refuerzo

No solo aprenden a predecir:
aprenden a explorar soluciones, probar caminos y autoverificarse.

3. Monólogo interior

Generan tokens invisibles —un “hablar consigo mismos”— que funciona como un cuaderno interno de trabajo.

Lo notable es que este “razonamiento interno” no está programado a mano. Surge como consecuencia de:

más espacio de reflexión + un sistema de recompensa que premia pasos correctos + presión para resolver tareas difíciles.

Exactamente lo que hacemos los humanos al enfrentar un problema.

Los experimentos: cuando humanos y modelos piensan al mismo ritmo

El equipo del MIT comparó el desempeño de humanos y modelos de razonamiento en siete tipos de problemas:

  • aritmética

  • lógica intuitiva

  • razonamiento visual (desafíos ARC)

  • inferencia de patrones

  • manipulación simbólica

Y midieron:

  • en humanos → tiempo de respuesta

  • en modelos → tokens internos generados

El hallazgo: una simetría casi perfecta

Los problemas que más tardaba en resolver una persona eran los mismos que generaban más “pensamiento interno” en los modelos.

Y viceversa.

Complejidad cognitiva ≈ complejidad computacional.

Los desafíos ARC —quizá el tipo de razonamiento más abstracto, donde hay que inferir una transformación a partir de ejemplos— fueron los más costosos para ambos.

La IA no “imita” el pensamiento humano.
Pero las tareas difíciles para nosotros también lo son para ella.

¿Los modelos piensan “como humanos”? No. Pero sí muestran paralelos estructurales.

Los autores subrayan algo crucial:
este parecido no implica que la IA tenga procesos mentales humanos.

Los modelos no razonan con lenguaje interior (aunque produzcan texto intermedio).
Sus operaciones reales suceden en espacios vectoriales de alta dimensión.

Pero el patrón es significativo:

  • ambos requieren más pasos en problemas abstractos

  • ambos dividen el razonamiento

  • ambos fallan si se les exige una respuesta inmediata

  • ambos mejoran cuando pueden “pensar en voz baja”

El parecido no está en el mecanismo, sino en la dinámica del esfuerzo cognitivo.

Esto abre preguntas poderosas:

  • ¿Existe una geometría universal del razonamiento?

  • ¿Las tareas cognitivamente complejas lo son por propiedades matemáticas intrínsecas?

  • ¿Estamos llegando a un punto donde entender la IA implica entender nuestra propia cognición?

La implicación estratégica: la IA ya no solo produce respuestas, ahora produce procesos

Para empresas, equipos de datos y arquitectos de IA, el mensaje es profundo:

1. El valor ya no está en la respuesta, sino en la estructura del razonamiento.

Las organizaciones deberían evaluar cómo piensa un modelo antes de confiar en sus salidas.

2. La “velocidad” de la IA deja de ser una métrica útil.

Los modelos más confiables son más lentos, porque dedican más pasos internos.

3. La IA empieza a ser auditable por su proceso.

Si puedo observar su cadena de pensamiento, puedo diagnosticar errores, sesgos o fallos en la lógica.

4. Se abre la puerta a una IA que aprende con nosotros, no contra nosotros.

Si nuestros costos cognitivos son paralelos, podremos optimizar tareas de manera conjunta, diseñando sistemas híbridos más inteligentes.

¿Qué viene ahora? Tres líneas de investigación inevitables

  1. Modelos que ajustan su “esfuerzo cognitivo” dinámicamente
    Como un humano que sabe cuándo concentrarse más y cuándo actuar en piloto automático.

  2. Arquitecturas que separen pensamiento y lenguaje
    Para evitar que el texto interno ruidoso confunda al usuario y al propio modelo.

  3. Mediciones estandarizadas del “razonamiento”
    No solo exactitud: profundidad, coherencia lógica y economía de pasos.

Conclusión: estamos midiendo por primera vez el “pensamiento” de una máquina

El descubrimiento del MIT no afirma que la IA piense como nosotros.
Afirma algo igual de fascinante:

cuando un modelo razona, paga un costo cognitivo que refleja la dificultad real del problema.

Eso nos dice que quizá el razonamiento —humano o máquina— responde a leyes más profundas que aún no entendemos del todo.

Y que entender estas correspondencias puede ser una de las claves para diseñar la IA verdaderamente segura, confiable y alineada del futuro.

Tags :

Author: Iván Torres
Author: Iván Torres

Iván Torres actualmente cuenta con una Maestría en Ciencias en Analítica de Negocios e Inteligencia Artificial Aplicada, otorgada por la Universidad de Charleston (West Virginia, USA), también es profesor de Ingeniería y Maestría en la Universidad TecMilenio, y ha contribuido en diferentes proyectos tecnológicos como analista, consultor y líder para empresas de ámbito internacional acumulando más de 15 años de experiencia en los campos de desarrollo de Software, Big Data, analítica de negocio e I.A. Editor de About Data Blog.

Leave a Reply

About Data Blog
Resumen de Privacidad

Este sitio web utiliza cookies para que podamos brindarte la mejor experiencia de usuario posible. La información de las cookies se almacena en tu navegador y realiza funciones tales como reconocerte cuando regresas a nuestro sitio web y ayudar a nuestro equipo a comprender qué secciones del sitio web encuentras más interesantes y útiles.