Buscar en Gazafatonario IT

Mostrando las entradas con la etiqueta Torres de Hanoi. Mostrar todas las entradas
Mostrando las entradas con la etiqueta Torres de Hanoi. Mostrar todas las entradas

lunes, junio 09, 2025

Bajo el mando de un loro parlanchín: la gran ilusión de la IA pensante

 

La inteligencia artificial vive una época dorada de atención mediática y expectativa popular. No hay semana sin una nueva declaración de que estamos "cerca" de la AGI (inteligencia artificial general), sin titulares que anuncian que una IA fue nombrada CEO, sin startups valoradas en millones por usar un bot que escribe correos o genera código. Pero... ¿pensamos realmente en lo que significa "inteligencia"?

Lo realmente hermoso de todo esto es que estamos aprendiendo a pasos enormes. Hace poco escribía "El día en que la IA se volvió prescindible… de nosotros" y "¿El fin de la Ingeniería de Software como la conocemos?" que puedes encontrar en este mismo Gazafatonario y donde exponía, basado también en sendas investigaciones, el poder de la IA y cómo esta herramienta (que no deja de serlo) se está desligando cada vez más de nosotros, los seres humanos.

Ahora iré por otro camino. Y es que una investigación reciente, "La ilusión de pensar" de Apple*, desnuda las limitaciones actuales de estos modelos de lenguaje que tanto nos fascinan. A través de pruebas estructuradas como la Torre de Hanoi, juegos de fichas o rompecabezas lógicos, los investigadores demostraron que, al aumentar un poco la complejidad de la tarea, estos sistemas colapsan. No se equivocan un poco: fallan por completo.

Vamos un poco más allá.

El loro que parece pensar

Imagina un loro muy entrenado. Puede repetir frases con una entonación asombrosa, puede imitar una conversación humana, e incluso lanzar frases graciosas. Pero no sabe lo que dice. No comprende el significado de "llama a un taxi" o "aprueba el presupuesto". Solo asocia patrones de sonidos con recompensas. Esa es, en esencia, la forma en que operan los grandes modelos de lenguaje: predicen la siguiente palabra probable en una cadena, sin comprender el contenido como lo hace un humano.

Entonces, ¿cuándo un loro deja de ser loro y se convierte en pensador? La respuesta no está en la cantidad de palabras que puede decir, sino en si puede razonar, planificar, corregirse, ejecutar una idea paso a paso y adaptarse cuando algo falla. Y ese es justamente el terreno donde los modelos actuales tropiezan.

Ese es el meollo del trabajo de Apple. El estudio señala un fenómeno curioso: cuando enfrentan tareas simples, los modelos de IA que supuestamente razonan, mediante la generación de cadenas de pensamiento paso a paso, tienden a extender innecesariamente su "pensamiento", buscando más de lo necesario y a veces terminando en error. Y cuando la tarea se vuelve realmente compleja, en lugar de esforzarse más, tienden a recortar su razonamiento.

Me recuerda a muchos estudiantes que he tenido o acompañado, quienes, frente a un problema difícil, tomaron la decisión de pensar menos en lugar de más. Pero con las IA no solo pasa eso. Incluso cuando se les entrega el algoritmo exacto para resolver el problema, muchos modelos no logran ejecutarlo bien. No es cuestión de no saber qué hacer, sino de no saber hacerlo bien.

CEO artificial o placebo tecnológico

Ahora volvamos a esas startups que han ensayado poner una IA como CEO. Sin duda alguna suena futurista, radical. Pero si entendemos que esa IA no tiene conciencia, ni juicio propio, ni capacidad para razonar sobre el largo plazo, ni responsabilidad legal, la designación es solo decorativa. Es como poner una estatua de Einstein al frente de un laboratorio y decir que él toma las decisiones o hace los experimentos. Al final, son humanos quienes entrenan al modelo, diseñan sus datos de entrada y deciden cuándo y cómo usar sus respuestas. El "CEO" artificial no tiene ni voluntad ni intención. No gestiona. Es gestionado. No lidera.

Decir que estamos cerca de una AGI porque una IA responde como humano en una entrevista o redacta un ensayo aceptable es tan ingenuo como creer que Siri es médico por decirnos que tomemos agua cuando tenemos tos.

El verdadero poder (y uso) de la IA hoy

Otra vez: no me entiendas mal. La IA es la herramienta más poderosa que la humanidad ha inventado. No tengo ninguna duda de ello. Ya hay algunas por allí que pueden detectar patrones invisibles al ojo humano en medicina y revelar algo tan complejo como un cáncer o incluso predecir tu siguiente estado de salud. Y, en general, lo más alucinante de la IA es que te hace mejor en lo que haces.

Pero no estamos cerca de una máquina que piense como yo o como tú o como un niño pequeño. Sin embargo, eso no significa que la IA actual sea irrelevante. Al contrario, su poder precisamente está en que puede amplificar nuestras capacidades humanas, no reemplazarlas. Puede ayudarnos a escribir más rápido, resumir grandes cantidades de información o generar opciones creativas. Pero necesita dirección, juicio, supervisión.

Usar IA como copiloto tiene sentido. Usarla como piloto es, por ahora, una apuesta ciega.

El estudio que he señalado dice que debemos enfocar la evolución de estos sistemas en mejorar su capacidad de ejecución precisa, su comprensión real de reglas lógicas, su habilidad para planificar y corregirse, y en entender cómo y cuándo usar cadenas de pensamiento. Hay que ir más allá del “hype”, de la fascinación superficial por respuestas fluidas y mirar si realmente hay comprensión detrás.

Eso sí, como civilización, corremos el riesgo de enamorarnos de una fantasía: sentir que ya creamos una inteligencia capaz de pensar, decidir y liderar. Pero el pensamiento verdadero no es repetir respuestas correctas, sino saber por qué algo es correcto, saber cambiar de opinión ante nueva evidencia, saber decir "no sé" y aprender. Y eso, por ahora, está muy lejos del alcance de cualquier IA disponible.

Así que es definitivo: cuando los ecos se confunden con voces, dejamos de escuchar. Y cuando el algoritmo simula pensamiento, corremos el riesgo de obedecer al eco creyendo que razona... La inteligencia del futuro no se medirá por lo que dice, sino por lo que es capaz de entender, cambiar y construir.

 

*“The Illusion of Thinking: Understanding theStrengths and Limitations of Reasoning Models via the Lens of ProblemComplexity”.

 

Podcast

Como siempre, aquí puedes escuchar una breve explicación del artículo, pero, sobre todo, del trabajo de los investigadores de Apple.