lunes, junio 09, 2025

Bajo el mando de un loro parlanchín: la gran ilusión de la IA pensante

 

La inteligencia artificial vive una época dorada de atención mediática y expectativa popular. No hay semana sin una nueva declaración de que estamos "cerca" de la AGI (inteligencia artificial general), sin titulares que anuncian que una IA fue nombrada CEO, sin startups valoradas en millones por usar un bot que escribe correos o genera código. Pero... ¿pensamos realmente en lo que significa "inteligencia"?

Lo realmente hermoso de todo esto es que estamos aprendiendo a pasos enormes. Hace poco escribía "El día en que la IA se volvió prescindible… de nosotros" y "¿El fin de la Ingeniería de Software como la conocemos?" que puedes encontrar en este mismo Gazafatonario y donde exponía, basado también en sendas investigaciones, el poder de la IA y cómo esta herramienta (que no deja de serlo) se está desligando cada vez más de nosotros, los seres humanos.

Ahora iré por otro camino. Y es que una investigación reciente, "La ilusión de pensar" de Apple*, desnuda las limitaciones actuales de estos modelos de lenguaje que tanto nos fascinan. A través de pruebas estructuradas como la Torre de Hanoi, juegos de fichas o rompecabezas lógicos, los investigadores demostraron que, al aumentar un poco la complejidad de la tarea, estos sistemas colapsan. No se equivocan un poco: fallan por completo.

Vamos un poco más allá.

El loro que parece pensar

Imagina un loro muy entrenado. Puede repetir frases con una entonación asombrosa, puede imitar una conversación humana, e incluso lanzar frases graciosas. Pero no sabe lo que dice. No comprende el significado de "llama a un taxi" o "aprueba el presupuesto". Solo asocia patrones de sonidos con recompensas. Esa es, en esencia, la forma en que operan los grandes modelos de lenguaje: predicen la siguiente palabra probable en una cadena, sin comprender el contenido como lo hace un humano.

Entonces, ¿cuándo un loro deja de ser loro y se convierte en pensador? La respuesta no está en la cantidad de palabras que puede decir, sino en si puede razonar, planificar, corregirse, ejecutar una idea paso a paso y adaptarse cuando algo falla. Y ese es justamente el terreno donde los modelos actuales tropiezan.

Ese es el meollo del trabajo de Apple. El estudio señala un fenómeno curioso: cuando enfrentan tareas simples, los modelos de IA que supuestamente razonan, mediante la generación de cadenas de pensamiento paso a paso, tienden a extender innecesariamente su "pensamiento", buscando más de lo necesario y a veces terminando en error. Y cuando la tarea se vuelve realmente compleja, en lugar de esforzarse más, tienden a recortar su razonamiento.

Me recuerda a muchos estudiantes que he tenido o acompañado, quienes, frente a un problema difícil, tomaron la decisión de pensar menos en lugar de más. Pero con las IA no solo pasa eso. Incluso cuando se les entrega el algoritmo exacto para resolver el problema, muchos modelos no logran ejecutarlo bien. No es cuestión de no saber qué hacer, sino de no saber hacerlo bien.

CEO artificial o placebo tecnológico

Ahora volvamos a esas startups que han ensayado poner una IA como CEO. Sin duda alguna suena futurista, radical. Pero si entendemos que esa IA no tiene conciencia, ni juicio propio, ni capacidad para razonar sobre el largo plazo, ni responsabilidad legal, la designación es solo decorativa. Es como poner una estatua de Einstein al frente de un laboratorio y decir que él toma las decisiones o hace los experimentos. Al final, son humanos quienes entrenan al modelo, diseñan sus datos de entrada y deciden cuándo y cómo usar sus respuestas. El "CEO" artificial no tiene ni voluntad ni intención. No gestiona. Es gestionado. No lidera.

Decir que estamos cerca de una AGI porque una IA responde como humano en una entrevista o redacta un ensayo aceptable es tan ingenuo como creer que Siri es médico por decirnos que tomemos agua cuando tenemos tos.

El verdadero poder (y uso) de la IA hoy

Otra vez: no me entiendas mal. La IA es la herramienta más poderosa que la humanidad ha inventado. No tengo ninguna duda de ello. Ya hay algunas por allí que pueden detectar patrones invisibles al ojo humano en medicina y revelar algo tan complejo como un cáncer o incluso predecir tu siguiente estado de salud. Y, en general, lo más alucinante de la IA es que te hace mejor en lo que haces.

Pero no estamos cerca de una máquina que piense como yo o como tú o como un niño pequeño. Sin embargo, eso no significa que la IA actual sea irrelevante. Al contrario, su poder precisamente está en que puede amplificar nuestras capacidades humanas, no reemplazarlas. Puede ayudarnos a escribir más rápido, resumir grandes cantidades de información o generar opciones creativas. Pero necesita dirección, juicio, supervisión.

Usar IA como copiloto tiene sentido. Usarla como piloto es, por ahora, una apuesta ciega.

El estudio que he señalado dice que debemos enfocar la evolución de estos sistemas en mejorar su capacidad de ejecución precisa, su comprensión real de reglas lógicas, su habilidad para planificar y corregirse, y en entender cómo y cuándo usar cadenas de pensamiento. Hay que ir más allá del “hype”, de la fascinación superficial por respuestas fluidas y mirar si realmente hay comprensión detrás.

Eso sí, como civilización, corremos el riesgo de enamorarnos de una fantasía: sentir que ya creamos una inteligencia capaz de pensar, decidir y liderar. Pero el pensamiento verdadero no es repetir respuestas correctas, sino saber por qué algo es correcto, saber cambiar de opinión ante nueva evidencia, saber decir "no sé" y aprender. Y eso, por ahora, está muy lejos del alcance de cualquier IA disponible.

Así que es definitivo: cuando los ecos se confunden con voces, dejamos de escuchar. Y cuando el algoritmo simula pensamiento, corremos el riesgo de obedecer al eco creyendo que razona... La inteligencia del futuro no se medirá por lo que dice, sino por lo que es capaz de entender, cambiar y construir.

 

*“The Illusion of Thinking: Understanding theStrengths and Limitations of Reasoning Models via the Lens of ProblemComplexity”.

 

Podcast

Como siempre, aquí puedes escuchar una breve explicación del artículo, pero, sobre todo, del trabajo de los investigadores de Apple. 

martes, junio 03, 2025

La burbuja de la innovación predictiva: más allá del miedo al futuro

 

En 1997, un joven ingeniero de software, convencido de que podía transformar la experiencia del cliente en el sector del alquiler de películas, propuso una idea radical para la época: ofrecer un servicio de alquiler de videos por internet, con envío físico a domicilio. Blockbuster, el líder indiscutido del mercado, respondió bajo una lógica profundamente conservadora: "Muéstranos que ya funciona en otro lado". Esa exigencia de validación externa, ese miedo disfrazado de prudencia, fue su sentencia. Mientras Netflix abrazaba la exploración, Blockbuster quedaba atrapado en la explotación de su modelo, condenándose lentamente a la irrelevancia.

Este momento no es solo una anécdota corporativa del pasado. Me gusta contarla en mis charlas sobre experimentación e innovación porque es una advertencia viva que muchas organizaciones actuales siguen ignorando. El espejo del pasado refleja oportunidades perdidas por miedo al qué dirán, a la falta de precedentes o al deseo incontrolable de certezas.

El espejismo de la innovación sin riesgo

Hoy, a pesar de que los discursos empresariales están repletos de términos como disrupción, design thinking, agilidad, transformación digital y cultura de la innovación, en la práctica seguimos viendo decisiones que priorizan la predictibilidad sobre el potencial. Se pide a los equipos que imaginen lo inédito, pero bajo la condición de que haya antecedentes. Se alienta a crear lo que nadie ha hecho, pero solo si alguna empresa exitosa ya lo intentó antes. Esta paradoja nutre un fenómeno organizacional crónico: la burbuja de la innovación predictiva.

Esta burbuja es una cámara de aislamiento que impide el verdadero salto innovador porque se rehúsa a aceptar que el riesgo y la incertidumbre son parte esencial del ADN de lo nuevo. Representa una tensión epistemológica entre dos lógicas organizacionales: la de la exploración y la de la explotación. En breve, es el deseo corporativo de recorrer territorios desconocidos sin alejarse del mapa. Una contradicción que, cuando no se reconoce, lleva a las organizaciones a simular innovación sin realmente practicarla.

Es como pedirle a un chef que invente un plato completamente nuevo, inédito y memorable, pero solo si ese plato ya fue aprobado previamente por los críticos gastronómicos de París y Tokio. La analogía refleja de manera simple el abismo entre lo que se proclama en las salas de reuniones y lo que realmente se permite en la operación diaria.

El teatro de la innovación corporativa


Esta incoherencia se manifiesta cada día en los entornos de trabajo. A los equipos se les pide que piensen como startups, que actúen con agilidad, que adopten tecnologías emergentes, pero se les impone una planificación cerrada, con indicadores heredados del siglo pasado. Se promueve el lenguaje de la experimentación, pero se castiga el error. Se solicita innovar con inteligencia artificial generativa, realidad aumentada o modelos novedosos y, sin embargo, los primeros cuestionamientos que surgen en la sala son sobre el cumplimiento normativo, los casos de uso ya validados o la falta de referentes que justifiquen la inversión.

La innovación se practica, no se promete

La innovación verdadera no surge de la extrapolación del pasado. No es una proyección lineal de lo que ya funcionó. La innovación real emana de la capacidad de experimentar, de diseñar entornos controlados donde la incertidumbre se convierte en un insumo valioso. Innovar implica iterar, fallar, observar, adaptar. Implica abandonar el mito de la genialidad instantánea y reemplazarlo por el rigor del aprendizaje continuo. Requiere pasar de una cultura de control a una cultura de aprendizaje, en la que el error no se castiga, sino que se analiza y hasta se premia.

En este enfoque, los experimentos no se diseñan solo para confirmar una hipótesis, también para aprender de lo inesperado. La innovación, en su forma más pura, es una práctica de humildad cognitiva. Es el reconocimiento de que, para crear algo realmente nuevo, debemos aceptar no saber. Y esa aceptación es profundamente turbulenta en culturas organizacionales obsesionadas con el control.

Romper la burbuja: un imperativo estratégico

El futuro, por definición, no está escrito. No puede repetirse porque no ha ocurrido. Por eso no puede validarse con estadísticas del pasado. Debe descubrirse a través de procesos que admitan lo desconocido como condición. Romper la burbuja de la innovación predictiva no es solo recomendable: es indispensable para cualquier organización que aspire a mantenerse relevante en la próxima década.

Esto implica rediseñar los sistemas de gobernanza, repensar los criterios de inversión en proyectos, resignificar el papel del liderazgo y reentrenar a los equipos para operar en entornos donde el éxito no está garantizado, pero donde el aprendizaje está asegurado. Significa dejar de preguntarse "¿quién más lo hizo?" para comenzar a preguntarse "¿qué podríamos aprender si somos los primeros en intentarlo?"

Finalmente, la verdadera capacidad innovadora no reside solo en detectar la próxima gran idea, sino además en crear entornos estructurales, culturales y operativos que permitan que esas ideas emerjan, evolucionen y se validen rápidamente. El liderazgo del futuro no será el que controle más variables, sino el que habilite más posibilidades. La capacidad de innovar dependerá menos de tener la respuesta correcta y más de hacer las preguntas adecuadas en el momento correcto.

La innovación no se pronostica. Se practica. Se arriesga. Se encarna. Y solo quienes entiendan esto, estarán realmente preparados para inventar el futuro.