La inteligencia artificial vive una época dorada de atención
mediática y expectativa popular. No hay semana sin una nueva declaración de que
estamos "cerca" de la AGI (inteligencia artificial general), sin
titulares que anuncian que una IA fue nombrada CEO, sin startups valoradas en
millones por usar un bot que escribe correos o genera código. Pero... ¿pensamos
realmente en lo que significa "inteligencia"?
Lo realmente hermoso de todo esto es que estamos aprendiendo
a pasos enormes. Hace poco escribía "El día en que la IA se volvió prescindible… de nosotros" y "¿El fin de la Ingeniería de Software como la conocemos?" que puedes encontrar en este mismo Gazafatonario y
donde exponía, basado también en sendas investigaciones, el poder de la IA y
cómo esta herramienta (que no deja de serlo) se está desligando cada vez más de
nosotros, los seres humanos.
Ahora iré por otro camino. Y es que una investigación reciente,
"La ilusión de pensar" de Apple*, desnuda las limitaciones
actuales de estos modelos de lenguaje que tanto nos fascinan. A través de
pruebas estructuradas como la Torre de Hanoi, juegos de fichas o rompecabezas
lógicos, los investigadores demostraron que, al aumentar un poco la complejidad
de la tarea, estos sistemas colapsan. No se equivocan un poco: fallan por
completo.
Vamos un poco más allá.
El loro
que parece pensar
Imagina un loro muy entrenado. Puede repetir frases con una
entonación asombrosa, puede imitar una conversación humana, e incluso lanzar
frases graciosas. Pero no sabe lo que dice. No comprende el significado de
"llama a un taxi" o "aprueba el presupuesto".
Solo asocia patrones de sonidos con recompensas. Esa es, en esencia, la forma
en que operan los grandes modelos de lenguaje: predicen la siguiente palabra
probable en una cadena, sin comprender el contenido como lo hace un humano.
Entonces, ¿cuándo un loro deja de ser loro y se convierte en
pensador? La respuesta no está en la cantidad de palabras que puede decir, sino
en si puede razonar, planificar, corregirse, ejecutar una idea paso a paso y
adaptarse cuando algo falla. Y ese es justamente el terreno donde los modelos
actuales tropiezan.
Ese es el meollo del trabajo de Apple. El estudio señala un
fenómeno curioso: cuando enfrentan tareas simples, los modelos de IA que
supuestamente razonan, mediante la generación de cadenas de pensamiento paso a
paso, tienden a extender innecesariamente su "pensamiento", buscando
más de lo necesario y a veces terminando en error. Y cuando la tarea se vuelve
realmente compleja, en lugar de esforzarse más, tienden a recortar su
razonamiento.
Me recuerda a muchos estudiantes que he tenido o acompañado,
quienes, frente a un problema difícil, tomaron la decisión de pensar menos en
lugar de más. Pero con las IA no solo pasa eso. Incluso cuando se les entrega
el algoritmo exacto para resolver el problema, muchos modelos no logran
ejecutarlo bien. No es cuestión de no saber qué hacer, sino de no saber hacerlo
bien.
CEO
artificial o placebo tecnológico
Ahora volvamos a esas startups que han ensayado poner una IA
como CEO. Sin duda alguna suena futurista, radical. Pero si entendemos que esa
IA no tiene conciencia, ni juicio propio, ni capacidad para razonar sobre el
largo plazo, ni responsabilidad legal, la designación es solo decorativa. Es
como poner una estatua de Einstein al frente de un laboratorio y decir que él
toma las decisiones o hace los experimentos. Al final, son humanos quienes
entrenan al modelo, diseñan sus datos de entrada y deciden cuándo y cómo usar
sus respuestas. El "CEO" artificial no tiene ni voluntad ni
intención. No gestiona. Es gestionado. No lidera.
Decir que estamos cerca de una AGI porque una IA responde
como humano en una entrevista o redacta un ensayo aceptable es tan ingenuo como
creer que Siri es médico por decirnos que tomemos agua cuando tenemos tos.
El
verdadero poder (y uso) de la IA hoy
Otra vez: no me entiendas mal. La IA es la herramienta más
poderosa que la humanidad ha inventado. No tengo ninguna duda de ello. Ya hay
algunas por allí que pueden detectar patrones invisibles al ojo humano en
medicina y revelar algo tan complejo
como un cáncer o incluso predecir tu siguiente estado de salud. Y, en general,
lo más alucinante de la IA es que te hace mejor en lo que haces.
Pero no estamos cerca de una máquina que piense como yo
o como tú o como un niño pequeño. Sin embargo, eso no significa que la IA
actual sea irrelevante. Al contrario, su poder precisamente está en que puede
amplificar nuestras capacidades humanas, no reemplazarlas. Puede ayudarnos a
escribir más rápido, resumir grandes cantidades de información o generar
opciones creativas. Pero necesita dirección, juicio, supervisión.
Usar IA como copiloto tiene sentido. Usarla como piloto es,
por ahora, una apuesta ciega.
El estudio que he señalado dice que debemos enfocar la
evolución de estos sistemas en mejorar su capacidad de ejecución precisa, su
comprensión real de reglas lógicas, su habilidad para planificar y corregirse,
y en entender cómo y cuándo usar cadenas de pensamiento. Hay que ir más allá
del “hype”, de la fascinación superficial por respuestas fluidas y mirar
si realmente hay comprensión detrás.
Eso sí, como civilización, corremos el riesgo de enamorarnos
de una fantasía: sentir que ya creamos una inteligencia capaz de pensar,
decidir y liderar. Pero el pensamiento verdadero no es repetir respuestas
correctas, sino saber por qué algo es correcto, saber cambiar de opinión ante
nueva evidencia, saber decir "no sé" y aprender. Y eso, por ahora,
está muy lejos del alcance de cualquier IA disponible.
Así que es definitivo: cuando los ecos se confunden con
voces, dejamos de escuchar. Y cuando el algoritmo simula pensamiento, corremos
el riesgo de obedecer al eco creyendo que razona... La inteligencia del futuro
no se medirá por lo que dice, sino por lo que es capaz de entender, cambiar y
construir.
Podcast
Como siempre, aquí puedes escuchar una breve explicación del artículo, pero, sobre todo, del trabajo de los investigadores de Apple.