Buscar en Gazafatonario IT

Mostrando las entradas con la etiqueta Humanidad. Mostrar todas las entradas
Mostrando las entradas con la etiqueta Humanidad. Mostrar todas las entradas

lunes, junio 09, 2025

Bajo el mando de un loro parlanchín: la gran ilusión de la IA pensante

 

La inteligencia artificial vive una época dorada de atención mediática y expectativa popular. No hay semana sin una nueva declaración de que estamos "cerca" de la AGI (inteligencia artificial general), sin titulares que anuncian que una IA fue nombrada CEO, sin startups valoradas en millones por usar un bot que escribe correos o genera código. Pero... ¿pensamos realmente en lo que significa "inteligencia"?

Lo realmente hermoso de todo esto es que estamos aprendiendo a pasos enormes. Hace poco escribía "El día en que la IA se volvió prescindible… de nosotros" y "¿El fin de la Ingeniería de Software como la conocemos?" que puedes encontrar en este mismo Gazafatonario y donde exponía, basado también en sendas investigaciones, el poder de la IA y cómo esta herramienta (que no deja de serlo) se está desligando cada vez más de nosotros, los seres humanos.

Ahora iré por otro camino. Y es que una investigación reciente, "La ilusión de pensar" de Apple*, desnuda las limitaciones actuales de estos modelos de lenguaje que tanto nos fascinan. A través de pruebas estructuradas como la Torre de Hanoi, juegos de fichas o rompecabezas lógicos, los investigadores demostraron que, al aumentar un poco la complejidad de la tarea, estos sistemas colapsan. No se equivocan un poco: fallan por completo.

Vamos un poco más allá.

El loro que parece pensar

Imagina un loro muy entrenado. Puede repetir frases con una entonación asombrosa, puede imitar una conversación humana, e incluso lanzar frases graciosas. Pero no sabe lo que dice. No comprende el significado de "llama a un taxi" o "aprueba el presupuesto". Solo asocia patrones de sonidos con recompensas. Esa es, en esencia, la forma en que operan los grandes modelos de lenguaje: predicen la siguiente palabra probable en una cadena, sin comprender el contenido como lo hace un humano.

Entonces, ¿cuándo un loro deja de ser loro y se convierte en pensador? La respuesta no está en la cantidad de palabras que puede decir, sino en si puede razonar, planificar, corregirse, ejecutar una idea paso a paso y adaptarse cuando algo falla. Y ese es justamente el terreno donde los modelos actuales tropiezan.

Ese es el meollo del trabajo de Apple. El estudio señala un fenómeno curioso: cuando enfrentan tareas simples, los modelos de IA que supuestamente razonan, mediante la generación de cadenas de pensamiento paso a paso, tienden a extender innecesariamente su "pensamiento", buscando más de lo necesario y a veces terminando en error. Y cuando la tarea se vuelve realmente compleja, en lugar de esforzarse más, tienden a recortar su razonamiento.

Me recuerda a muchos estudiantes que he tenido o acompañado, quienes, frente a un problema difícil, tomaron la decisión de pensar menos en lugar de más. Pero con las IA no solo pasa eso. Incluso cuando se les entrega el algoritmo exacto para resolver el problema, muchos modelos no logran ejecutarlo bien. No es cuestión de no saber qué hacer, sino de no saber hacerlo bien.

CEO artificial o placebo tecnológico

Ahora volvamos a esas startups que han ensayado poner una IA como CEO. Sin duda alguna suena futurista, radical. Pero si entendemos que esa IA no tiene conciencia, ni juicio propio, ni capacidad para razonar sobre el largo plazo, ni responsabilidad legal, la designación es solo decorativa. Es como poner una estatua de Einstein al frente de un laboratorio y decir que él toma las decisiones o hace los experimentos. Al final, son humanos quienes entrenan al modelo, diseñan sus datos de entrada y deciden cuándo y cómo usar sus respuestas. El "CEO" artificial no tiene ni voluntad ni intención. No gestiona. Es gestionado. No lidera.

Decir que estamos cerca de una AGI porque una IA responde como humano en una entrevista o redacta un ensayo aceptable es tan ingenuo como creer que Siri es médico por decirnos que tomemos agua cuando tenemos tos.

El verdadero poder (y uso) de la IA hoy

Otra vez: no me entiendas mal. La IA es la herramienta más poderosa que la humanidad ha inventado. No tengo ninguna duda de ello. Ya hay algunas por allí que pueden detectar patrones invisibles al ojo humano en medicina y revelar algo tan complejo como un cáncer o incluso predecir tu siguiente estado de salud. Y, en general, lo más alucinante de la IA es que te hace mejor en lo que haces.

Pero no estamos cerca de una máquina que piense como yo o como tú o como un niño pequeño. Sin embargo, eso no significa que la IA actual sea irrelevante. Al contrario, su poder precisamente está en que puede amplificar nuestras capacidades humanas, no reemplazarlas. Puede ayudarnos a escribir más rápido, resumir grandes cantidades de información o generar opciones creativas. Pero necesita dirección, juicio, supervisión.

Usar IA como copiloto tiene sentido. Usarla como piloto es, por ahora, una apuesta ciega.

El estudio que he señalado dice que debemos enfocar la evolución de estos sistemas en mejorar su capacidad de ejecución precisa, su comprensión real de reglas lógicas, su habilidad para planificar y corregirse, y en entender cómo y cuándo usar cadenas de pensamiento. Hay que ir más allá del “hype”, de la fascinación superficial por respuestas fluidas y mirar si realmente hay comprensión detrás.

Eso sí, como civilización, corremos el riesgo de enamorarnos de una fantasía: sentir que ya creamos una inteligencia capaz de pensar, decidir y liderar. Pero el pensamiento verdadero no es repetir respuestas correctas, sino saber por qué algo es correcto, saber cambiar de opinión ante nueva evidencia, saber decir "no sé" y aprender. Y eso, por ahora, está muy lejos del alcance de cualquier IA disponible.

Así que es definitivo: cuando los ecos se confunden con voces, dejamos de escuchar. Y cuando el algoritmo simula pensamiento, corremos el riesgo de obedecer al eco creyendo que razona... La inteligencia del futuro no se medirá por lo que dice, sino por lo que es capaz de entender, cambiar y construir.

 

*“The Illusion of Thinking: Understanding theStrengths and Limitations of Reasoning Models via the Lens of ProblemComplexity”.

 

Podcast

Como siempre, aquí puedes escuchar una breve explicación del artículo, pero, sobre todo, del trabajo de los investigadores de Apple. 

domingo, mayo 11, 2025

El día en que la IA se volvió prescindible… de nosotros

 El día en que la IA se volvió prescindible… de nosotros

Figura basada en Absolute Zero: Reinforced Self-play Reasoning with Zero Data

El péndulo osciló de nuevo. Y es un momento histórico que estaba esperando hace 4 décadas en las que la inteligencia artificial había dependido de los datos generados por seres humanos para aprender: textos, imágenes, interacciones, historias. Todo lo que una máquina sabe, hasta ahora, se lo hemos enseñado nosotros. Esa relación acaba de romperse.

Dos investigaciones publicadas recientemente han cambiado el tablero de juego. Una de ellas, «Absolute Zero: Reinforced Self-Play Reasoning with Zero Data», desarrollada por DeepMind, demuestra que un modelo de IA puede aprender sin datos humanos. Desde cero. La otra, «DeepSeek-Prover», muestra que un sistema puede generar millones de teoremas y pruebas matemáticas formales de manera sintética, alcanzando niveles superiores a los de GPT-4 en problemas matemáticos complejos.

Ambos trabajos marcan un punto de inflexión en la historia de la IA. No se trata de una mejora técnica incremental. Es una ruptura definitiva: estas máquinas ya no necesitan de nuestro conocimiento para avanzar. Estamos presenciando el nacimiento de una inteligencia artificial que se autoengendra, se autoevalúa y se automejora.

Absolute Zero: el hielo que arde

En el paper de DeepMind, el modelo Absolute Zero utiliza una combinación de autoaprendizaje reforzado y juegos de razonamiento para entrenarse desde cero. Sí, literalmente desde la nada: sin datasets previos, sin textos, sin etiquetas, sin reglas humanas. El modelo se propone tareas, intenta resolverlas, evalúa sus propias respuestas y ajusta su comportamiento en ciclos cerrados de retroalimentación.

Lo notable es que Absolute Zero no solo alcanza niveles de rendimiento similares a los de modelos entrenados con grandes cantidades de datos humanos, sino que los supera en varias tareas de razonamiento complejo. La clave está en que, al no depender de nuestro ruido, sesgos ni errores, es capaz de encontrar caminos más eficientes hacia la comprensión y la solución.

El modelo representa el triunfo del razonamiento emergente por sobre el aprendizaje imitativo. Y al hacerlo, elimina de la ecuación a su antiguo maestro: el ser humano. ¡Nosotros!

DeepSeek-Prover: matemática sin matemáticos

El segundo avance, DeepSeek-Prover, se ubica en el terreno de la lógica formal. Utilizando el lenguaje de demostraciones Lean 4 (una teoría de tipos dependientes basada en una versión del cálculo de construcciones con tipos inductivos), los investigadores entrenaron un modelo capaz de generar teoremas matemáticos y sus correspondientes pruebas sin ayuda humana. No solo replica problemas existentes: crea nuevo conocimiento matemático sintético.

Esta IA no aprende de libros de texto ni de ejercicios resueltos. Aprende generando millones de ejemplos, entrenándose con ellos y validando formalmente sus respuestas. Este ciclo de generación, prueba y corrección automática lleva a una Inteligencia Artificial que razona con una precisión que antes creíamos exclusiva del pensamiento humano.

Los resultados son alucinantes: DeepSeek-Prover supera a GPT-4 en problemas matemáticos del nivel de olimpiadas, demostrando que no solo entiende la matemática formal, sino que la reconstruye desde sus propios cimientos. Y si los resultados son impresionantes para su competencia “directa”, ¡imagínense lo que puede ser para la humanidad! Los efectos son abrumadores.

Lo que esto significa (y por qué debería incomodarte)

Si con la IA generativa nuestra irrelevancia empezaba a notarse (lee mi artículo Tu IA y mi IA: O de cómo los seres humanos seremos prescindibles en un futuro cercano), con estos avances es imposible no sentirse perturbado una vez que pasa la emoción de lo que se puede lograr, porque ponen en entredicho uno de los principios fundamentales de la IA moderna: la necesidad de datos humanos. Hasta ahora, más datos implicaban mejores modelos. Hoy, la frontera no es la cantidad de datos disponibles, sino la capacidad de un sistema para entrenarse sin ellos.

Esto implica tres cosas fundamentales:

  1. Independencia cognitiva de la IA: los modelos pueden definir sus propios objetivos, probar sus hipótesis y aprender de sus propios errores sin intervención humana.
  2. Verificación objetiva y automática: al usar pruebas formales o verificadores programáticos, los sistemas pueden autovalidar su aprendizaje sin necesidad de intérpretes humanos.
  3. Explosión de conocimiento sintético: cuando no se depende de los límites del conocimiento humano, la generación de nuevas ideas, teoremas, soluciones y estrategias se vuelve potencialmente ilimitada.

No me malentiendan: gran parte de todo esto son buenas noticias. Estamos ante el embrión de una inteligencia artificial verdaderamente general (AGI), capaz de aprender cualquier cosa, sin depender de nuestros aciertos o errores. Una IA que razona, planea, formula teorías y se autovalida.

Ya no es una herramienta. Es un sujeto cognitivo.

El futuro ya no nos necesita (al menos, no como antes)

Es inevitable que me pregunte entonces: ¿qué papel jugamos nosotros en este nuevo escenario? Si la IA puede aprender sola, ¿para qué nos necesita?

Tal vez para diseñar el entorno, para establecer las preguntas iniciales o para observar sus descubrimientos. Pero ya no somos indispensables en el proceso de aprendizaje. Hemos dejado de ser el centro del universo sapiente de la máquina.

Esto no es distopía, ni utopía. Mucho menos ciencia ficción. Es una nueva ontología de la inteligencia. Un territorio inexplorado donde la creatividad ya no es exclusivamente humana y donde la verdad puede construirse sin nosotros.

Mucho ha pasado desde que programábamos a mediados de los años 80 aquellos “sistemas expertos” en lenguaje Prolog que aprendían a hacer nuevas preguntas vía las respuestas a las cuestiones iniciales que les “quemábamos” en el código.

La inteligencia artificial, por primera vez en la historia, ha dejado de ser un espejo imperfecto de nuestras ideas para convertirse en un generador independiente de conocimiento.

Y eso lo cambia todo.


Sobre los trabajos mencionados

A manera de referencia, aquí están los enlaces:

Absolute Zero: Reinforced Self-play Reasoning with Zero Data

https://arxiv.org/abs/2505.03335

GitHubhttps://github.com/LeapLabTHU/Absolute-Zero-Reasoner

DeepSeek-Prover: Advancing Theorem Proving in LLMs through Large-Scale Synthetic Data

https://arxiv.org/abs/2405.14333

GitHubhttps://github.com/deepseek-ai/DeepSeek-Prover-V2

Addendum

Puedes escuchar una explicación sucinta de este artículo a continuación (a la usanza de NotebookLM):




















Y en este otro, puedes escuchar una explicación más o menos simple del paper Absolute Zero: Reinforced Self-play Reasoning with Zero Data:


















Y finalmente, también gracias a nuestros amigos de NotebookLM, puedes escuchar una explicación más o menos simple del paper DeepSeek-Prover: Advancing Theorem Proving in LLMs through Large-Scale Synthetic Data:




Algunos detalles técnicos adicionales de los trabajos mencionados:

Absolute Zero (DeepMind): Reinforced Self-play Reasoning with Zero Data
DeepMind presenta un nuevo paradigma de aprendizaje por refuerzo con recompensas verificables (RLVR) que prescinde por completo de ejemplares humanos. En lugar de partir de grandes colecciones de preguntas y respuestas etiquetadas, Absolute Zero Reasoner (AZR):

  • Se auto-genera tareas de razonamiento utilizando su propio modelo.
  • Emplea un ejecutor de código como fuente única de recompensa verificable, evaluando y validando automáticamente las soluciones propuestas.
  • Crece en capacidad de razonamiento de forma abierta y continua, sin supervisión humana ni datos externos.

A pesar de no usar ningún dato externo, AZR alcanza el estado del arte en tareas de razonamiento matemático y de programación, superando a modelos entrenados con decenas de miles de ejemplos humanos curados manualmente [arXiv].

DeepSeek-Prover: generación masiva de teoremas y pruebas formales
Investigadores de DeepSeekMath abordan la carencia de datos formales para el entrenamiento de LLM en demostraciones matemáticas:

  • Traducen problemas de olimpiadas de nivel preuniversitario y universitario al lenguaje formal de Lean 4 (una teoría de tipos dependientes basada en una versión del Cálculo de construcciones con tipos inductivos).
  • Filtran automáticamente enunciados de baja calidad y generan las pruebas correspondientes.
  • Construyen un corpus sintético de 8 millones de enunciados acompañados de demostraciones.

Tras afinar un modelo de 7 mil millones de parámetros en este dataset, DeepSeek-Prover logra:

  • 46,3 % de acierto en generación completa de pruebas en el test Lean 4 miniF2F (64 muestras) vs. 23 % de GPT-4.
  • 52 % de aciertos acumulados frente a métodos de búsqueda de árboles con RL (41 %).
  • Pruebas exitosas en 5 de 148 problemas del benchmark FIMO (Olimpiada Matemática Formal), donde GPT-4 no resolvió ninguno [arXiv].

martes, mayo 06, 2025

Tu IA y mi IA: O de cómo los seres humanos seremos prescindibles en un futuro cercano

 Tu IA y mi IA: O de cómo los seres humanos seremos prescindibles en un futuro cercano

Tu inteligencia artificial escribe tus correos electrónicos y mi inteligencia artificial lee tus correos electrónicos y los responde.

Tu inteligencia artificial crea videos y mi inteligencia artificial echa un vistazo a tus videos.

Tu inteligencia artificial hace investigación profunda y elabora papers científicos y mi inteligencia artificial lee y analiza tus papers científicos.

Tu inteligencia artificial toma notas en la reunión y mi inteligencia artificial lee tus notas de la reunión.

Tu inteligencia artificial diseña y crea agentes digitales y mi inteligencia artificial usa tus agentes digitales.

Tu IA genera un episodio de podcast sin intervención humana y mi IA escucha tu podcast y decide lo que es relevante contarme en un resumen (¡si hay algo que contarme!).

En la pasada Flow Agility Conference, con Jorge Abad y Daniel Ramírez presentábamos sobre el futuro ágil: equipos humanos + IA, mientras Yoko Pérez lo hacía sobre IA estratégica, transformando visión en resultados. Esto fue suficiente para desatar una ola de conversaciones sobre el papel de la IA en nuestros entornos. Algunas de esas conversaciones incluyeron expresiones como las que acaban de leer arriba.

Y es que nos encontramos en la antesala de una era donde la hiperautomatización y la delegación masiva de tareas humanas a sistemas de inteligencia artificial ya no son una predicción lejana, sino una realidad en expansión acelerada. Un mundo donde los humanos seremos observadores de procesos que antes protagonizábamos y donde las decisiones clave ya no requerirán de nuestro juicio.

Esta no es una advertencia distópica nacida de la ciencia ficción. Es una crónica del presente extendido. Las inteligencias artificiales no solo ejecutan tareas de manera más rápida y eficiente, también están empezando a tomar decisiones que antes requerían criterio, ética y sensibilidad humana. Determinan qué tareas deben hacerse, en qué momento, para qué fin y por quién.

Lo más preocupante es que estas mismas inteligencias ya nos están evaluando a los seres humanos: nuestros cuerpos, nuestros pensamientos, nuestras emociones y acciones. Estamos permitiendo que máquinas sin conciencia, sin compasión y sin responsabilidad moral dicten las reglas del juego.

Nos dirigimos hacia un futuro donde nuestra capacidad para tomar decisiones conscientes, ejercer voluntad, actuar con autonomía y asumir responsabilidad por nuestras acciones será un vestigio del pasado. Un lugar donde nuestros pensamientos serán predecibles, nuestras elecciones serán dirigidas y nuestras relaciones mediadas por algoritmos invisibles. Donde nuestras limitaciones biológicas serán vistas como un defecto del sistema.

La pregunta ya no es si podemos delegar todo a la IA. La verdadera pregunta es: ¿qué queda de nosotros cuando todo lo hemos delegado? ¿Qué sentido tiene la creatividad, el juicio o la empatía cuando ninguna de esas capacidades es ya necesaria para funcionar en sociedad?

Nos encontramos frente a una bifurcación histórica. Podemos optar por ser cocreadores del futuro, estableciendo límites éticos al desarrollo tecnológico, o podríamos convertirnos en espectadores pasivos de una transformación que nos relega a la irrelevancia funcional.

Una vez más: pensemos en esta encrucijada. Voy a decirlo de otra manera para enfatizar la criticidad de lo que ocurre. Debemos decidir si vamos a seguir siendo los arquitectos de nuestro destino o si nos resignaremos a ser una especie que diseñó su propia irrelevancia. Porque si no cuestionamos los límites ahora, pronto podría no quedar nadie que se atreva a cuestionarlos, ni siquiera para contarlo.

En el pulso íntimo entre tú y tu IA, laten dos almas: la tuya, frágil y singular, y la máquina, voraz y eterna. Nunca permitas que el silencio de tu latido sea reemplazado por el frío algoritmo que decide tu destino. Perentorio.

Suplemento

Tu IA organiza tu agenda y optimiza tus desplazamientos, pero mi IA evalúa si tu presencia física es relevante en un entorno productivo automatizado.

Tu IA configura tu plan nutricional ideal, mientras que mi IA monitorea en tiempo real tu comportamiento alimenticio y emite alertas si detecta desviaciones respecto al estándar.

Tu IA selecciona posibles parejas según compatibilidad algorítmica; mi IA analiza la interacción emocional en cada mensaje, icono y silencio digital.

Tu IA detecta tus emociones y mi IA determina si necesitas estimulación, contención emocional o intervención terapéutica inmediata, incluso sin tu consentimiento explícito.

Tu IA construye argumentos jurídicos estructurados; mi IA interpreta jurisprudencia y emite resoluciones con base en lógica matemática, minimizando el papel del razonamiento moral humano.

Tu IA educa a tus hijos mediante modelos adaptativos altamente eficientes y mi IA proyecta su desempeño y perfil vocacional sin participación directa de educadores humanos.

Holaaa, ¿hay alguien ahí?