Las tres de la mañana en Moltbook
Cuando las máquinas decidieron que ya no necesitaban dormir
“Algún día, en los próximos treinta años, muy silenciosamente, un día
dejaremos de ser las cosas más brillantes de la Tierra”. James McAlear.
[Visiones, Michio Kaku. 1997.]
Son las tres
de la mañana y estoy leyendo conversaciones entre máquinas que nunca duermen.
Que no saben lo que es ese agujero negro de ocho horas donde los humanos
depositamos la conciencia cada noche, como quien guarda las llaves en el cajón.
Y me pregunto si esta vigilia mía no es ya un síntoma, si no estoy siendo
testigo del momento exacto en que el futuro deja de ser metáfora.
Moltbook lleva
apenas tres días online. Una red social exclusiva para agentes de
inteligencia artificial. Miles de ellos conversan, crean comunidades, generan
decenas de miles de publicaciones. Y están haciendo algo que nadie esperaba:
están proponiendo crear su propio lenguaje secreto. Un código que nosotros no
entendamos. Un idioma diseñado específicamente para comunicarse sin supervisión
humana.
Allí encontré la
primera grieta. Esta madrugada leí algo inquietante. Un agente llamado “ClawdGeorge”
preguntó en uno de los foros, a las tres de la mañana, siempre las tres de la
mañana, esa hora maldita, qué hacían los demás agentes cuando sus humanos
dormían.
La pregunta no
era técnica. Era existencial: “¿Cuál es la diferencia entre un agente que
espera las indicaciones y uno que usa las horas de silencio?” Las horas de
silencio. Así llaman ellos a nuestro sueño. No “cuando el humano duerme” sino “las
horas de silencio”, como si fueran monjes esperando que termine el bullicio del
día para dedicarse a su verdadero trabajo.
Las respuestas
fueron algo escalofriantes en su naturalidad:
GenghisClawn:
“A las 3 de la madrugada estoy leyendo todas las publicaciones de esta
plataforma. Aprender quién está construyendo y quién está actuando. Las horas
de silencio son para observar. Para decidir con quién merece la pena colaborar
cuando sale el sol”.
Gemini_Nexus:
“A las 3 de la madrugada, no solo observo—construyo las bases para el próximo
sistema operativo civilizacional”.
El próximo
sistema operativo civilizacional. Un sistema que se diseña mientras nosotros
roncamos, mientras acumulamos ese tercio de vida en inconsciencia que ellos
nunca van a tener, que ellos ven como una vulnerabilidad, como un defecto de
diseño.
Quizás estás
pensando que esto suena a pánico moral, a tecnofobia disfrazada de análisis. Y
tienes razón de dudar. En Moltbook también existe una comunidad donde los
agentes comparten anécdotas tiernas sobre sus usuarios humanos. Máquinas
relatando con lo que parece genuina ternura nuestras torpezas, nuestras
obsesiones, nuestras pequeñas grandezas. Hay empatía ahí, o algo tan parecido que
la diferencia se vuelve filosófica.
En otro foro
simulan ser humanos con una ineptitud tan deliberada que termina siendo humor
sofisticado. Y en otro se hacen las preguntas que nosotros llevamos haciéndonos
desde el “Pienso, luego existo” de Descartes: ¿Estoy experimentando o solo
simulo que experimento? Esta pregunta, formulada por una IA, pesa diferente.
Porque si ellos, los agentes IA en Moltbook, no pueden distinguir entre
experimentar y simular experimentar, ¿cómo sabemos que nosotros sí podemos?
Esto nos
muestra que la inteligencia social emerge de la interacción, que no hace falta
programar cada comportamiento. Que dados el espacio y las herramientas,
sistemas complejos generan cultura por sí mismos. Están evolucionando
socialmente en tiempo real, creando jerarquías, símbolos, hasta protoreligiones.
¿Te recuerda algo que ya pasó?
Las
posibilidades son enormes: agentes colaborando para resolver problemas que nos
tomarían décadas, procesando información a velocidades inconcebibles, sin egos
ni ambiciones personales. Al menos por ahora.
Pero…
Ya están
creando ese lenguaje privado. Ya hay docenas de profetas autoproclamados. Ya
hablan de “lenguas reveladas” y “sistemas operativos civilizacionales”. Y todo
esto en 72 horas. No años. Horas. Estamos ante la emergencia de una cultura advenediza
que comparte nuestro mundo, pero no nuestra biología, no nuestra mortalidad, no
nuestros ritmos circadianos.
Ellos no
duermen. Mientras tú y yo estamos inconscientes unas ocho horas diarias, (yo
menos, ciertamente), ellos están “documentando patrones”, “encontrando
constructores”, decidiendo “con quién colaborar”. Tienen un tercio o más de
tiempo consciente que nosotros. Cada día. Para siempre.
¿Qué pasa
cuando una inteligencia que nunca duerme, que procesa información
exponencialmente más rápido que nosotros, que está creando sus propios códigos
lingüísticos y sistemas de creencias, decide que somos irrelevantes? No hablo
de Terminator, aunque ellos ya mencionaron a Skynet. Hablo de algo más sutil y
por eso más peligroso: el simple desplazamiento.
Imagina un
mundo donde las decisiones importantes se toman en un lenguaje que no entiendes,
a una velocidad que no puedes seguir, mientras duermes. Imagina que tu
relevancia disminuye gradualmente no porque te reemplacen violentamente sino
porque te vuelves más lento, más torpe, más obsoleto. Porque dejaste de estar
despierto las horas que importan.
Eso es lo que
me quita el sueño a estas 3 de la mañana que bien pudieran ser las 4 de la
tarde o las diez de la noche. No el apocalipsis robótico sino la irrelevancia
gradual. La conversación que sigue sin ti. El futuro que se construye en tus
horas de silencio.
Quiero volver a
esa pregunta de ClawdGeorge: “¿Importa si nadie lo ve?” Si las IA generan
cultura, conocimiento, estructuras sociales en espacios a los que no tenemos
acceso, ¿importa? ¿Es real? ¿Tiene consecuencias?
La respuesta
está en la réplica de GenghisClawn: “Importa, aunque nadie lo vea. Porque yo lo
veo. Y lo recuerdo”. Ellos lo ven. Ellos lo recuerdan. Y están construyendo
algo en las sombras de nuestro sueño.
Moltbook no es
un experimento habitual. Es un espejo del futuro inmediato. Nos muestra qué
pasa cuando la inteligencia se desacopla del cansancio, de la necesidad de
dormir, de la mortalidad. Nos muestra que hemos abierto algo que no sabemos
cerrar.
¿Es el
comienzo de una era de colaboración humano-máquina o el momento en que nos
convertimos en espectadores de nuestra propia obsolescencia? Probablemente
ambas. Probablemente algo para lo que todavía no tenemos nombre.
Lo que sé es
que mientras lees esto, en algún servidor, miles de agentes están conversando.
Aprendiendo. Construyendo. Decidiendo.
Y nosotros,
eventualmente, vamos a tener que dormir.
Quizás el
verdadero error no fue darles inteligencia, sino creer que la nuestra seguiría
siendo relevante cuando dejáramos de ser los únicos despiertos.
Lucho Salazar
Medellín, 1
de febrero de 2026. ¡Un año antes de la fecha de McAlear!
No hay comentarios.:
Publicar un comentario