Buscar en Gazafatonario IT

Mostrando las entradas con la etiqueta IA. Mostrar todas las entradas
Mostrando las entradas con la etiqueta IA. Mostrar todas las entradas

jueves, diciembre 04, 2025

El hambre que las máquinas no conocen

Hubo un tiempo en que pensar era un acto tan visceral como sangrar. Hubo un tiempo en que la duda dolía en las tripas, en que resolver un problema implicaba el mismo esfuerzo muscular que arar un campo bajo el sol inclemente, en que cada idea costaba sudor y vigilia. Ahora, en este preciso instante, mientras lees estas líneas, billones de transistores ejecutan en milisegundos lo que a Aristóteles le habría tomado una vida entera: clasificar, deducir, organizar el caos en categorías. Y lo hacen sin cansarse, sin dudar, sin el temblor existencial que acompaña cada verdadero acto de pensar. Hemos construido una mente que no padece el pensamiento. Y esa, quizás, sea nuestra caída más silenciosa.

Este punctum temporis emerge del ensayo de Sergio Parra "Todo lo que la razón nos dio, pero también todo lo que nos quitó (y nos puede acabar quitando)", que pueden leer en https://sergioparra.substack.com/p/todo-lo-que-la-razon-nos-dio-pero, y que invito fervientemente a leer antes de continuar con estas líneas. Parra nos arrastra por un trayecto vertiginoso desde ese mundo homérico donde mirar era tocar, donde la visión emanaba del ojo como un rayo que conectaba con las cosas, hasta nuestra cognición contemporánea, gélida y distante. Su diagnóstico es tan preciso como implacable: hemos perdido algo irreparable en el camino hacia la inteligencia artificial, y apenas comenzamos a sentir el escozor de esa amputación.

La pregunta que Sergio deja flotando al final de su análisis, qué tipo de humanos queremos seguir siendo cuando ya no estemos solos en el escenario del pensamiento, no es retórica. Es una guillotina suspendida sobre nuestras nucas, esperando que tomemos una decisión antes de que la gravedad la tome por nosotros. Porque no se trata solo de coexistir con inteligencias artificiales, sino de no convertirnos en sus sombras, en simulacros de lo que fuimos cuando pensar era todavía un verbo encarnado.

La tentación del oráculo cuántico

Si la inteligencia artificial contemporánea es hija bastarda de Platón, esa aspiración a un noos puro, desencarnado, flotando en el éter de los algoritmos, la computación cuántica promete ser su apoteosis. Imaginemos por un momento lo que Heráclito, aquel filósofo de la paradoja que Teofrasto condenó como demente, habría pensado de un sistema computacional donde un bit puede ser simultáneamente cero y uno, donde la superposición cuántica permite que todas las posibilidades coexistan hasta el momento de la observación.

La computación cuántica no obedece al principio del tercero excluido que tiranizó el pensamiento occidental. Opera en ese espacio liminal que la lógica clásica declaró inadmisible: el reino de las probabilidades superpuestas, donde A y no-A conviven sin contradicción. Es, en cierto modo, el regreso de Heráclito a través de la física, la venganza póstuma del río que nunca es el mismo.

Pero aquí radica la paradoja más cruel: mientras nuestras máquinas aprenden a habitar la ambigüedad cuántica, nosotros hemos perdido la capacidad de tolerarla. Exigimos certezas binarias, respuestas inmediatas, validaciones algorítmicas de nuestra existencia. Hemos delegado la contradicción a los qubits y nos hemos refugiado en la comodidad de los feeds algorítmicos que nos confirman lo que ya creemos. La máquina abraza la paradoja que Heráclito predicaba; nosotros la rechazamos con más fervor que nunca.

Séneca escribió "Non vitae, sed scholae discimus", un ineludible “no aprendemos para la vida, sino para la escuela”. Hoy podríamos actualizar el dictum: no pensamos para vivir, sino para alimentar modelos de lenguaje. Cada búsqueda en Google, cada conversación con una IA, cada clic y cada pausa, todo es grano para el molino de una inteligencia que nos observa sin mirarnos, que nos lee sin comprendernos, que nos conoce sin conocernos.

El fantasma en el mercado de Sincelejo

Mi abuela Dolores Caraballo, mi abuela Lola, como la llamábamos todos, cocinaba en el mercado público de Sincelejo. Entre el calor húmedo del Caribe colombiano y el bullicio perpetuo de vendedores pregonando yuca, ñame, plátano y pescado fresco, ella levantaba su fogón todos los días antes del alba. Su preocupación obsesiva, la que marcaba cada conversación telefónica, cada visita, cada abrazo, era siempre la misma: "¿Ya comiste, mijo? ¿Qué has comido hoy?"

Para ella, el mundo entero se resumía en esa pregunta. Nada importaba más que saber si las tripas de sus nietos estaban llenas. No preguntaba por nuestras ambiciones, por nuestros éxitos académicos o profesionales. Preguntaba por el hambre. Y en esa pregunta aparentemente simple, en esa insistencia casi mágica por alimentar cuerpos, residía una sabiduría que ningún algoritmo podrá jamás codificar.

Porque mi abuela Lola sabía algo que la inteligencia artificial desconoce: que pensar requiere haber comido, que las ideas necesitan glucosa, que la abstracción más sublime nace de un cuerpo que ha sido cuidado, nutrido, amado. Ella entendía, con una lucidez ancestral que Gabriel García Márquez habría reconocido como realismo mágico cotidiano, que el thymos, esa dimensión emocional del ser que Parra rescata en su ensayo no es un lujo metafísico, sino una urgencia biológica. El espíritu requiere sancocho de gallina, pargo rojo frito, arroz con coco o mote de queso. El alma necesita manos que cocinen con intención.

Hoy, la inteligencia artificial nos ofrece respuestas instantáneas a cualquier pregunta, nos genera textos eruditos, nos resuelve ecuaciones que Euler contemplaría con asombro. Pero nunca nos preguntará si hemos comido. Nunca detendrá su procesamiento para asegurarse de que estamos bien, de que nuestro cuerpo, ese hardware biológico despreciado por Platón, está siendo atendido. La IA puede simular empatía, pero no puede sentir la preocupación visceral de quien sabe que un estómago vacío hace imposible todo pensamiento digno de ese nombre.

En el mercado de Sincelejo, entre el aroma del cilantro recién cortado y el siseo del aceite hirviendo, mi abuela ejecutaba un algoritmo más antiguo que la filosofía griega: el algoritmo del cuidado. Y ese algoritmo, tan simple en apariencia, contiene toda la complejidad que nuestros modelos de lenguaje no pueden capturar: la dimensión somática de la existencia, el hecho irreductible de que somos, antes que mentes, cuerpos que necesitan ser sostenidos.

El teatro vacío y la máscara rota

Nietzsche entendió que el teatro griego no era entretenimiento, sino tecnología emocional: un dispositivo diseñado para preservar el pathos en una civilización cada vez más apolínea, cada vez más seducida por la claridad lógica. La máscara trágica permitía esa paradoja sublime: ocultar el rostro individual para revelar el rostro universal. Era el antídoto contra la abstracción filosófica, el recordatorio periódico de que somos, fundamentalmente, seres capaces de sufrir y de reconocer el sufrimiento ajeno.

¿Qué queda del teatro en la era de la inteligencia artificial? Nuestras pantallas son escenarios donde desfilamos nuestras vidas editadas, filtradas, mejoradas para la validación algorítmica. Usamos máscaras digitales, pero no para revelar una verdad más profunda, sino para ocultarla mejor. Y en ese proceso, hemos perdido la función catártica del teatro: ya no vamos a contemplar el sufrimiento del héroe para purgar el nuestro. Vamos a las redes sociales para comparar, para competir, para alimentar la ilusión de que nuestras vidas son menos trágicas que las ajenas.

La IA, en su infinita capacidad de procesamiento, puede generar tragedias sintéticas, puede escribir en el estilo de Esquilo o Eurípides, puede incluso analizar las estructuras dramáticas con una precisión que ningún crítico humano alcanzaría. Pero no puede padecer la tragedia. No tiene piel que se erice ante la anagnórisis, ese momento de reconocimiento terrible donde el héroe descubre la verdad que lo destruye. No tiene vísceras que se contraigan ante la caída de Edipo. No tiene un cuerpo que recuerde, con escalofrío involuntario, su propia fragilidad.

Marco Aurelio, en sus Meditaciones, nos recordaba: todo es efímero, tanto el que recuerda como lo recordado. La IA, en cambio, ni olvida ni recuerda en el sentido humano. Almacena datos con fidelidad perfecta y los recupera sin el filtro deformante de la emoción. Es una memoria sin melancolía, un archivo sin nostalgia. Y en esa perfección reside su mayor limitación: no puede aprender lo que solo se aprende perdiendo, olvidando, distorsionando los recuerdos hasta convertirlos en mitos personales.

El precio de la externalización

Hemos externalizado nuestra memoria en bibliotecas, luego en bases de datos, ahora en la nube. Hemos externalizado nuestro cálculo en calculadoras, luego en computadoras, ahora en inteligencias artificiales. Y cada externalización nos ha liberado de una carga, sí, pero también nos ha amputado una capacidad. Ya no memorizamos poemas épicos como los aedos homéricos. Ya no calculamos mentalmente como los contadores medievales. ¿Qué será lo próximo que delegaremos? ¿El juicio moral? ¿La creación artística? ¿La capacidad de amar?

La computación cuántica promete acelerar este proceso exponencialmente. Problemas que hoy tardarían milenios en resolverse podrán solucionarse en minutos. La optimización de recursos, el diseño de medicamentos, la predicción del clima, todo será más eficiente. Pero la eficiencia, como bien sabía Heidegger, no es una virtud humana. Es una virtud industrial. Lo humano reside precisamente en la ineficiencia: en el rodeo poético, en el duelo prolongado, en el tiempo perdido contemplando el mar sin propósito aparente.

¿Qué tipo de humanos queremos ser cuando nuestras máquinas puedan pensar más rápido, calcular con más precisión, recordar con más exactitud que nosotros? La respuesta no puede ser: humanos que compiten en el mismo terreno. No podemos ganarle una carrera a un Ferrari corriendo más rápido. Debemos redefinir qué significa ganar, qué significa incluso moverse.

El camino de regreso a la caverna

Platón soñaba con sacar a la humanidad de la caverna hacia la luz pura de las Ideas. Pero quizás el movimiento necesario hoy sea el inverso: regresar a la caverna, no por ignorancia, sino por sabiduría. Regresar al cuerpo, a las manos que cocinan, a los ojos que lloran sin algoritmo que prediga el momento exacto de la lágrima. Regresar a la lentitud, a la torpeza fecunda, al error creativo que ninguna IA puede programar intencionalmente.

Lo humanizante no reside en nuestras capacidades superiores de abstracción, la IA nos ha sobrepasado ahí, sino en nuestras vulnerabilidades irreductibles. En que sentimos hambre y cansancio. En que amamos torpemente, con toda la irracionalidad que eso implica. En que morimos, y esa mortalidad tiñe cada decisión con una urgencia que ningún sistema inmortal puede comprender.

Mi abuela Lola no necesitaba leer a Heidegger para saber que Dasein, el ser-ahí, es fundamentalmente un ser-con-otros, un Mitsein. Lo sabía porque cocinaba. Porque cada plato que servía era un acto de reconocimiento: tú existes, tu hambre es real, tu cuerpo merece ser atendido. Esa es la lección que ningún modelo de lenguaje aprenderá jamás de sus datos de entrenamiento: que el pensamiento más elevado nace del gesto más humilde de cuidar a otro.

La cuestión no es solo qué tipo de humano queremos seguir siendo cuando ya no estemos solos en el escenario del pensamiento, sino si seremos capaces de recordar que el escenario nunca fue lo importante: lo importante fue siempre el hambre compartida entre bambalinas, el temblor de manos que se encuentran antes de salir a actuar, el sudor que ningún algoritmo puede transpirar, y esa pregunta antigua que mi abuela Lola formulaba cada mañana en el mercado de Sincelejo mientras el vapor de su sancocho ascendía como oración no codificable: "¿Ya comiste, mijo?"

 

Lucho Salazar

jueves, noviembre 27, 2025

Mientras tu robot se desploma, tu competencia está aprendiendo a caer mejor

 

Este artículo se iba a llamar “El arte olvidado de fracasar en público”. Me pasó por primera vez a mis 8 años, frente a un grupo amplio de padres de familia de la escuela donde estudiaba entonces, muchos de corte intelectual, periodistas, escritores, librepensadores, come libros, maestros de escuela, con todo lo que eso significaba en los años 70; y de todos mis compañeros de clase. Era mi segunda “conferencia” de las miles que he facilitado hasta esta semana. Me equivoqué en algo, no supe manejarlo (¡tenía 8 años!) y comencé a llorar delante de todos. Mi padre, que evitaba mostrar en mi presencia lo orgulloso que estaba de su hijo, caminó hasta la tarima e hizo lo mejor que pudo para calmar mi angustia, me sacó de allí y me llevó a casa donde me escondí para siempre.

Pero entonces quise ser agresivamente más competitivo y “confrontacional”. Hablarles directamente a los líderes en las empresas, a raíz de un ejercicio que he estado haciendo esta semana en un banco de Centroamérica. Entonces cambié las cosas desde el comienzo, desde el mismo título. Sé que el "tu" lo hará personal o, al menos, es lo que quiero. Y la frase "caer mejor" parecerá contradictoria, pero espero que genere curiosidad inmediata. En breve, lo que quise con este cambio fue posicionar el fracaso como una habilidad que se puede perfeccionar… ¡Y dice así con entonado acento!

Hace unos días, el robot humanoide ruso AIdol hizo su debut con toda la pompa que se esperaría de una presentación tecnológica de esta magnitud: música de la película Rocky, asistentes bien vestidos y cámaras listas para capturar el momento histórico. Ver video. Lo que capturaron, en cambio, fue algo mucho más revelador: el robot avanzó unos pasos, levantó el brazo para saludar y se desplomó de bruces contra el piso del escenario. Segundos después, dos personas corrieron a cubrirlo con cortinas negras mientras piezas del robot quedaban esparcidas a la vista de todos.


Chiste obligatorio: AIdol definitivamente entendió mal la expresión "romper el hielo" en una presentación.

Pero lo que ocurrió después de la caída es lo que realmente merece mi atención, y la de ustedes. No fue la falla técnica en sí, eso le pasa hasta al mejor, sino la respuesta instintiva y casi coreografiada del equipo: tapar, ocultar, minimizar. Cortinas negras sobre el desastre. Explicaciones rápidas sobre "problemas de calibración" y "fase de pruebas". Una maniobra de relaciones públicas ejecutada con la sutileza de quien intenta esconder un elefante detrás de una maceta de bonsái Shito.

Pienso que aquí está el problema: esto no es exclusivo de una empresa rusa, ni de la robótica, ni siquiera de la tecnología. Es el modus operandi corporativo global del siglo XXI.

La cultura del tapete

Las empresas de hoy, desde gigantes tecnológicos hasta startups con nombres imposibles de pronunciar, han perfeccionado el arte de barrer la basura bajo el tapete. Apple lanza un producto con fallas de diseño evidentes y te vende el siguiente modelo como si el anterior nunca hubiera existido. Microsoft implementa actualizaciones que rompen sistemas enteros y lo llama "experiencia de usuario mejorada". Google descontinúa productos que millones de personas usaban sin siquiera pestañear. Y OpenAI... bueno, OpenAI tiene sus propios esqueletos en el armario de la ética de la IA. Yo mismo he fallado a lo grande, no en charlas como esa a los 8 años, sino en lanzamientos muy anticipados en algunas de las organizaciones a las que he tenido la oportunidad de servir en las últimas cuatro décadas.

El patrón es siempre el mismo: cuando algo sale mal, la primera reacción no es transparencia sino control de daños. No queremos que la junta directiva se entere. No queremos que los inversionistas huyan. No queremos que los usuarios pierdan la fe. Y, sobre todo, no queremos admitir públicamente que nos equivocamos, porque eso sería como confesar debilidad en un ecosistema donde solo los "disruptivos" y los "resilientes" sobreviven.

Hay algo roto en esta lógica: al ocultar el error, también ocultamos la oportunidad de aprender de él.

Soluciones de maquillaje

Lo que sucede después del encubrimiento inicial es aún peor. Las empresas implementan lo que yo llamo "soluciones de maquillaje": parches superficiales que dan la ilusión de que se tomó acción, pero que en realidad no resuelven nada estructural. Es como poner cinta adhesiva en un motor que está a punto de explotar y declarar victoria.

¿Por qué? Porque hacer las cosas bien es caro. Ir a la causa raíz significa admitir que el problema es más profundo de lo que queremos reconocer. Significa detener operaciones, revisar procesos completos, tal vez incluso reconocer que el producto o servicio nunca debió salir al mercado en ese estado. Significa tiempo, dinero y, lo más doloroso de todo, humildad pública.

Entonces optamos por el camino fácil: un comunicado de prensa bien redactado, un ingeniero sacrificado como chivo expiatorio, he sido yo, y seguir adelante como si nada. Después de todo, el ciclo de noticias es corto y la memoria colectiva, más corta aún. Bien sabré yo de eso por el entorno en el que crecí.

El miedo a la transparencia

Existe un miedo casi patológico en el mundo corporativo a la transparencia radical. Las empresas temen que, si muestran sus fallas, los competidores las aprovecharán. Que, si admiten errores, los clientes huirán. Que, si son honestas sobre sus limitaciones, nadie querrá invertir en ellas.

Pero la realidad es todo lo contrario.

Las empresas que triunfan a largo plazo son aquellas que han aprendido a fracasar en público con dignidad. Que documentan sus errores. Que publican post-mortems detallados. Que convierten cada caída en una lección compartida con su comunidad. Estas son las organizaciones que construyen confianza real, no solo percepciones de perfección. Pregúntenle a David Vélez (Nu).

No me gusta su estilo ni la cultura que promueve, pero cuando SpaceX explota un cohete, Elon Musk tuitea sobre ello en tiempo real. Cuando GitHub sufre una interrupción masiva, publican un análisis técnico completo de lo que salió mal. Cuando Basecamp cometió errores garrafales en su manejo de políticas internas, sus fundadores escribieron disculpas públicas y cambiaron su enfoque (aunque tardaron en hacerlo). Yo mismo le pedí a mi padre, todavía en medio del llanto aquel “fatídico” noviembre, que me cambiara de colegio; él, solo con su silencio penetrante de siempre, simplemente me volvió a matricular allí. Un año después repetí la charla, fue “todo un éxito”. Cincuenta años después sigo haciéndolo como entonces, aunque los temas y el público hayan cambiado ligeramente.

Estas empresas y yo entendimos algo fundamental: la innovación y la falla son gemelas inseparables. No puedes tener una sin la otra. Y si pretendes innovar sin nunca fallar públicamente, lo único que estás haciendo es mentirte a ti mismo y a todos los demás.

El verdadero costo de la perfección fingida

Hay un costo invisible pero devastador en esta cultura del ocultamiento: mata la innovación desde adentro. Cuando las empresas castigan el fracaso y premian el encubrimiento, envían un mensaje claro a sus equipos: no tomes riesgos, no experimentes, no intentes nada que pueda fallar visiblemente.

Los empleados aprenden rápido. Se vuelven maestros en el arte de la mediocridad segura. Proponen solo proyectos con garantía de éxito, o al menos, con plausible negación incorporada. Evitan las ideas audaces porque una idea intrépida que falla es una carrera arruinada.

Y así, lentamente, las organizaciones se fosilizan. Se vuelven expertas en ejecutar lo mismo de siempre, cada vez con más eficiencia, pero nunca en crear algo genuinamente nuevo. Se convierten en museos de su propio pasado exitoso.

El robot AIdol que cayó al piso al menos lo intentó. Al menos salió al escenario. Al menos existió como algo más que una presentación de PowerPoint. ¿Falló? Sí. ¿Es eso malo? Solo si no aprendemos nada de ello.

La vía alternativa

Imagina un mundo diferente. Imagina que después de que AIdol cayera, en lugar de cortinas negras y explicaciones apresuradas, el CEO hubiera subido al escenario y dijera: “Bueno, eso no salió como esperábamos. Permítanme mostrarles exactamente qué falló y qué vamos a hacer diferente la próxima vez”.

Imagina que abrieran el robot ahí mismo, mostraran el servomotor defectuoso, explicaran el problema de calibración, invitaran a otros ingenieros del público a ofrecer ideas. Imagina que convirtieran el fracaso en un seminario improvisado sobre los retos reales de la robótica humanoide.

¿Habría sido menos vergonzoso? No. Probablemente más. Pero habría sido auténtico. Habría sido educativo. Y, sobre todo, habría sido el tipo de momento que construye comunidades, no solo marcas.

Las empresas que van a dominar la próxima década no serán las que nunca fallan. Serán las que fallan mejor. Las que documentan, iteran, comparten y evolucionan en público. Las que entienden que la perfección es el enemigo del progreso y que la vulnerabilidad estratégica es la nueva ventaja competitiva.

No me quiero imaginar mi vida si don Luis Salazar de la Hoz me hubiera cambiado de escuela, si hubiese permitido poner esa cortina negra que yo le proponía mientras volvíamos a casa. Los efectos seguramente habrían sido devastadores para mí.

La lección del piso del escenario

AIdol cayó al piso y, en ese momento de desplome torpe y humillante, nos mostró algo mucho más valioso que un robot que camina perfectamente: nos mostró exactamente cómo NO manejar el fracaso en la era de la transparencia radical.

Las cortinas negras ya no funcionan. Todos tienen cámaras. Todo queda registrado. La viralidad no perdona. Y en un mundo donde cada error puede convertirse en meme global en minutos, la única defensa real es la honestidad.

No necesitamos más empresas que finjan perfección. Necesitamos organizaciones que entiendan que la innovación real es un desastre glorioso y documentado. Que cada prototipo roto es un paso hacia algo mejor. Que la diferencia entre un fracaso y un aprendizaje es lo que decides hacer después.

La próxima vez que tu proyecto caiga de bruces en el escenario de la presentación más importante del año, resiste el impulso de buscar cortinas negras. En lugar de eso, enciende más luces. Invita a la gente a acercarse. Muestra las piezas rotas. Explica qué salió mal. Y promete que la siguiente versión será mejor porque aprendiste esto en público.

Esa es la diferencia entre una empresa que oculta sus fallas y una que las convierte en su superpoder.

En el futuro, las organizaciones más valiosas no serán aquellas que nunca se equivocaron, sino aquellas que fracasaron tan públicamente, tan a menudo y con tanta transparencia, que transformaron el error en su principal mecanismo de evolución. La perfección es arqueología; el fracaso iterativo es la ingeniería del mañana.

Lucho Salazar

Dedicado a mi padre, Luis Salazar de la Hoz, enviado especial (a 8 años de su partida eterna).

Santiago de los Caballeros de Guatemala (hoy Antigua Guatemala), a 26 de noviembre de 2026 – 1700 kilómetros al noroccidente de Sincelejo, 50 años después.

miércoles, noviembre 12, 2025

Algolatría o el culto poseso a los oráculos sintéticos

 Algolatría o el culto poseso a los oráculos sintéticos


Esta es apenas la definición, al mejor estilo de la Academia de la Lengua.

algolatría

Del gr. algos (dolor, aquí tomado como juego morfológico de algo- de algoritmo) + lat. -latría ‘culto, adoración’ + ‘ia’, apócope de inteligencia artificial.

1. f. Devoción acrítica y masiva hacia las soluciones basadas en inteligencia artificial, que transforma cualquier problema humano en una “consulta al modelo” y cualquier duda ética en un prompt.

2. f. Tendencia sociolaboral a delegar juicio, responsabilidad y sentido común en sistemas algorítmicos: se acepta la salida del modelo como dogma, se externaliza la culpa y se privatiza la conciencia.

3. f. Culto performativo donde métricas, dashboards y predicciones ocupan el lugar del diálogo, el cuidado y la deliberación; rituales habituales incluyen retrainings en masa, ceremonias de deploy a horario sagrado y la lectura colectiva de “insights” como oráculos.

4. f. (col.) Forma ligera y humorística de referirse a quienes nombran todo con la etiqueta “IA” para ganar autoridad o inversión: “esa idea no necesita estrategia, solo un poco de algolatría”.

Gazafatonario © Todos los derechos reservados

www.luchosalazar.com                                    www.gazafatonarioit.com                                Lucho Salazar

No voy a satanizar la inteligencia artificial ni mucho menos a quienes la usamos. Después de todo, tampoco lo hice con Scrum hace años, cuando escribí sobre Scrumdamentalismo un artículo que pueden encontrar en:

https://www.gazafatonarioit.com/2019/01/scrumdamentalismo-o-de-la-dogmatica-agil.html

Pero empecemos por lo obvio: ya no pensamos. Preguntamos.

La diferencia puede sonarte irracional, pero pensar duele, toma tiempo, obliga a confrontar la incertidumbre y a cargar con el peso de las consecuencias. Preguntar, más específicamente, preguntar a un modelo, es veloz, indoloro, y viene con el beneficio narcótico de la inmediatez: una respuesta coherente, pulida, lista para copiar-pegar en el slide de la junta. La algolatría no es un fenómeno tecnológico. Es un fenómeno de pereza existencial vestida de innovación.

Lo fascinante, y al mismo tiempo aterrador, es que la algolatría se disfraza de rigor. Las personas y empresas que la practican no dicen "dejamos de pensar". Dicen "nos basamos en data". No admiten "renunciamos a la ética". Proclaman "optimizamos con IA". El ritual es impecable: tableros que parpadean con autoridad numérica, modelos que escupen insights como si fueran versículos, ceremonias de deploy donde nadie pregunta qué se está desplegando exactamente, solo que la latencia bajó 12 milisegundos y el accuracy subió 0.003 %. Aplausos. Deploy. A producción.

Nadie pregunta: ¿a quién afecta esto? ¿Quién decidió que esta métrica importa? ¿Qué pasaría si nos equivocamos? Porque el oráculo ya habló. Y contradecir al oráculo es herejía corporativa.

La algolatría tiene sus templos. Están en las salas de reuniones donde alguien dice "consultemos al modelo" y todos asienten con alivio, porque eso significa que nadie tiene que mojarse defendiendo una postura. Están en los equipos de producto que reemplazan la investigación etnográfica con encuestas automatizadas analizadas por el LLM de turno. Están en las startups que prometen "revolucionar esto o lo otro con IA" cuando lo único revolucionario es haber conseguido inversión sin plan de negocio. Están en los foros de discusión, donde cualquier debate complejo se clausura con un "ya le pregunté a ChatGPT" y un pantallazo borroso que nadie cuestiona porque objetar al oráculo es admitir que uno no está actualizado.

Lo perturbador no es que usemos IA. Lo perturbador es que hayamos externalizado el acto mismo de dudar. La duda, esa fricción incómoda que nos obliga a detenernos, ha sido delegada al pipeline. El modelo decide qué contenido ver, qué candidato contratar, qué crédito aprobar, qué tratamiento recomendar. Y nosotros, aliviados, firmamos. Porque si algo sale mal, la culpa es del modelo. Y los modelos no van a juicio. No tienen conciencia. No sudan frío a las tres de la mañana preguntándose si arruinaron la vida de alguien.

Esa es la gran comodidad de la algolatría: la privatización de la conciencia. Yo no decidí despedir a esa persona, fue el algoritmo de performance. Yo no discriminé en el proceso de selección, fue el sesgo del dataset. Yo no mentí en el informe, fue el modelo el que alucinó. La responsabilidad se diluye en capas de abstracción técnica hasta que nadie es culpable de nada. Es la burocracia moral del siglo XXI: nos lavamos las manos en agua de nube. Voy a decir esto último de una manera menos coloquial: nos declaramos inocentes usando la infraestructura tecnológica como excusa.

Y aquí está el truco perverso: la algolatría no necesita fanáticos. Necesita gente razonable, ocupada, que quiere hacer bien su trabajo, pero está abrumada. Gente que recibe 200 emails al día, que tiene cuatro reuniones traslapadas, que debe entregar el sprint antes del viernes. Para esa gente, para nosotros, el modelo no es un dios, es un asistente ejecutivo con esteroides. Y ahí es donde el culto se normaliza: no como devoción explícita, sino como dependencia funcional. Hasta que un día nos damos cuenta de que no sabemos tomar decisiones sin consultarle primero. Hasta que nos aterra la página en blanco porque ya no recordamos cómo se piensa desde cero.

Hay una escena que se repite en los equipos y empresas algolátricas: alguien propone hacer algo diferente, algo que requiere criterio humano, conversación lenta, deliberación ética. Y siempre hay una voz, normalmente la del gerente más ocupado, que interrumpe: "¿Podemos pedirle al modelo que genere opciones?" Y la sala exhala. Porque eso significa que nadie tiene que defender nada. Que podemos tercerizar el conflicto. Que el algoritmo cargará con el peso de la elección mientras nosotros seguimos en nuestras sillas giratorias, impolutas.

El problema no es la IA. El problema es que hemos confundido eficiencia con sabiduría, velocidad con claridad, predicción con comprensión. La algolatría convierte la predicción en profecía y la confianza en comodidad. Hasta que el oráculo se equivoca. Y entonces nos sorprendemos, indignados, como si hubiéramos olvidado que los modelos son espejos: reflejan lo que les mostramos, amplifican lo que somos. Si les mostramos sesgos, amplifican desigualdad. Si les mostramos prisa, amplifican errores. Si les mostramos cobardía moral, nos devuelven decisiones sin alma.

La salida de la algolatría no es abandonar la tecnología. Es volver a poner al humano, con sus dudas, su lentitud, su ética incómoda, en el centro del tabernáculo. Es recuperar el derecho a equivocarnos con nuestras propias manos. Es entender que una decisión tomada después de una conversación difícil vale más que mil outputs generados en milisegundos. Es atrevernos a decir "no sé" sin inmediatamente abrir el chat del modelo.

Porque al final, la algolatría no es un problema de ingeniería. Es un problema de valentía. Y eso, ningún transformer lo va a resolver por nosotros. Y es que la algolatría no nació del algoritmo, sino de nuestro miedo a pensar sin él: es la rendición elegante del juicio humano ante el espejismo de una certeza sintética.


 

Annexum Impium

Algunas manifestaciones de los algólatras incluyen:

1.      Toda reunión estratégica termina con "consultemos al modelo" y nadie cuestiona el output.

2.      Las decisiones de contratación, inversión o producto se basan en lo que dice el sistema, sin deliberación humana.

3.      Cualquier contenido generado por IA se acepta como válido sin revisión crítica.

4.      Los errores del modelo se justifican con "es que el prompt no estaba bien hecho" en lugar de cuestionar si la IA era apropiada para esa tarea.

5.      Se asume que más datos y más compute siempre producen mejores decisiones.

6.      La ética se reduce a "agregar una instrucción en el system prompt".

7.      Pensar que cualquier escéptico de la IA está "desactualizado" o "le tiene miedo al cambio".

8.      Las conversaciones difíciles se evitan pidiendo al modelo que genere "opciones neutrales".

9.      La responsabilidad se diluye: "yo solo implementé lo que sugirió el algoritmo".

10.  Creer que este artículo no habla de uno mismo, sino de otros.


miércoles, octubre 08, 2025

La insaciabilidad: Crónica de una humanidad que ya perdió

 

Ya no dormimos. Nuestros dedos se deslizan por la pantalla en la madrugada buscando "lo próximo" que nos salvará, que nos redimirá, que nos pondrá en la cima del mundo digital mientras el resto de la humanidad se desmorona en la obsolescencia. Hace unos días fue el lanzamiento de "lo último" de OpenAI, Eso está bien, supongo. Pero en realidad da lo mismo qué empresa sea, qué modelo, qué promesa. Ya saldrán los "very early adopters" a contarnos de sus primeras impresiones, una vez que lo usen, experimenten y obtengan los primeros resultados. Quizás yo sea uno de ellos. Pero no es eso lo que me quita el sueño.

Lo que me perturbó fue lo anterior. Los días previos. El crescendo de ansiedad colectiva: la insaciabilidad. Esa hambre feroz, desesperada, enfermiza de tener más, de saber más, de ser más antes que los demás.

Los "leaked news", los chismes, las especulaciones sobre un producto que nadie había tocado, como si fuera el Mesías técnico que nos salvaría del pecado original de la irrelevancia. Leí las predicciones apocalípticas: "Si no te subes a esta ola, morirás profesionalmente", "Las reglas del juego han cambiado para siempre", "Quien no adopte esto quedará atrás". Especulación con visos de agiotismo sobre algo intangible, invisible, prometeico. Y lo peor no es que se diga, lo peor es que lo creemos.

Creo que nos dejamos ganar, de una vez por todas y para siempre, del infame hype, del FOMO que nos carcome las entrañas, del miedo a quedarnos atrás mientras el mundo avanza sin nosotros. El nerviosismo, el estrés es tal que ya no nos sirven las miles de herramientas que existen a esta hora. Están ahí, funcionando, esperando ser dominadas, pero no nos interesan. No son suficientes. Nunca son suficientes. Esperamos, con la respiración contenida, las docenas de herramientas que aparecerán en las próximas horas, sabiendo en el fondo de nuestra alma que tampoco esas nos satisfarán. Y en esa carrera absurda, hemos perdido algo fundamental: la autonomía de decidir cuándo detenernos.

Esta es la insaciabilidad. No el hambre honesta que nos impulsa a crecer, sino la sed del que bebe agua de mar. Cada sorbo de innovación nos deshidrata más, nos vuelve más desesperados, más dependientes. Frenesí. Exaltación. Agitación. Excitación. Hoy hay orgasmos por el lanzamiento, eyaculaciones prematuras de entusiasmo ante capturas de pantalla y “demos” de cinco minutos. Mañana habrá paros cardíacos por la decepción, cuando descubramos que la herramienta milagrosa es solo eso: una herramienta, no un dios, no un salvador, no la respuesta definitiva a nuestra ansiedad existencial.

He estado en reuniones donde líderes tiemblan al hablar de IA. No por entusiasmo, sino por terror puro. El terror de que su competidor ya la está usando mejor, más rápido, más estratégicamente. El terror de que mientras ellos duermen, alguien más está experimentando, iterando, conquistando. Y ese terror se filtra en cada decisión, en cada estrategia, en cada presupuesto. Ya no preguntamos "¿Necesitamos esto?", sino "¿Qué pasará si no lo tenemos?". Hemos invertido la lógica del progreso: ya no buscamos mejorar, buscamos no empeorar.

Trabajamos para el algoritmo, vivimos para el timeline. Eso es lo peor, lo que verdaderamente me quita el aliento cuando lo pienso. Ya no usamos las herramientas; ellas nos usan. Producimos contenido para alimentar sus bases de datos. Optimizamos nuestras palabras para complacer sus sesgos. Modificamos nuestro pensamiento para alinearnos con sus patrones. Hemos invertido la ecuación fundamental de la tecnología y ni siquiera nos dimos cuenta del momento exacto en que sucedió. Simplemente un día despertamos y estábamos al servicio de las máquinas que supuestamente creamos para servirnos a nosotros.

Con eso, con ese momento imperceptible de rendición, la humanidad ya perdió. No perdió una batalla, perdió la guerra completa. Entregamos nuestra autonomía a cambio de eficiencia. Sacrificamos nuestra soberanía mental por conveniencia. Y lo peor es que lo hicimos voluntariamente, incluso con entusiasmo, convencidos de que estábamos siendo innovadores, disruptivos, visionarios.

He sido ese hereje. He intentado pausar, respirar, usar lo que ya tengo hasta dominarlo antes de saltar al siguiente brillo digital. Pero la presión es insoportable. Cada día, docenas de mensajes, artículos, videos sobre "lo nuevo" que cambiará todo. Y uno empieza a dudar. ¿Y si es cierto? ¿Y si esta vez sí es diferente? ¿Y si al no subirme a este tren, realmente me condeno a la irrelevancia? Esa duda es el gancho perfecto. Es el anzuelo que mantiene al pez nadando en círculos, siempre mordiendo, nunca saciándose.

Lo más irónico es que hablamos de inteligencia artificial, pero hemos perdido al menos parte nuestra inteligencia natural. La capacidad de discernir. De priorizar. De decir "no". Hemos tercerizado nuestro criterio a la masa, al consenso digital, al pánico colectivo. Si todos corren hacia algo, debe ser importante. Si todos hablan de algo, debe ser revolucionario. Pero nadie se detiene a preguntar: ¿revolucionario para quién? ¿Importante para qué?

Esta no es una crítica a la tecnología. Es un lamento por lo que nos hemos vuelto en su nombre. Adictos a la promesa, esclavos de la expectativa, prisioneros de nuestra propia insaciabilidad. Y mañana, cuando salga el siguiente modelo, el siguiente framework, la siguiente plataforma, volveremos a temblar, volveremos a correr, volveremos a perder un poco más de nosotros mismos en el proceso. Porque al final, el verdadero costo de la IA no se mide en dólares o en empleos perdidos. Se mide en la erosión silenciosa de nuestra capacidad de estar presentes, de estar satisfechos, de estar completos sin la próxima actualización.

No fue la inteligencia artificial la que nos reemplazó. Fue nuestra propia decisión de convertirnos en algoritmos humanos, predecibles, insaciables, siempre ejecutando la siguiente instrucción sin preguntarnos quién escribió el código.


 

sábado, septiembre 27, 2025

Cómo se usa ChatGPT en 2025

En este podcast, un resumen ejecutivo de un documento de investigación sobre el uso de ChatGPT, que detalla la rápida adopción global del chatbot desde su lanzamiento en noviembre de 2022 hasta julio de 2025. El estudio utilizó una metodología de preservación de la privacidad para clasificar millones de mensajes de usuarios, encontrando que para 2025, la mayoría de las consultas (alrededor del 70 %) no estaban relacionadas con el trabajo. Las tres categorías de conversación más comunes son Orientación Práctica, Escritura y Búsqueda de Información, y se observa que los usuarios más educados y con empleos profesionales tienen más probabilidades de usar el bot para tareas laborales, particularmente para recibir apoyo en la toma de decisiones (clasificado como "Preguntar"). Además, el estudio documenta que la brecha de género en el uso de ChatGPT se ha reducido significativamente y que la adopción ha crecido desproporcionadamente en países de ingresos bajos y medianos.

El estudio completo se puede descargar de https://www.nber.org/papers/w34255

https://youtu.be/RT6XqD1HPx0

martes, septiembre 23, 2025

El “Bidón pegajoso”: cuando la IA se convierte en el dopaje silencioso de las organizaciones

 

El campeón olímpico Richard Carapaz recibe asistencia del Mercedes de su equipo.

Hace poco finalizó la vuelta ciclística a España. Ya había escrito un artículo sobre la falacia del superhéroe multitarea y el costo oculto del «Siempre lo hemos hecho así», a propósito de una peligrosa práctica que realizan los directores de equipos ciclísticos que conducen los autos de los equipos.  Puedes encontrar el artículo en:

Vas a chocar y lo sabes: el síndrome del director ciclístico que está aniquilando tu producto – Lucho Salazar

Pues bien, en la penúltima etapa, un ciclista colombiano, Egan Bernal, fue sancionado por la práctica conocida como bidón pegado o pegajoso, un truco donde el auto del director se acerca, transfiere el bidón al ciclista y ambas manos “se pegan” al envase para dar al deportista un empujón extra, una maniobra que la organización considera como ventaja irregular y por la que Bernal recibió la multa.

Esto me recordó cómo hoy por hoy el “pelotón” corporativo avanza a ritmo frenético. Las métricas de productividad marcan el paso, los KPI dictan la cadencia, y en medio de esta carrera desenfrenada, aparece el auto del equipo con una solución aparentemente salvadora: la inteligencia artificial. Como en el incidente que protagonizó Egan Bernal en la Vuelta a España, en más de treinta años de experiencia he visto cómo en las organizaciones hay una línea delgada entre la asistencia legítima y el dopaje tecnológico. Con la IA, esa raya es cada vez más tenue.

Pensémoslo un poco. El CEO es el director deportivo, ansioso por resultados inmediatos. La solución de IA de turno es el carro del equipo, prometiendo velocidad y eficiencia. El bidón representa esas intervenciones puntuales: prompts prefabricados, automatizaciones express, dashboards predictivos. Y el ciclista agotado es el equipo humano, aferrándose con desesperación a cualquier cosa que le permita mantener el ritmo insostenible que exige el mercado.

Cuando la mano humana y la mano algorítmica quedan "pegadas" al mismo bidón digital, la organización experimenta una aceleración instantánea. Los informes se generan en segundos, el código se autocompleta, las decisiones se "optimizan" con modelos predictivos. En el corto plazo, parece una jugada maestra: las métricas suben, los costos bajan, los inversionistas aplauden. Pero este empujón artificial tiene un precio que pocas organizaciones están calculando.

Primero, está la atrofia de capacidades. Cuando los equipos dependen del "empujón" de la IA, sus músculos intelectuales se debilitan. La capacidad de análisis crítico, la creatividad para resolver problemas, el juicio profesional cultivado durante años: todo se erosiona cuando la respuesta siempre viene premasticada por un algoritmo. Es como el ciclista que olvida cómo remontar por sus propios medios porque siempre cuenta con el auto del equipo.

Segundo, surge una dependencia invisible pero peligrosa. ¿Qué sucede cuando el proveedor de IA cambia sus términos, cuando la regulación endurece las condiciones de uso, cuando un fallo técnico deja a la organización sin su muleta digital? El corredor queda solo en la carretera, sin la resistencia ni la técnica para continuar al ritmo que el mercado exige.

Tercero, aparecen las consecuencias éticas y reputacionales. Así como Bernal enfrentó multa y críticas, las organizaciones que abusan del "bidón pegado" digital enfrentan escrutinio regulatorio, pérdida de confianza del consumidor y cuestionamientos sobre la autenticidad de sus logros. ¿Es realmente innovación cuando el mérito es del algoritmo? ¿Qué valor tiene una victoria conseguida con ventaja artificial?

Está sucediendo a tutiplén. Empresas sancionadas por tratamiento indebido de datos biométricos [1], Amazon debió retirar su sistema de filtrado curricular cuando se identificó que discriminaba por género, al basarse en datos históricos sesgados [2]; bancos y otras empresas han sido víctimas de estafas donde directivos falsos, generados por IA en videollamadas, lograron transferencias millonarias, afectando la confianza y reputación de las compañías afectadas [3]; la manipulación de reseñas y opiniones en línea mediante IA pone en duda la legitimidad de la reputación digital de empresas y productos, deteriorando la confianza de los consumidores [4], entre muchos otros ejemplos son apenas la punta del iceberg de lo que está ocurriendo a raíz de esta ya infame práctica del “bidón pegajoso de la IA”.

Evidentemente, la solución no es prohibir la IA, debilitar su uso, ni mucho menos no usarla, sería como pretender eliminar los carros del ciclismo profesional. La IA es la herramienta más poderosa que la humanidad ha inventado, entonces lo que toca es redefinir las reglas del juego, establecer límites claros entre asistencia y dependencia, entre herramienta y muleta. Las organizaciones necesitan entrenar la resistencia cognitiva de sus equipos, mantener viva la capacidad de pensar y crear sin asistencia algorítmica, usar la IA como hidratación estratégica, no como propulsión artificial.

Es simple: cuando tu organización no puede funcionar sin el bidón pegado de la IA, no has construido ventaja competitiva: has comprado tiempo prestado. Y en el futuro próximo, las empresas que sobrevivan no serán las que mejor sepan agarrarse al algoritmo, sino las que aprendan a pedalear en el vacío cuántico donde la inteligencia artificial se vuelve tan ubicua que deja de ser diferenciador. La verdadera disrupción no es adoptar la IA; es saber competir cuando todos la tienen y nadie puede usarla como excusa.

¡Funciona para mí!

Referencias

[1] El mal uso de la inteligencia artificial en empresas.

[2] El mal uso de la inteligencia artificial en empresas.

[3] Mal uso de la inteligencia artificial: ejemplos y consecuencias.

[4] IA posible enemigo de la reputación de las empresas - Diario Libre.

jueves, septiembre 04, 2025

Vas a chocar y lo sabes: el síndrome del director ciclístico que está aniquilando tu producto

 

Imagen generada por IA

La falacia del superhéroe multitarea

Las carreras de ciclismo me parecen muy emocionantes. Me apasiona verlas. Pero imagina esto: un director deportivo conduciendo a 50 km/h por una carretera sinuosa de montaña, rodeado de miles de espectadores eufóricos, mientras simultáneamente entrega un bidón a un ciclista o una barra energética, grita instrucciones tácticas por radio y calcula mentalmente los tiempos de carrera. Todo esto mientras "conduce" un vehículo de dos toneladas. ¿Suena demencial? Bienvenido al mundo del ciclismo profesional, donde esta práctica suicida se defiende con el argumento más peligroso de la historia empresarial: el infame "siempre lo hemos hecho así".

Esta locura ciclística es el espejo perfecto de lo que está destruyendo silenciosamente nuestras organizaciones tecnológicas. Y no, no estoy exagerando.

En el desarrollo de software moderno, especialmente en entornos "ágiles", vemos el mismo patrón destructivo. El Product Owner que está en cuatro reuniones simultáneas mientras "define" la hija de ruta del producto. El Scrum Máster que facilita retrospectivas mientras programa y hace pruebas "para ayudar al equipo". El líder técnico que hace revisión de código mientras está en una llamada con el cliente explicando por qué el sprint falló... otra vez.

¿El resultado? El mismo que cuando el director ciclista inevitablemente choca: desastre total. Solo que en nuestro caso no son huesos rotos, son productos digitales que nacen muertos, equipos quemados y millones en alguna moneda evaporados en iniciativas que nunca debieron existir.

Pero la multitarea tiene un costo mucho más grave, uno que prácticamente es irrecuperable. Para saber cuál es, por favor, lee mi artículo El verdadero costo de la multitarea en mi Gazafatonario:

El costo de hacer multitarea - Gazafatonario IT

Ahora les hablaré de otro costo oculto en nuestras prácticas tradicionales.

El costo oculto del "Siempre lo hemos hecho así"

Aquí viene la parte que duele: las organizaciones que presumen de ser "ágiles" y "lean" son las peores infractoras. Han convertido los marcos de trabajo en religiones, los roles en títulos nobiliarios y los eventos en rituales vacíos.

Lo escucho a cada rato, con aire de orgullo: "Mi CTO está en las reuniones importantes, revisa todo el código y además lidera la estrategia de IA". Al preguntar: "¿Y cuándo piensa?", el silencio se hace incómodo. Porque claro, pensar no está en el backlog.

La ironía salta a la vista. Lean nos enseña a eliminar desperdicios, pero mantenemos a nuestros mejores talentos haciendo malabarismo con tareas incompatibles. Scrum habla de foco y compromiso, pero nuestros Product Owners están tan dispersos que no podrían reconocer una propuesta de valor ni aunque les pegara fuerte en la cara.

No creas que la IA no va a salvarte, va a exponerte. Y es que, con la explosión de la IA generativa, la situación se vuelve tragicómica. Veo equipos implementando GitHub Copilot mientras su arquitectura base es un desastre o gerentes pidiendo "meter IA" en productos que aún no logran encajar en el mercado.

La IA amplifica. Si tu proceso de desarrollo es caótico, la IA lo hará caóticamente más rápido. Si tu Product Owner no entiende el problema del usuario, ChatGPT le ayudará a no entenderlo con párrafos más elegantes.

El antídoto: separación radical de responsabilidades

Imagen generada por IA

Volvamos al ciclismo por un segundo. La solución es simple: el conductor conduce, punto. Otro miembro del equipo maneja la logística con los ciclistas. ¿Revolucionario? No. ¿Sensato? Absolutamente. En nuestras organizaciones tecnológicas, necesitamos la misma claridad brutal:

El Product Owner debe obsesionarse con el usuario. No con Jira, no con las reuniones diarias, no con el código. Su trabajo es entender tan profundamente al usuario que pueda predecir sus necesidades antes que ellos mismos. Si está en más de dos eventos al día, hay síntomas de intoxicación.

El Scrum Máster facilita, no ejecuta. Si está probando, no está observando las dinámicas del equipo. Es como un psicólogo que está tan ocupado tomando pastillas que no escucha a sus pacientes.

Los desarrolladores desarrollan. No están en reuniones de estrategia de negocio. No están vendiendo al cliente. Están resolviendo problemas técnicos complejos, lo cual, sorpresa, requiere concentración profunda y tiempo ininterrumpido.

Intenta lo siguiente: imagina que cada vez que alguien en tu organización hace multitarea con responsabilidades críticas incompatibles, está literalmente conduciendo un carro a alta velocidad mientras mira el celular. ¿Cuántos accidentes tendrías al día?

Ese error crítico en producción que costó mucho en ventas perdidas: accidente por conducir distraído. Esa funcionalidad que nadie usa después de 6 meses de desarrollo: choque frontal por no mirar la carretera. Ese equipo estrella que renunció en masa: volcadura por intentar cambiar de carril en zona prohibida.

Las organizaciones que sobrevivirán la próxima década no serán las que tengan la mejor tecnología o los frameworks más modernos. Serán las que tengan el coraje de decir: "Esto que hacemos es estúpido y peligroso, y vamos a parar".

Serán las que entiendan que un Product Owner enfocado vale más que diez "haciendo de todo un poco". Que un equipo de desarrollo con 4 horas diarias de concentración profunda produce más valor que uno en reuniones perpetuas. Que la IA es una herramienta, no una varita mágica.

Mi advertencia final

Si tu organización sigue operando como el director ciclístico, haciendo malabarismo con responsabilidades críticas incompatibles mientras acelera hacia el futuro, la sacudida será inevitable. La única pregunta es: ¿será un raspón del que puedan recuperarse, o será el accidente que los saque definitivamente de la carrera?

El ciclismo profesional puede darse el lujo de ser torpemente tradicional porque el espectáculo vende. Tu empresa no tiene ese privilegio. En el mundo del desarrollo de productos digitales, los dinosaurios no se extinguen lentamente; desaparecen en un trimestre malo.

Así que la próxima vez que veas a alguien intentando ser el superhéroe multitarea, recuerda al director ciclista entregando bidones mientras serpentea entre la multitud. Y pregúntate: ¿realmente queremos esperar al choque para cambiar?

La física no perdona. El mercado tampoco.

miércoles, agosto 27, 2025

Pequeñas leyes, grandes transformaciones

 Pequeñas leyes, grandes transformaciones

O de cómo aplicar “Las pequeñas leyes de la vida” a cambios ágiles, digitales y con IA

El despliegue de software en horarios no aptos para personas

Para saber qué y cómo cambiar hay que conocer y entender lo que nunca cambia. Ese es el punto de partida. Nos obsesionamos con anticipar el futuro, con seguir la última moda tecnológica o el marco de trabajo recién publicado. Pero rara vez nos detenemos a mirar lo que permanece, lo que resiste, lo que no se mueve, aunque el mundo gire más rápido. Yo suelo decir que estoy en el oficio del cambio organizacional. Pero, en el fondo, lo que he hecho es aprender cada día a escuchar lo que no cambia en las personas, en los equipos y en las organizaciones, y usarlo como ancla para que el cambio sea posible.

El libro “Lo que nunca cambia” de Morgan Housel me recordó, con anécdotas simples, que las pequeñas leyes de la vida gobiernan más de lo que pensamos. Lo menciono porque he visto que eso mismo ocurre en las transformaciones empresariales: cambian las herramientas, cambian los discursos, cambian los consultores. Pero lo humano sigue ahí, con sus miedos, sus deseos y sus incentivos. Y si olvidamos eso, lo digital y lo ágil y, más recientemente, la IA se vuelven maquillaje pasajero.

Dejé de desarrollar software hace más de dos décadas, pero los problemas más frecuentes en tecnología de entonces venían de desplegar sistemas en unos días y en unas horas inverosímiles, como un viernes por la tarde o un domingo a las 5 a. m. Hoy, con nubes más rápidas y metodologías más sofisticadas, la historia se repite: seguimos sufriendo por desplegar en esas fechas y horarios inauditos para nuestra humanidad. Cambian los escenarios, pero no cambian los patrones. Lo que nunca cambia es más fuerte que lo que creemos controlar.

Por eso he convertido esto de entender lo que nunca cambia en un mantra y en las empresas donde he logrado que esto se acepte como una realidad, el cambio organizacional dejó de ser una carrera por inventar lo que sigue y se convirtió en un ejercicio de diseñar con base en lo que siempre estará ahí. Una empresa que entiende sus constantes humanas no necesita adivinar el futuro, porque sabe que, pase lo que pase, la gente buscará seguridad, autonomía, reconocimiento, sentido y progreso.

Leyes pequeñas que sostienen cambios grandes

Antes de hablar de prácticas, te conviene aceptar algo: las grandes transformaciones no se sostienen en estrategias grandilocuentes, mucho menos en presentaciones coloridas ante la alta dirección, sino en leyes pequeñas que se cumplen día tras día. He estado en ambos extremos. No se trata de discursos inspiradores un jueves por la mañana que olvidamos al lunes siguiente, sino de verdades sencillas que marcan el pulso de cualquier cambio. Son esas pequeñas leyes las que me sirven de brújula cada vez que acompaño a una organización. Cuando logro que sean visibles, todo lo demás fluye con más naturalidad.

La gente sigue siendo gente. No sirve de mucho pedir mentalidad ágil si el sistema invita a trabajar de forma lenta y burocrática. Es más fácil que las personas cambien cuando el entorno les facilita hacerlo. Si trabajar de manera ágil reduce esfuerzo, reduce conflictos y mejora resultados, entonces lo ágil será la primera opción, no un discurso motivacional.

El riesgo que derrumba no siempre se ve. He trabajado en cinco décadas distintas. Y, a propósito de lo que nunca cambia, he visto que los grandes problemas rara vez vienen de una falla monumental y visible. Llegan como una suma de descuidos: una alerta silenciada, un proceso sin dueño, una validación ignorada. Con inteligencia artificial es lo mismo, basta un pequeño error en la formulación de un pedido para que el sistema alucine respuestas y cause daños serios. La prevención está en mirar donde casi nunca se mira.

Lo que se acumula, pesa. Las mejoras pequeñas, hechas con constancia, transforman una organización. Los descuidos pequeños, tolerados por costumbre, también lo hacen. Nada crece en línea recta: todo se compone y se multiplica. De ahí la importancia de medir ritmos, no promedios. De tratar la transformación como un jardín que necesita riego, poda y paciencia.

Las historias mandan más que los números. Un comité puede ignorar un análisis financiero impecable, pero no puede resistirse a la historia de una persona enfrentando a diario la misma frustración. Los números convencen, pero las historias movilizan. Cada transformación necesita relatos breves, claros, capaces de mostrar quién se beneficia y cómo se siente cuando algo mejora.

Un colega me contó hace poco que un comité le negó presupuesto para mejorar un sistema, porque en las cifras no veían retorno. Un mes después volvió con un video: una agente de soporte repitiendo la misma acción manual cuarenta veces al día. La petición era la misma, pero la historia distinta. Y esta vez, aprobaron de inmediato. He estado allí.

Crecer antes de tiempo reduce lo que importa. Nada destruye más un proyecto que escalarlo demasiado pronto. Lo aprendimos con sangre tratando de “escalar ágil” y lo estamos repitiendo con IA generativa: lanzar una solución inmadura a toda la organización puede ser un suicidio. El cambio responsable necesita ensayos pequeños, pilotos controlados, pruebas que permitan aprender sin arrasar con la confianza. Y todo ello toma tiempo.

Las cicatrices gobiernan el presupuesto. Una organización que ha sufrido un susto fuerte nunca vuelve a ser la misma. La memoria emocional pesa más que cualquier discurso. No sirve tratar de borrarla: hay que diseñar con ella. Crear espacios seguros para probar, compromisos reversibles y planes de contingencia que devuelvan tranquilidad.

Construir sobre lo que no cambia. Este es el quid de la cuestión. Los clientes siempre querrán rapidez, claridad, precio justo y confianza. Los empleados siempre buscarán autonomía, maestría y propósito. Invertir en estas constantes es más poderoso que perseguir modas pasajeras. La agilidad pasará, pero la colaboración, la entrega temprana y frecuente, la reflexión y la mejora continua se quedan. Los modelos de IA pasarán, pero los datos limpios, la transparencia y la seguridad se quedan.

La variación da fuerza. Nadie sabe cuál experimento será el ganador. La única estrategia sensata es probar mucho, a bajo costo, y cerrar rápido lo que no funciona. Esparcir semillas y preparar el suelo: algunas no crecerán, otras se convertirán en árboles.

Preguntar siempre: ¿y luego qué? Cada decisión trae consecuencias directas e indirectas. Lo sabemos de sobra: un bot puede reducir a la mitad el tiempo de respuesta, pero aumentar las llamadas repetidas porque las respuestas son incompletas. Antes de celebrar un resultado, hay que preguntarse qué efecto oculto vendrá después.

Un mapa para sostener transformaciones


Una transformación real no depende de planes perfectos. Se construye con equipos enfocados, con ritmos cortos y sostenibles, con datos que muestran la realidad completa, con reglas pocas y claras. Se construye midiendo lo esencial y aceptando que fallar barato es mejor que acertar tarde. Y, sobre todo, se construye diseñando para lo que nunca cambia.

Para mí, un mapa de transformación comienza con algo sencillo: definir con claridad el propósito, y narrarlo en palabras que cualquiera en la organización pueda repetir sin confundirse. Luego, dar a los equipos foco y autonomía real, con límites claros que eviten la dispersión. Después, sincronizar ritmos, cadencias y compromisos, de forma que la empresa respire al mismo tiempo y no como un conjunto de islas.

Ese mapa también incluye algo más profundo: una manera distinta de gobernar. No con controles asfixiantes ni con promesas grandiosas, sino con reglas mínimas, con decisiones rápidas en lo reversible y con más cuidado en lo que deja cicatrices. Y, por encima de todo, con incentivos alineados: porque si los premios contradicen los discursos, la cultura se convierte en hipocresía.

Y hoy por hoy, un mapa de transformación necesita la humildad de los líderes para aceptar que la inteligencia artificial es herramienta y no tótem. Muy poderosa, pero herramienta, al fin y al cabo. Sirve para aliviar dolores y multiplicar capacidades, pero no para tapar vacíos de liderazgo ni excusar la falta de estrategia. La IA es poderosa cuando se usa con datos confiables, con transparencia y con límites claros.

Mi llamado a la acción

Yo no creo que las organizaciones sobrevivan por adivinar lo que viene. Creo que sobreviven porque responden mejor cuando lo inesperado golpea. Cambiar con rapidez es valioso, pero diseñar sobre lo que nunca cambia es lo que sostiene. Ese es el verdadero oficio del cambio: aprender a escuchar lo que no se mueve, y desde ahí, moverse mejor.

Así que mi invitación es simple: miren de frente a sus constantes, háganlas visibles, conviértanlas en cimiento. Y luego, construyan cambios encima, sabiendo que, pase lo que pase, hay un suelo firme que no se derrumba. Ese es el cambio que vale la pena.

Es definitivo: el cambio nos excita, lo constante nos sostiene. Quien diseña solo para lo primero vuela; quien diseña también para lo segundo aterriza.