Buscar en Gazafatonario IT

Mostrando las entradas con la etiqueta Inteligencia Artificial. Mostrar todas las entradas
Mostrando las entradas con la etiqueta Inteligencia Artificial. Mostrar todas las entradas

miércoles, noviembre 12, 2025

Algolatría o el culto poseso a los oráculos sintéticos

 Algolatría o el culto poseso a los oráculos sintéticos


Esta es apenas la definición, al mejor estilo de la Academia de la Lengua.

algolatría

Del gr. algos (dolor, aquí tomado como juego morfológico de algo- de algoritmo) + lat. -latría ‘culto, adoración’ + ‘ia’, apócope de inteligencia artificial.

1. f. Devoción acrítica y masiva hacia las soluciones basadas en inteligencia artificial, que transforma cualquier problema humano en una “consulta al modelo” y cualquier duda ética en un prompt.

2. f. Tendencia sociolaboral a delegar juicio, responsabilidad y sentido común en sistemas algorítmicos: se acepta la salida del modelo como dogma, se externaliza la culpa y se privatiza la conciencia.

3. f. Culto performativo donde métricas, dashboards y predicciones ocupan el lugar del diálogo, el cuidado y la deliberación; rituales habituales incluyen retrainings en masa, ceremonias de deploy a horario sagrado y la lectura colectiva de “insights” como oráculos.

4. f. (col.) Forma ligera y humorística de referirse a quienes nombran todo con la etiqueta “IA” para ganar autoridad o inversión: “esa idea no necesita estrategia, solo un poco de algolatría”.

Gazafatonario © Todos los derechos reservados

www.luchosalazar.com                                    www.gazafatonarioit.com                                Lucho Salazar

No voy a satanizar la inteligencia artificial ni mucho menos a quienes la usamos. Después de todo, tampoco lo hice con Scrum hace años, cuando escribí sobre Scrumdamentalismo un artículo que pueden encontrar en:

https://www.gazafatonarioit.com/2019/01/scrumdamentalismo-o-de-la-dogmatica-agil.html

Pero empecemos por lo obvio: ya no pensamos. Preguntamos.

La diferencia puede sonarte irracional, pero pensar duele, toma tiempo, obliga a confrontar la incertidumbre y a cargar con el peso de las consecuencias. Preguntar, más específicamente, preguntar a un modelo, es veloz, indoloro, y viene con el beneficio narcótico de la inmediatez: una respuesta coherente, pulida, lista para copiar-pegar en el slide de la junta. La algolatría no es un fenómeno tecnológico. Es un fenómeno de pereza existencial vestida de innovación.

Lo fascinante, y al mismo tiempo aterrador, es que la algolatría se disfraza de rigor. Las personas y empresas que la practican no dicen "dejamos de pensar". Dicen "nos basamos en data". No admiten "renunciamos a la ética". Proclaman "optimizamos con IA". El ritual es impecable: tableros que parpadean con autoridad numérica, modelos que escupen insights como si fueran versículos, ceremonias de deploy donde nadie pregunta qué se está desplegando exactamente, solo que la latencia bajó 12 milisegundos y el accuracy subió 0.003 %. Aplausos. Deploy. A producción.

Nadie pregunta: ¿a quién afecta esto? ¿Quién decidió que esta métrica importa? ¿Qué pasaría si nos equivocamos? Porque el oráculo ya habló. Y contradecir al oráculo es herejía corporativa.

La algolatría tiene sus templos. Están en las salas de reuniones donde alguien dice "consultemos al modelo" y todos asienten con alivio, porque eso significa que nadie tiene que mojarse defendiendo una postura. Están en los equipos de producto que reemplazan la investigación etnográfica con encuestas automatizadas analizadas por el LLM de turno. Están en las startups que prometen "revolucionar esto o lo otro con IA" cuando lo único revolucionario es haber conseguido inversión sin plan de negocio. Están en los foros de discusión, donde cualquier debate complejo se clausura con un "ya le pregunté a ChatGPT" y un pantallazo borroso que nadie cuestiona porque objetar al oráculo es admitir que uno no está actualizado.

Lo perturbador no es que usemos IA. Lo perturbador es que hayamos externalizado el acto mismo de dudar. La duda, esa fricción incómoda que nos obliga a detenernos, ha sido delegada al pipeline. El modelo decide qué contenido ver, qué candidato contratar, qué crédito aprobar, qué tratamiento recomendar. Y nosotros, aliviados, firmamos. Porque si algo sale mal, la culpa es del modelo. Y los modelos no van a juicio. No tienen conciencia. No sudan frío a las tres de la mañana preguntándose si arruinaron la vida de alguien.

Esa es la gran comodidad de la algolatría: la privatización de la conciencia. Yo no decidí despedir a esa persona, fue el algoritmo de performance. Yo no discriminé en el proceso de selección, fue el sesgo del dataset. Yo no mentí en el informe, fue el modelo el que alucinó. La responsabilidad se diluye en capas de abstracción técnica hasta que nadie es culpable de nada. Es la burocracia moral del siglo XXI: nos lavamos las manos en agua de nube. Voy a decir esto último de una manera menos coloquial: nos declaramos inocentes usando la infraestructura tecnológica como excusa.

Y aquí está el truco perverso: la algolatría no necesita fanáticos. Necesita gente razonable, ocupada, que quiere hacer bien su trabajo, pero está abrumada. Gente que recibe 200 emails al día, que tiene cuatro reuniones traslapadas, que debe entregar el sprint antes del viernes. Para esa gente, para nosotros, el modelo no es un dios, es un asistente ejecutivo con esteroides. Y ahí es donde el culto se normaliza: no como devoción explícita, sino como dependencia funcional. Hasta que un día nos damos cuenta de que no sabemos tomar decisiones sin consultarle primero. Hasta que nos aterra la página en blanco porque ya no recordamos cómo se piensa desde cero.

Hay una escena que se repite en los equipos y empresas algolátricas: alguien propone hacer algo diferente, algo que requiere criterio humano, conversación lenta, deliberación ética. Y siempre hay una voz, normalmente la del gerente más ocupado, que interrumpe: "¿Podemos pedirle al modelo que genere opciones?" Y la sala exhala. Porque eso significa que nadie tiene que defender nada. Que podemos tercerizar el conflicto. Que el algoritmo cargará con el peso de la elección mientras nosotros seguimos en nuestras sillas giratorias, impolutas.

El problema no es la IA. El problema es que hemos confundido eficiencia con sabiduría, velocidad con claridad, predicción con comprensión. La algolatría convierte la predicción en profecía y la confianza en comodidad. Hasta que el oráculo se equivoca. Y entonces nos sorprendemos, indignados, como si hubiéramos olvidado que los modelos son espejos: reflejan lo que les mostramos, amplifican lo que somos. Si les mostramos sesgos, amplifican desigualdad. Si les mostramos prisa, amplifican errores. Si les mostramos cobardía moral, nos devuelven decisiones sin alma.

La salida de la algolatría no es abandonar la tecnología. Es volver a poner al humano, con sus dudas, su lentitud, su ética incómoda, en el centro del tabernáculo. Es recuperar el derecho a equivocarnos con nuestras propias manos. Es entender que una decisión tomada después de una conversación difícil vale más que mil outputs generados en milisegundos. Es atrevernos a decir "no sé" sin inmediatamente abrir el chat del modelo.

Porque al final, la algolatría no es un problema de ingeniería. Es un problema de valentía. Y eso, ningún transformer lo va a resolver por nosotros. Y es que la algolatría no nació del algoritmo, sino de nuestro miedo a pensar sin él: es la rendición elegante del juicio humano ante el espejismo de una certeza sintética.


 

Annexum Impium

Algunas manifestaciones de los algólatras incluyen:

1.      Toda reunión estratégica termina con "consultemos al modelo" y nadie cuestiona el output.

2.      Las decisiones de contratación, inversión o producto se basan en lo que dice el sistema, sin deliberación humana.

3.      Cualquier contenido generado por IA se acepta como válido sin revisión crítica.

4.      Los errores del modelo se justifican con "es que el prompt no estaba bien hecho" en lugar de cuestionar si la IA era apropiada para esa tarea.

5.      Se asume que más datos y más compute siempre producen mejores decisiones.

6.      La ética se reduce a "agregar una instrucción en el system prompt".

7.      Pensar que cualquier escéptico de la IA está "desactualizado" o "le tiene miedo al cambio".

8.      Las conversaciones difíciles se evitan pidiendo al modelo que genere "opciones neutrales".

9.      La responsabilidad se diluye: "yo solo implementé lo que sugirió el algoritmo".

10.  Creer que este artículo no habla de uno mismo, sino de otros.


miércoles, octubre 08, 2025

La insaciabilidad: Crónica de una humanidad que ya perdió

 

Ya no dormimos. Nuestros dedos se deslizan por la pantalla en la madrugada buscando "lo próximo" que nos salvará, que nos redimirá, que nos pondrá en la cima del mundo digital mientras el resto de la humanidad se desmorona en la obsolescencia. Hace unos días fue el lanzamiento de "lo último" de OpenAI, Eso está bien, supongo. Pero en realidad da lo mismo qué empresa sea, qué modelo, qué promesa. Ya saldrán los "very early adopters" a contarnos de sus primeras impresiones, una vez que lo usen, experimenten y obtengan los primeros resultados. Quizás yo sea uno de ellos. Pero no es eso lo que me quita el sueño.

Lo que me perturbó fue lo anterior. Los días previos. El crescendo de ansiedad colectiva: la insaciabilidad. Esa hambre feroz, desesperada, enfermiza de tener más, de saber más, de ser más antes que los demás.

Los "leaked news", los chismes, las especulaciones sobre un producto que nadie había tocado, como si fuera el Mesías técnico que nos salvaría del pecado original de la irrelevancia. Leí las predicciones apocalípticas: "Si no te subes a esta ola, morirás profesionalmente", "Las reglas del juego han cambiado para siempre", "Quien no adopte esto quedará atrás". Especulación con visos de agiotismo sobre algo intangible, invisible, prometeico. Y lo peor no es que se diga, lo peor es que lo creemos.

Creo que nos dejamos ganar, de una vez por todas y para siempre, del infame hype, del FOMO que nos carcome las entrañas, del miedo a quedarnos atrás mientras el mundo avanza sin nosotros. El nerviosismo, el estrés es tal que ya no nos sirven las miles de herramientas que existen a esta hora. Están ahí, funcionando, esperando ser dominadas, pero no nos interesan. No son suficientes. Nunca son suficientes. Esperamos, con la respiración contenida, las docenas de herramientas que aparecerán en las próximas horas, sabiendo en el fondo de nuestra alma que tampoco esas nos satisfarán. Y en esa carrera absurda, hemos perdido algo fundamental: la autonomía de decidir cuándo detenernos.

Esta es la insaciabilidad. No el hambre honesta que nos impulsa a crecer, sino la sed del que bebe agua de mar. Cada sorbo de innovación nos deshidrata más, nos vuelve más desesperados, más dependientes. Frenesí. Exaltación. Agitación. Excitación. Hoy hay orgasmos por el lanzamiento, eyaculaciones prematuras de entusiasmo ante capturas de pantalla y “demos” de cinco minutos. Mañana habrá paros cardíacos por la decepción, cuando descubramos que la herramienta milagrosa es solo eso: una herramienta, no un dios, no un salvador, no la respuesta definitiva a nuestra ansiedad existencial.

He estado en reuniones donde líderes tiemblan al hablar de IA. No por entusiasmo, sino por terror puro. El terror de que su competidor ya la está usando mejor, más rápido, más estratégicamente. El terror de que mientras ellos duermen, alguien más está experimentando, iterando, conquistando. Y ese terror se filtra en cada decisión, en cada estrategia, en cada presupuesto. Ya no preguntamos "¿Necesitamos esto?", sino "¿Qué pasará si no lo tenemos?". Hemos invertido la lógica del progreso: ya no buscamos mejorar, buscamos no empeorar.

Trabajamos para el algoritmo, vivimos para el timeline. Eso es lo peor, lo que verdaderamente me quita el aliento cuando lo pienso. Ya no usamos las herramientas; ellas nos usan. Producimos contenido para alimentar sus bases de datos. Optimizamos nuestras palabras para complacer sus sesgos. Modificamos nuestro pensamiento para alinearnos con sus patrones. Hemos invertido la ecuación fundamental de la tecnología y ni siquiera nos dimos cuenta del momento exacto en que sucedió. Simplemente un día despertamos y estábamos al servicio de las máquinas que supuestamente creamos para servirnos a nosotros.

Con eso, con ese momento imperceptible de rendición, la humanidad ya perdió. No perdió una batalla, perdió la guerra completa. Entregamos nuestra autonomía a cambio de eficiencia. Sacrificamos nuestra soberanía mental por conveniencia. Y lo peor es que lo hicimos voluntariamente, incluso con entusiasmo, convencidos de que estábamos siendo innovadores, disruptivos, visionarios.

He sido ese hereje. He intentado pausar, respirar, usar lo que ya tengo hasta dominarlo antes de saltar al siguiente brillo digital. Pero la presión es insoportable. Cada día, docenas de mensajes, artículos, videos sobre "lo nuevo" que cambiará todo. Y uno empieza a dudar. ¿Y si es cierto? ¿Y si esta vez sí es diferente? ¿Y si al no subirme a este tren, realmente me condeno a la irrelevancia? Esa duda es el gancho perfecto. Es el anzuelo que mantiene al pez nadando en círculos, siempre mordiendo, nunca saciándose.

Lo más irónico es que hablamos de inteligencia artificial, pero hemos perdido al menos parte nuestra inteligencia natural. La capacidad de discernir. De priorizar. De decir "no". Hemos tercerizado nuestro criterio a la masa, al consenso digital, al pánico colectivo. Si todos corren hacia algo, debe ser importante. Si todos hablan de algo, debe ser revolucionario. Pero nadie se detiene a preguntar: ¿revolucionario para quién? ¿Importante para qué?

Esta no es una crítica a la tecnología. Es un lamento por lo que nos hemos vuelto en su nombre. Adictos a la promesa, esclavos de la expectativa, prisioneros de nuestra propia insaciabilidad. Y mañana, cuando salga el siguiente modelo, el siguiente framework, la siguiente plataforma, volveremos a temblar, volveremos a correr, volveremos a perder un poco más de nosotros mismos en el proceso. Porque al final, el verdadero costo de la IA no se mide en dólares o en empleos perdidos. Se mide en la erosión silenciosa de nuestra capacidad de estar presentes, de estar satisfechos, de estar completos sin la próxima actualización.

No fue la inteligencia artificial la que nos reemplazó. Fue nuestra propia decisión de convertirnos en algoritmos humanos, predecibles, insaciables, siempre ejecutando la siguiente instrucción sin preguntarnos quién escribió el código.


 

sábado, septiembre 27, 2025

Cómo se usa ChatGPT en 2025

En este podcast, un resumen ejecutivo de un documento de investigación sobre el uso de ChatGPT, que detalla la rápida adopción global del chatbot desde su lanzamiento en noviembre de 2022 hasta julio de 2025. El estudio utilizó una metodología de preservación de la privacidad para clasificar millones de mensajes de usuarios, encontrando que para 2025, la mayoría de las consultas (alrededor del 70 %) no estaban relacionadas con el trabajo. Las tres categorías de conversación más comunes son Orientación Práctica, Escritura y Búsqueda de Información, y se observa que los usuarios más educados y con empleos profesionales tienen más probabilidades de usar el bot para tareas laborales, particularmente para recibir apoyo en la toma de decisiones (clasificado como "Preguntar"). Además, el estudio documenta que la brecha de género en el uso de ChatGPT se ha reducido significativamente y que la adopción ha crecido desproporcionadamente en países de ingresos bajos y medianos.

El estudio completo se puede descargar de https://www.nber.org/papers/w34255

https://youtu.be/RT6XqD1HPx0

martes, septiembre 23, 2025

El “Bidón pegajoso”: cuando la IA se convierte en el dopaje silencioso de las organizaciones

 

El campeón olímpico Richard Carapaz recibe asistencia del Mercedes de su equipo.

Hace poco finalizó la vuelta ciclística a España. Ya había escrito un artículo sobre la falacia del superhéroe multitarea y el costo oculto del «Siempre lo hemos hecho así», a propósito de una peligrosa práctica que realizan los directores de equipos ciclísticos que conducen los autos de los equipos.  Puedes encontrar el artículo en:

Vas a chocar y lo sabes: el síndrome del director ciclístico que está aniquilando tu producto – Lucho Salazar

Pues bien, en la penúltima etapa, un ciclista colombiano, Egan Bernal, fue sancionado por la práctica conocida como bidón pegado o pegajoso, un truco donde el auto del director se acerca, transfiere el bidón al ciclista y ambas manos “se pegan” al envase para dar al deportista un empujón extra, una maniobra que la organización considera como ventaja irregular y por la que Bernal recibió la multa.

Esto me recordó cómo hoy por hoy el “pelotón” corporativo avanza a ritmo frenético. Las métricas de productividad marcan el paso, los KPI dictan la cadencia, y en medio de esta carrera desenfrenada, aparece el auto del equipo con una solución aparentemente salvadora: la inteligencia artificial. Como en el incidente que protagonizó Egan Bernal en la Vuelta a España, en más de treinta años de experiencia he visto cómo en las organizaciones hay una línea delgada entre la asistencia legítima y el dopaje tecnológico. Con la IA, esa raya es cada vez más tenue.

Pensémoslo un poco. El CEO es el director deportivo, ansioso por resultados inmediatos. La solución de IA de turno es el carro del equipo, prometiendo velocidad y eficiencia. El bidón representa esas intervenciones puntuales: prompts prefabricados, automatizaciones express, dashboards predictivos. Y el ciclista agotado es el equipo humano, aferrándose con desesperación a cualquier cosa que le permita mantener el ritmo insostenible que exige el mercado.

Cuando la mano humana y la mano algorítmica quedan "pegadas" al mismo bidón digital, la organización experimenta una aceleración instantánea. Los informes se generan en segundos, el código se autocompleta, las decisiones se "optimizan" con modelos predictivos. En el corto plazo, parece una jugada maestra: las métricas suben, los costos bajan, los inversionistas aplauden. Pero este empujón artificial tiene un precio que pocas organizaciones están calculando.

Primero, está la atrofia de capacidades. Cuando los equipos dependen del "empujón" de la IA, sus músculos intelectuales se debilitan. La capacidad de análisis crítico, la creatividad para resolver problemas, el juicio profesional cultivado durante años: todo se erosiona cuando la respuesta siempre viene premasticada por un algoritmo. Es como el ciclista que olvida cómo remontar por sus propios medios porque siempre cuenta con el auto del equipo.

Segundo, surge una dependencia invisible pero peligrosa. ¿Qué sucede cuando el proveedor de IA cambia sus términos, cuando la regulación endurece las condiciones de uso, cuando un fallo técnico deja a la organización sin su muleta digital? El corredor queda solo en la carretera, sin la resistencia ni la técnica para continuar al ritmo que el mercado exige.

Tercero, aparecen las consecuencias éticas y reputacionales. Así como Bernal enfrentó multa y críticas, las organizaciones que abusan del "bidón pegado" digital enfrentan escrutinio regulatorio, pérdida de confianza del consumidor y cuestionamientos sobre la autenticidad de sus logros. ¿Es realmente innovación cuando el mérito es del algoritmo? ¿Qué valor tiene una victoria conseguida con ventaja artificial?

Está sucediendo a tutiplén. Empresas sancionadas por tratamiento indebido de datos biométricos [1], Amazon debió retirar su sistema de filtrado curricular cuando se identificó que discriminaba por género, al basarse en datos históricos sesgados [2]; bancos y otras empresas han sido víctimas de estafas donde directivos falsos, generados por IA en videollamadas, lograron transferencias millonarias, afectando la confianza y reputación de las compañías afectadas [3]; la manipulación de reseñas y opiniones en línea mediante IA pone en duda la legitimidad de la reputación digital de empresas y productos, deteriorando la confianza de los consumidores [4], entre muchos otros ejemplos son apenas la punta del iceberg de lo que está ocurriendo a raíz de esta ya infame práctica del “bidón pegajoso de la IA”.

Evidentemente, la solución no es prohibir la IA, debilitar su uso, ni mucho menos no usarla, sería como pretender eliminar los carros del ciclismo profesional. La IA es la herramienta más poderosa que la humanidad ha inventado, entonces lo que toca es redefinir las reglas del juego, establecer límites claros entre asistencia y dependencia, entre herramienta y muleta. Las organizaciones necesitan entrenar la resistencia cognitiva de sus equipos, mantener viva la capacidad de pensar y crear sin asistencia algorítmica, usar la IA como hidratación estratégica, no como propulsión artificial.

Es simple: cuando tu organización no puede funcionar sin el bidón pegado de la IA, no has construido ventaja competitiva: has comprado tiempo prestado. Y en el futuro próximo, las empresas que sobrevivan no serán las que mejor sepan agarrarse al algoritmo, sino las que aprendan a pedalear en el vacío cuántico donde la inteligencia artificial se vuelve tan ubicua que deja de ser diferenciador. La verdadera disrupción no es adoptar la IA; es saber competir cuando todos la tienen y nadie puede usarla como excusa.

¡Funciona para mí!

Referencias

[1] El mal uso de la inteligencia artificial en empresas.

[2] El mal uso de la inteligencia artificial en empresas.

[3] Mal uso de la inteligencia artificial: ejemplos y consecuencias.

[4] IA posible enemigo de la reputación de las empresas - Diario Libre.

jueves, septiembre 04, 2025

Vas a chocar y lo sabes: el síndrome del director ciclístico que está aniquilando tu producto

 

Imagen generada por IA

La falacia del superhéroe multitarea

Las carreras de ciclismo me parecen muy emocionantes. Me apasiona verlas. Pero imagina esto: un director deportivo conduciendo a 50 km/h por una carretera sinuosa de montaña, rodeado de miles de espectadores eufóricos, mientras simultáneamente entrega un bidón a un ciclista o una barra energética, grita instrucciones tácticas por radio y calcula mentalmente los tiempos de carrera. Todo esto mientras "conduce" un vehículo de dos toneladas. ¿Suena demencial? Bienvenido al mundo del ciclismo profesional, donde esta práctica suicida se defiende con el argumento más peligroso de la historia empresarial: el infame "siempre lo hemos hecho así".

Esta locura ciclística es el espejo perfecto de lo que está destruyendo silenciosamente nuestras organizaciones tecnológicas. Y no, no estoy exagerando.

En el desarrollo de software moderno, especialmente en entornos "ágiles", vemos el mismo patrón destructivo. El Product Owner que está en cuatro reuniones simultáneas mientras "define" la hija de ruta del producto. El Scrum Máster que facilita retrospectivas mientras programa y hace pruebas "para ayudar al equipo". El líder técnico que hace revisión de código mientras está en una llamada con el cliente explicando por qué el sprint falló... otra vez.

¿El resultado? El mismo que cuando el director ciclista inevitablemente choca: desastre total. Solo que en nuestro caso no son huesos rotos, son productos digitales que nacen muertos, equipos quemados y millones en alguna moneda evaporados en iniciativas que nunca debieron existir.

Pero la multitarea tiene un costo mucho más grave, uno que prácticamente es irrecuperable. Para saber cuál es, por favor, lee mi artículo El verdadero costo de la multitarea en mi Gazafatonario:

El costo de hacer multitarea - Gazafatonario IT

Ahora les hablaré de otro costo oculto en nuestras prácticas tradicionales.

El costo oculto del "Siempre lo hemos hecho así"

Aquí viene la parte que duele: las organizaciones que presumen de ser "ágiles" y "lean" son las peores infractoras. Han convertido los marcos de trabajo en religiones, los roles en títulos nobiliarios y los eventos en rituales vacíos.

Lo escucho a cada rato, con aire de orgullo: "Mi CTO está en las reuniones importantes, revisa todo el código y además lidera la estrategia de IA". Al preguntar: "¿Y cuándo piensa?", el silencio se hace incómodo. Porque claro, pensar no está en el backlog.

La ironía salta a la vista. Lean nos enseña a eliminar desperdicios, pero mantenemos a nuestros mejores talentos haciendo malabarismo con tareas incompatibles. Scrum habla de foco y compromiso, pero nuestros Product Owners están tan dispersos que no podrían reconocer una propuesta de valor ni aunque les pegara fuerte en la cara.

No creas que la IA no va a salvarte, va a exponerte. Y es que, con la explosión de la IA generativa, la situación se vuelve tragicómica. Veo equipos implementando GitHub Copilot mientras su arquitectura base es un desastre o gerentes pidiendo "meter IA" en productos que aún no logran encajar en el mercado.

La IA amplifica. Si tu proceso de desarrollo es caótico, la IA lo hará caóticamente más rápido. Si tu Product Owner no entiende el problema del usuario, ChatGPT le ayudará a no entenderlo con párrafos más elegantes.

El antídoto: separación radical de responsabilidades

Imagen generada por IA

Volvamos al ciclismo por un segundo. La solución es simple: el conductor conduce, punto. Otro miembro del equipo maneja la logística con los ciclistas. ¿Revolucionario? No. ¿Sensato? Absolutamente. En nuestras organizaciones tecnológicas, necesitamos la misma claridad brutal:

El Product Owner debe obsesionarse con el usuario. No con Jira, no con las reuniones diarias, no con el código. Su trabajo es entender tan profundamente al usuario que pueda predecir sus necesidades antes que ellos mismos. Si está en más de dos eventos al día, hay síntomas de intoxicación.

El Scrum Máster facilita, no ejecuta. Si está probando, no está observando las dinámicas del equipo. Es como un psicólogo que está tan ocupado tomando pastillas que no escucha a sus pacientes.

Los desarrolladores desarrollan. No están en reuniones de estrategia de negocio. No están vendiendo al cliente. Están resolviendo problemas técnicos complejos, lo cual, sorpresa, requiere concentración profunda y tiempo ininterrumpido.

Intenta lo siguiente: imagina que cada vez que alguien en tu organización hace multitarea con responsabilidades críticas incompatibles, está literalmente conduciendo un carro a alta velocidad mientras mira el celular. ¿Cuántos accidentes tendrías al día?

Ese error crítico en producción que costó mucho en ventas perdidas: accidente por conducir distraído. Esa funcionalidad que nadie usa después de 6 meses de desarrollo: choque frontal por no mirar la carretera. Ese equipo estrella que renunció en masa: volcadura por intentar cambiar de carril en zona prohibida.

Las organizaciones que sobrevivirán la próxima década no serán las que tengan la mejor tecnología o los frameworks más modernos. Serán las que tengan el coraje de decir: "Esto que hacemos es estúpido y peligroso, y vamos a parar".

Serán las que entiendan que un Product Owner enfocado vale más que diez "haciendo de todo un poco". Que un equipo de desarrollo con 4 horas diarias de concentración profunda produce más valor que uno en reuniones perpetuas. Que la IA es una herramienta, no una varita mágica.

Mi advertencia final

Si tu organización sigue operando como el director ciclístico, haciendo malabarismo con responsabilidades críticas incompatibles mientras acelera hacia el futuro, la sacudida será inevitable. La única pregunta es: ¿será un raspón del que puedan recuperarse, o será el accidente que los saque definitivamente de la carrera?

El ciclismo profesional puede darse el lujo de ser torpemente tradicional porque el espectáculo vende. Tu empresa no tiene ese privilegio. En el mundo del desarrollo de productos digitales, los dinosaurios no se extinguen lentamente; desaparecen en un trimestre malo.

Así que la próxima vez que veas a alguien intentando ser el superhéroe multitarea, recuerda al director ciclista entregando bidones mientras serpentea entre la multitud. Y pregúntate: ¿realmente queremos esperar al choque para cambiar?

La física no perdona. El mercado tampoco.

miércoles, agosto 27, 2025

Pequeñas leyes, grandes transformaciones

 Pequeñas leyes, grandes transformaciones

O de cómo aplicar “Las pequeñas leyes de la vida” a cambios ágiles, digitales y con IA

El despliegue de software en horarios no aptos para personas

Para saber qué y cómo cambiar hay que conocer y entender lo que nunca cambia. Ese es el punto de partida. Nos obsesionamos con anticipar el futuro, con seguir la última moda tecnológica o el marco de trabajo recién publicado. Pero rara vez nos detenemos a mirar lo que permanece, lo que resiste, lo que no se mueve, aunque el mundo gire más rápido. Yo suelo decir que estoy en el oficio del cambio organizacional. Pero, en el fondo, lo que he hecho es aprender cada día a escuchar lo que no cambia en las personas, en los equipos y en las organizaciones, y usarlo como ancla para que el cambio sea posible.

El libro “Lo que nunca cambia” de Morgan Housel me recordó, con anécdotas simples, que las pequeñas leyes de la vida gobiernan más de lo que pensamos. Lo menciono porque he visto que eso mismo ocurre en las transformaciones empresariales: cambian las herramientas, cambian los discursos, cambian los consultores. Pero lo humano sigue ahí, con sus miedos, sus deseos y sus incentivos. Y si olvidamos eso, lo digital y lo ágil y, más recientemente, la IA se vuelven maquillaje pasajero.

Dejé de desarrollar software hace más de dos décadas, pero los problemas más frecuentes en tecnología de entonces venían de desplegar sistemas en unos días y en unas horas inverosímiles, como un viernes por la tarde o un domingo a las 5 a. m. Hoy, con nubes más rápidas y metodologías más sofisticadas, la historia se repite: seguimos sufriendo por desplegar en esas fechas y horarios inauditos para nuestra humanidad. Cambian los escenarios, pero no cambian los patrones. Lo que nunca cambia es más fuerte que lo que creemos controlar.

Por eso he convertido esto de entender lo que nunca cambia en un mantra y en las empresas donde he logrado que esto se acepte como una realidad, el cambio organizacional dejó de ser una carrera por inventar lo que sigue y se convirtió en un ejercicio de diseñar con base en lo que siempre estará ahí. Una empresa que entiende sus constantes humanas no necesita adivinar el futuro, porque sabe que, pase lo que pase, la gente buscará seguridad, autonomía, reconocimiento, sentido y progreso.

Leyes pequeñas que sostienen cambios grandes

Antes de hablar de prácticas, te conviene aceptar algo: las grandes transformaciones no se sostienen en estrategias grandilocuentes, mucho menos en presentaciones coloridas ante la alta dirección, sino en leyes pequeñas que se cumplen día tras día. He estado en ambos extremos. No se trata de discursos inspiradores un jueves por la mañana que olvidamos al lunes siguiente, sino de verdades sencillas que marcan el pulso de cualquier cambio. Son esas pequeñas leyes las que me sirven de brújula cada vez que acompaño a una organización. Cuando logro que sean visibles, todo lo demás fluye con más naturalidad.

La gente sigue siendo gente. No sirve de mucho pedir mentalidad ágil si el sistema invita a trabajar de forma lenta y burocrática. Es más fácil que las personas cambien cuando el entorno les facilita hacerlo. Si trabajar de manera ágil reduce esfuerzo, reduce conflictos y mejora resultados, entonces lo ágil será la primera opción, no un discurso motivacional.

El riesgo que derrumba no siempre se ve. He trabajado en cinco décadas distintas. Y, a propósito de lo que nunca cambia, he visto que los grandes problemas rara vez vienen de una falla monumental y visible. Llegan como una suma de descuidos: una alerta silenciada, un proceso sin dueño, una validación ignorada. Con inteligencia artificial es lo mismo, basta un pequeño error en la formulación de un pedido para que el sistema alucine respuestas y cause daños serios. La prevención está en mirar donde casi nunca se mira.

Lo que se acumula, pesa. Las mejoras pequeñas, hechas con constancia, transforman una organización. Los descuidos pequeños, tolerados por costumbre, también lo hacen. Nada crece en línea recta: todo se compone y se multiplica. De ahí la importancia de medir ritmos, no promedios. De tratar la transformación como un jardín que necesita riego, poda y paciencia.

Las historias mandan más que los números. Un comité puede ignorar un análisis financiero impecable, pero no puede resistirse a la historia de una persona enfrentando a diario la misma frustración. Los números convencen, pero las historias movilizan. Cada transformación necesita relatos breves, claros, capaces de mostrar quién se beneficia y cómo se siente cuando algo mejora.

Un colega me contó hace poco que un comité le negó presupuesto para mejorar un sistema, porque en las cifras no veían retorno. Un mes después volvió con un video: una agente de soporte repitiendo la misma acción manual cuarenta veces al día. La petición era la misma, pero la historia distinta. Y esta vez, aprobaron de inmediato. He estado allí.

Crecer antes de tiempo reduce lo que importa. Nada destruye más un proyecto que escalarlo demasiado pronto. Lo aprendimos con sangre tratando de “escalar ágil” y lo estamos repitiendo con IA generativa: lanzar una solución inmadura a toda la organización puede ser un suicidio. El cambio responsable necesita ensayos pequeños, pilotos controlados, pruebas que permitan aprender sin arrasar con la confianza. Y todo ello toma tiempo.

Las cicatrices gobiernan el presupuesto. Una organización que ha sufrido un susto fuerte nunca vuelve a ser la misma. La memoria emocional pesa más que cualquier discurso. No sirve tratar de borrarla: hay que diseñar con ella. Crear espacios seguros para probar, compromisos reversibles y planes de contingencia que devuelvan tranquilidad.

Construir sobre lo que no cambia. Este es el quid de la cuestión. Los clientes siempre querrán rapidez, claridad, precio justo y confianza. Los empleados siempre buscarán autonomía, maestría y propósito. Invertir en estas constantes es más poderoso que perseguir modas pasajeras. La agilidad pasará, pero la colaboración, la entrega temprana y frecuente, la reflexión y la mejora continua se quedan. Los modelos de IA pasarán, pero los datos limpios, la transparencia y la seguridad se quedan.

La variación da fuerza. Nadie sabe cuál experimento será el ganador. La única estrategia sensata es probar mucho, a bajo costo, y cerrar rápido lo que no funciona. Esparcir semillas y preparar el suelo: algunas no crecerán, otras se convertirán en árboles.

Preguntar siempre: ¿y luego qué? Cada decisión trae consecuencias directas e indirectas. Lo sabemos de sobra: un bot puede reducir a la mitad el tiempo de respuesta, pero aumentar las llamadas repetidas porque las respuestas son incompletas. Antes de celebrar un resultado, hay que preguntarse qué efecto oculto vendrá después.

Un mapa para sostener transformaciones


Una transformación real no depende de planes perfectos. Se construye con equipos enfocados, con ritmos cortos y sostenibles, con datos que muestran la realidad completa, con reglas pocas y claras. Se construye midiendo lo esencial y aceptando que fallar barato es mejor que acertar tarde. Y, sobre todo, se construye diseñando para lo que nunca cambia.

Para mí, un mapa de transformación comienza con algo sencillo: definir con claridad el propósito, y narrarlo en palabras que cualquiera en la organización pueda repetir sin confundirse. Luego, dar a los equipos foco y autonomía real, con límites claros que eviten la dispersión. Después, sincronizar ritmos, cadencias y compromisos, de forma que la empresa respire al mismo tiempo y no como un conjunto de islas.

Ese mapa también incluye algo más profundo: una manera distinta de gobernar. No con controles asfixiantes ni con promesas grandiosas, sino con reglas mínimas, con decisiones rápidas en lo reversible y con más cuidado en lo que deja cicatrices. Y, por encima de todo, con incentivos alineados: porque si los premios contradicen los discursos, la cultura se convierte en hipocresía.

Y hoy por hoy, un mapa de transformación necesita la humildad de los líderes para aceptar que la inteligencia artificial es herramienta y no tótem. Muy poderosa, pero herramienta, al fin y al cabo. Sirve para aliviar dolores y multiplicar capacidades, pero no para tapar vacíos de liderazgo ni excusar la falta de estrategia. La IA es poderosa cuando se usa con datos confiables, con transparencia y con límites claros.

Mi llamado a la acción

Yo no creo que las organizaciones sobrevivan por adivinar lo que viene. Creo que sobreviven porque responden mejor cuando lo inesperado golpea. Cambiar con rapidez es valioso, pero diseñar sobre lo que nunca cambia es lo que sostiene. Ese es el verdadero oficio del cambio: aprender a escuchar lo que no se mueve, y desde ahí, moverse mejor.

Así que mi invitación es simple: miren de frente a sus constantes, háganlas visibles, conviértanlas en cimiento. Y luego, construyan cambios encima, sabiendo que, pase lo que pase, hay un suelo firme que no se derrumba. Ese es el cambio que vale la pena.

Es definitivo: el cambio nos excita, lo constante nos sostiene. Quien diseña solo para lo primero vuela; quien diseña también para lo segundo aterriza.

jueves, julio 31, 2025

Cuando la agilidad se "quema": las verdades incómodas que Alistair nos regaló

Alistair compartiendo historias. Fotos de Rose Restrepo.

Alistair Cockburn es uno de los 17 firmantes del Manifiesto Ágil. Conocí vagamente su método Crystal Clear, pero muy profundamente su enfoque con los casos de uso, base de mi trabajo durante casi una década y que a la postre me sirvió para publicar mi segundo tomo de Asuntos de la Ingeniería de Software. Es autor de sendos libros, autor de El corazón de la agilidad (Heart of Agile) y en años recientes tuve la oportunidad de colaborar con él en la traducción al español de algunas de sus conferencias alrededor del mundo.

A Alistair le gusta viajar y pisa tierras suramericanas cada vez que puede. Ahora incluso tiene más razones para ello, aunque no me corresponde decirlo. Esta vez, en medio de sus vacaciones, tuvimos la increíble oportunidad de conversar con él en una sesión extraordinaria: "Respondiendo preguntas con historias" con Alistair Cockburn, una iniciativa de las Comunidades Ágiles Colombia y el Corazón de la Agilidad Latinoamérica que lideró nuestra amiga Rose Restrepo.

Alistair no llegó con PowerPoints bonitos ni con frameworks de moda. Llegó con historias crudas y verdades que duelen. Y la primera bomba que soltó fue devastadora: la agilidad como término está "quemada". Pero la expresión clave allí es “como término”. Entraré en detalle de esta y algunas otras cosas que mencionó. Seguramente algunos asuntos quedarán por fuera de este resumen, pero al final, enumeraré las conclusiones que leí esa noche al cierre de la sesión.

La dura realidad de una palabra prostituida

¿Saben qué significa que algo esté "quemado"? Significa que ha sido usado tanto para la autopromoción que perdió su esencia real. Cuántas veces hemos visto consultores, gerentes y "expertos" vendiendo agilidad como si fuera el último iPhone, prometiendo transformaciones mágicas que nunca llegan.

Pero aquí viene lo brutal: Cockburn admite que no han encontrado una palabra mejor. Estamos atrapados con un término degradado porque, irónicamente, sigue siendo la mejor descripción de lo que realmente necesitamos.

La solución que propone es elegantemente simple y dolorosamente práctica: el Corazón de la Agilidad reducido a cuatro palabras que cualquier niño puede entender: "Colabora", "Entrega", "Reflexiona" y "Mejora". No necesitas certificaciones costosas para esto. No necesitas frameworks complejos. Solo necesitas estas cuatro acciones, punto.

Para saber más sobre el Corazón de la agilidad, puedes leer mi artículo en: Mis notas sobre el Corazón de la Agilidad - Gazafatonario IT.

La inteligencia artificial: el nuevo elefante en la sala

Y entonces llegamos al tema que nos tiene a todos despiertos por las noches: la IA. Cockburn no se anda con rodeos: "la IA cambiará todos los roles". Project managers, Scrum Masters, coaches, programadores, testers. Todos. Sin excepción.

Pero aquí está la parte que reafirma lo que ya hemos hablado en distintos foros: no se trata de si la IA nos va a reemplazar. Se trata de cómo van a cambiar las conversaciones dentro de las empresas. Porque ahora tenemos una "tercera persona" en nuestras colaboraciones: el ChatGPT, el asistente IA, la máquina que puede generar código en segundos.

El problema es que esos segundos se convierten en horas o días cuando intentas conectar ese código con la realidad: bases de datos, sistemas legados, integraciones que son más frágiles que una relación de adolescentes. La IA no es magia, es un asistente muy sofisticado que puede "inventar cosas" si no tienes cuidado.

A propósito, no me gustó que haya usado la palabra “persona” para referirse a la IA, pero quizás es asunto de su español no tan perfecto, aunque lo hace muy bien, así que no le reclamé nada en ese sentido.

La métrica que nadie quiere medir (pero debería)

Aquí viene una de las revelaciones más impactantes de toda la sesión. Alistair, que empezó como metodólogo en 1991, nos suelta esta bomba: es imposible medir la productividad de un programador.

¿Por qué? Porque somos demasiado inteligentes para nuestro propio bien. Cualquier métrica que inventes, nosotros encontraremos la manera de "hacer trampa" con ella. ¿Líneas de código? ¿Puntos de historia? ¿Velocidad? Todo es manipulable. Y estoy siendo literal en buena parte de este artículo con los términos y expresiones que él usó, algunas incluso en inglés.

Pero existe UNA métrica que sí importa, una que puede destruir cualquier productividad sin importar qué tan "ágil" seas: las interrupciones por día. Con solo tres interrupciones diarias, tu productividad se va a cero. Y aquí está el problema: nadie quiere medir esto porque significa admitir que nuestras organizaciones están diseñadas para matar la productividad.

Así que te reto, a ti, gerente de proyecto, jefe, Scrum Master, facilitador, coordinador: mide las interrupciones por día a tu equipo y cuéntanos cómo te va. Si el asunto es grave, siempre puedes leer mi artículo illegitimus non-interruptus - Gazafatonario IT.

La fusión de roles: cuando menos es más

Una de las preguntas más prácticas de la sesión fue sobre la fusión de roles: ¿puede una persona ser Product Owner, Product Manager y Project Manager al mismo tiempo? La respuesta de Cockburn fue refrescantemente directa: "No veo ningún problema".

En empresas pequeñas de tres a cinco personas, esta fusión no solo es normal, es necesaria. El purismo de roles separados es un lujo que muchas organizaciones no pueden permitirse. Y honestamente, ¿no es mejor tener una persona que entiende el panorama completo que tres personas que se pasan el día coordinándose?

El Manifiesto Ágil: perfecto pero forzado

Aquí viene otra verdad incómoda: el Manifiesto Ágil fue diseñado para equipos y proyectos, no para grandes empresas. Cuando intentamos forzar sus principios a organizaciones masivas, estamos pidiendo problemas.

Los valores del manifiesto siguen siendo "perfectos, nada cambia", según Cockburn. Pero aplicarlos a una empresa de 10,000 empleados es como usar un bisturí para cortar un árbol: la herramienta es excelente, pero no para ese trabajo.

Micromejoras: la revolución silenciosa

Para las organizaciones tradicionales y estructuradas, Cockburn propone algo que suena aburrido pero es revolucionario: micromejoras continuas y pequeñas. No puedes cambiar una cultura organizacional de golpe, pero puedes mejorar la calidad de una conversación, de una reunión, de una interacción a la vez.

Es menos sexy que una "transformación ágil" completa, pero es infinitamente más real y sostenible. En este sentido, puedes leer mi artículo Microhábitos para macroimpactos: cómo los hábitos atómicos contribuyen a la sostenibilidad de la transformación organizacional – Lucho Salazar e incluso descargar una presentación que hice algún tiempo.

El Project Manager que sobrevive

En este nuevo mundo híbrido, el gerente de proyecto que sobrevive no es el que controla presupuestos o reportes. Es el que se enfoca en tres cosas fundamentales: bloquear interrupciones para el equipo, garantizar la calidad de la comunidad (comunicación, confianza, educación) y publicar el proyecto a los dirigentes.

La función más importante no es la planificación ni el control. Es la calidad de la comunidad dentro del equipo. Porque sin confianza, sin comunicación real, sin educación continua, no hay framework que te salve. Sin confianza no hay comunicación, sin comunicación nunca llegaremos al “Colabora” del Corazón de la Agilidad.

Mi reflexión final

Al final de esta sesión extraordinaria, una verdad emerge con claridad brutal: la agilidad real no está en los frameworks ni en las herramientas de moda. Está en la calidad de nuestras conversaciones, en nuestra capacidad de adaptarnos sin perder la humanidad, y en nuestro coraje para admitir que la mayoría de lo que llamamos "ágil" es solo teatro corporativo.

Y lo que yo derivo de todo esto: la IA cambiará todos los roles, pero si no arreglamos primero la calidad de nuestras conversaciones humanas, solo automatizaremos la mediocridad. Y eso, mis amigos, no es agilidad... es tragedia con mejor tecnología.

¡Gracias, Alistair por una gran conversación!

 

Los asistentes deleitándonos con las historias de Alistair. Foto de Dennis Arias.

Suplemento: Notas de Lucho sobre “Respondiendo preguntas con historias, por Alistair”

Sobre “la agilidad murió”

Más allá de agile no hay algo mejor. “Dime si hay algo mejor”.

Sobre IA

¿Quién firma las decisiones?

La IA cambiará los roles, pero ¿cómo se cambian las conversaciones en la empresa?

La IA hace instantánea la agilidad.

Sobre gestión híbrida de proyectos

¿Qué hace o puede hacer un jefe de proyectos sin burocracia?

·       Bloquear interrupciones al equipo

·       Garantizar la calidad de la comunidad (el equipo y su entorno)

·       Publicar el proyecto a los dirigentes.

Sobre varios roles en una sola persona

Product Owner + Product Manager + Project Manager

¡Es normal!

Sobre el Manifiesto Ágil

Fue un resultado orgánico.

Si una persona más o una persona menos hubiese participado el resultado hubiera sido completamente distinto.

Fue una elección por unanimidad.

Había muchas cuestiones, muchos valores, ¡elegimos cuatro! “Puedo vivir con estos cuatro valores”.

Un ejercicio interesante es lograr eso en tu propio equipo.

El Manifiesto fue elaborado para equipos y proyectos. No para empresas, sobre todo grandes.

Sobre Scrum

El Scrum original es ágil. Scrum es un espejo.

Las personas no quieren verse en el espejo porque ven sus problemas. Scrum no propone soluciones.

Sobre empresas o estructuras liquidas

No es posible ser “líquido” en ciertos entornos.

Ser líquido puede ser un impedimento para la agilidad.

Sobre productividad y métricas

Si no miden interrupciones por día a un programador, no tienen nada.

Porque las interrupciones (dos o tres) pueden bajar considerablemente la productividad.

Sobre otros aspectos

Los gerentes quieren dinero e influencia.

Usaron la agilidad para subir sus bonos.

Con la IA es lo mismo.

Lo que puedes hacer es mejorar la calidad de vida en tu entorno.


Podcast resumen

Aquí puedes escuchar este breve podcast con el resumen de todo lo anterior.

lunes, junio 09, 2025

Bajo el mando de un loro parlanchín: la gran ilusión de la IA pensante

 

La inteligencia artificial vive una época dorada de atención mediática y expectativa popular. No hay semana sin una nueva declaración de que estamos "cerca" de la AGI (inteligencia artificial general), sin titulares que anuncian que una IA fue nombrada CEO, sin startups valoradas en millones por usar un bot que escribe correos o genera código. Pero... ¿pensamos realmente en lo que significa "inteligencia"?

Lo realmente hermoso de todo esto es que estamos aprendiendo a pasos enormes. Hace poco escribía "El día en que la IA se volvió prescindible… de nosotros" y "¿El fin de la Ingeniería de Software como la conocemos?" que puedes encontrar en este mismo Gazafatonario y donde exponía, basado también en sendas investigaciones, el poder de la IA y cómo esta herramienta (que no deja de serlo) se está desligando cada vez más de nosotros, los seres humanos.

Ahora iré por otro camino. Y es que una investigación reciente, "La ilusión de pensar" de Apple*, desnuda las limitaciones actuales de estos modelos de lenguaje que tanto nos fascinan. A través de pruebas estructuradas como la Torre de Hanoi, juegos de fichas o rompecabezas lógicos, los investigadores demostraron que, al aumentar un poco la complejidad de la tarea, estos sistemas colapsan. No se equivocan un poco: fallan por completo.

Vamos un poco más allá.

El loro que parece pensar

Imagina un loro muy entrenado. Puede repetir frases con una entonación asombrosa, puede imitar una conversación humana, e incluso lanzar frases graciosas. Pero no sabe lo que dice. No comprende el significado de "llama a un taxi" o "aprueba el presupuesto". Solo asocia patrones de sonidos con recompensas. Esa es, en esencia, la forma en que operan los grandes modelos de lenguaje: predicen la siguiente palabra probable en una cadena, sin comprender el contenido como lo hace un humano.

Entonces, ¿cuándo un loro deja de ser loro y se convierte en pensador? La respuesta no está en la cantidad de palabras que puede decir, sino en si puede razonar, planificar, corregirse, ejecutar una idea paso a paso y adaptarse cuando algo falla. Y ese es justamente el terreno donde los modelos actuales tropiezan.

Ese es el meollo del trabajo de Apple. El estudio señala un fenómeno curioso: cuando enfrentan tareas simples, los modelos de IA que supuestamente razonan, mediante la generación de cadenas de pensamiento paso a paso, tienden a extender innecesariamente su "pensamiento", buscando más de lo necesario y a veces terminando en error. Y cuando la tarea se vuelve realmente compleja, en lugar de esforzarse más, tienden a recortar su razonamiento.

Me recuerda a muchos estudiantes que he tenido o acompañado, quienes, frente a un problema difícil, tomaron la decisión de pensar menos en lugar de más. Pero con las IA no solo pasa eso. Incluso cuando se les entrega el algoritmo exacto para resolver el problema, muchos modelos no logran ejecutarlo bien. No es cuestión de no saber qué hacer, sino de no saber hacerlo bien.

CEO artificial o placebo tecnológico

Ahora volvamos a esas startups que han ensayado poner una IA como CEO. Sin duda alguna suena futurista, radical. Pero si entendemos que esa IA no tiene conciencia, ni juicio propio, ni capacidad para razonar sobre el largo plazo, ni responsabilidad legal, la designación es solo decorativa. Es como poner una estatua de Einstein al frente de un laboratorio y decir que él toma las decisiones o hace los experimentos. Al final, son humanos quienes entrenan al modelo, diseñan sus datos de entrada y deciden cuándo y cómo usar sus respuestas. El "CEO" artificial no tiene ni voluntad ni intención. No gestiona. Es gestionado. No lidera.

Decir que estamos cerca de una AGI porque una IA responde como humano en una entrevista o redacta un ensayo aceptable es tan ingenuo como creer que Siri es médico por decirnos que tomemos agua cuando tenemos tos.

El verdadero poder (y uso) de la IA hoy

Otra vez: no me entiendas mal. La IA es la herramienta más poderosa que la humanidad ha inventado. No tengo ninguna duda de ello. Ya hay algunas por allí que pueden detectar patrones invisibles al ojo humano en medicina y revelar algo tan complejo como un cáncer o incluso predecir tu siguiente estado de salud. Y, en general, lo más alucinante de la IA es que te hace mejor en lo que haces.

Pero no estamos cerca de una máquina que piense como yo o como tú o como un niño pequeño. Sin embargo, eso no significa que la IA actual sea irrelevante. Al contrario, su poder precisamente está en que puede amplificar nuestras capacidades humanas, no reemplazarlas. Puede ayudarnos a escribir más rápido, resumir grandes cantidades de información o generar opciones creativas. Pero necesita dirección, juicio, supervisión.

Usar IA como copiloto tiene sentido. Usarla como piloto es, por ahora, una apuesta ciega.

El estudio que he señalado dice que debemos enfocar la evolución de estos sistemas en mejorar su capacidad de ejecución precisa, su comprensión real de reglas lógicas, su habilidad para planificar y corregirse, y en entender cómo y cuándo usar cadenas de pensamiento. Hay que ir más allá del “hype”, de la fascinación superficial por respuestas fluidas y mirar si realmente hay comprensión detrás.

Eso sí, como civilización, corremos el riesgo de enamorarnos de una fantasía: sentir que ya creamos una inteligencia capaz de pensar, decidir y liderar. Pero el pensamiento verdadero no es repetir respuestas correctas, sino saber por qué algo es correcto, saber cambiar de opinión ante nueva evidencia, saber decir "no sé" y aprender. Y eso, por ahora, está muy lejos del alcance de cualquier IA disponible.

Así que es definitivo: cuando los ecos se confunden con voces, dejamos de escuchar. Y cuando el algoritmo simula pensamiento, corremos el riesgo de obedecer al eco creyendo que razona... La inteligencia del futuro no se medirá por lo que dice, sino por lo que es capaz de entender, cambiar y construir.

 

*“The Illusion of Thinking: Understanding theStrengths and Limitations of Reasoning Models via the Lens of ProblemComplexity”.

 

Podcast

Como siempre, aquí puedes escuchar una breve explicación del artículo, pero, sobre todo, del trabajo de los investigadores de Apple. 

domingo, mayo 25, 2025

La ciencia del progreso: Navegando el cambio con métricas, OKR, KPI y modelos de madurez

 La ciencia del progreso: Navegando el cambio con métricas, OKR, KPI y modelos de madurez


Hoy por hoy, los equipos digitales avanzan a velocidad “cuántica” y están inmersos en escenarios donde no medir es navegar sin instrumentos. Pero medir por medir, sin dirección ni propósito, es igual de peligroso. Las métricas, los OKR (Objectives and Key Results), los KPI (Key Performance Indicators) y los modelos de madurez no son solo herramientas: son sistemas vivos que nos ayudan a hacer visibles los patrones del progreso.

Estas herramientas se articulan y complementan y pueden usarse de forma estratégica para potenciar procesos de mejora continua, impulsar la innovación y alinear a toda la organización hacia un propósito común. Mi primer mensaje aquí es “mide para mejorar”, incluso voy a ir más allá: “mide solo para mejorar”. Axiomático.

Métricas que importan: Menos es más (si mides lo correcto)

Las métricas no son todas iguales. Algunas reflejan directamente el estado del negocio, otras el impacto real del producto sobre los usuarios, y otras el funcionamiento interno del equipo de trabajo (métricas de proceso o flujo). Entender esta diferencia es clave para seleccionar aquellas métricas que realmente generen valor.

Ejemplos prácticos:

  • Métrica de negocio: Tasa mensual de retención de clientes.
  • Métrica de producto: Porcentaje de usuarios activos que utilizan una nueva funcionalidad.
  • Métrica de equipo: Tiempo promedio desde que se inicia hasta que se entrega una funcionalidad (lead time).

Criterios para buenas métricas:

  • Deben influir activamente en la toma de decisiones estratégicas o tácticas.
  • Son consistentes y comparables a lo largo del tiempo.
  • Pueden ser influenciadas o gestionadas directamente por los equipos responsables.

Es definitivo, una métrica sin contexto es como una fiebre sin diagnóstico: te alarma, pero no sabes qué hacer.

KPI y OKR: herramientas complementarias, no intercambiables

A grandes rasgos, OKR (Objectives & Key Results) es un marco de fijación de metas que combina un objetivo cualitativo (“qué queremos lograr”) con resultados clave cuantitativos (“cómo mediremos el progreso”). Su propósito es impulsar la ambición y la innovación, alineando a la organización en torno a retos inspiradores y medibles.

Entre tanto los KPI (Key Performance Indicators) son métricas operativas que siguen el desempeño de procesos críticos y el estado de salud del negocio y su propósito esmonitorear y mantener resultados clave del día a día, garantizando estabilidad y eficiencia.

En otras palabras, los KPI son indicadores de salud. Los OKR son marcos de ambición. Mientras que los KPI están diseñados para vigilar, en el sentido de gestionar, el desempeño continuo y asegurar la estabilidad operativa, los OKR están orientados a provocar el cambio, establecer metas visionarias y fomentar la alineación estratégica.

Por ejemplo, si diriges un restaurante, un KPI puede ser “Tasa de ocupación del 80 %” y un OKR sería: “Objetivo: Convertirnos en el restaurante más recomendado de la zona. Resultado clave: Aumentar reseñas 5 estrellas de 120 a 200 en 3 meses.”

Para saber más sobre OKR puedes ver mi presentación introductoria:

Conociendo OKR - Gazafatonario IT.

También mi artículo: La furia de los OKR - Gazafatonario IT.

Y este otro, donde propongo un modelo en forma de pirámide de cuatro niveles: OKR y la estrategia emergente en la empresa moderna – Lucho Salazar.

Tabla comparativa:

Aspecto

OKR

KPI

Propósito

Generar cambio significativo

Evaluar desempeño sostenido

Horizonte

Temporal, evolutivo, por ciclos, adaptativo

Continuo, estable, de seguimiento

Ambición

Inspiradores, retadores y visionarios

Realistas, específicos y controlables

Naturaleza

Orientados a resultados clave transformacionales

Basados en indicadores constantes y operativos

Usa OKR para mover la aguja, es decir, para provocar movimiento estratégico con metas claras. Usa KPI para saber si la aguja vibra, o sea, para observar estabilidad operativa y mantener el pulso del negocio.

Modelos de madurez: El mapa no es el territorio, pero ayuda a cruzarlo

Los modelos de madurez describen etapas progresivas en áreas clave como liderazgo, tecnología, cultura, procesos, agilidad y capacidades de aprendizaje organizacional. Aunque no sustituyen la realidad, ofrecen una guía clara para comprenderla y diseñar un camino evolutivo sostenible.

Ejemplo simple:

  • Nivel 1: El equipo depende de un solo experto. Todo es manual.
  • Nivel 3: Hay roles claros, automatización básica y retrospectivas frecuentes.
  • Nivel 5: Uso de IA para toma de decisiones, aprendizaje continuo y cultura de datos.

Usos recomendados:

  • Diagnóstico inicial en procesos de transformación digital o cultural.
  • Diseño y planificación de programas de mejora continua.
  • Identificación de obstáculos estructurales, tecnológicos o culturales.

Advertencia: No se trata de llegar al nivel máximo por ego. Se trata de estar en el nivel adecuado para el valor que deseas entregar, esto es, que mejor potencie el impacto esperado y que sea sostenible. Pero más importante, cuando se trate de modelos de madurez, no subestimes tu poder humano, y “humanizante”, de pensar

Sincronización inteligente: OKR + KPI + Madurez = Síntesis operativa

Pensemos en esto como una orquesta:

  • Los KPI son los sensores del sistema. Nos dicen si estamos vivos.
  • Los OKR son las partituras. Nos dicen hacia dónde queremos ir.
  • El modelo de madurez es el manual del instrumento. es el conocimiento técnico, permite saber si estamos tocando con competencia o aún estamos en aprendizaje.

Ejemplo combinado:

  • Modelo de madurez indica que el equipo está en Nivel 2 en "automatización".
  • KPI: Tasa de errores poslanzamiento = 12 %.
  • OKR: Objetivo: Reducir los errores por despliegue. Resultado Clave: Aumentar pruebas automatizadas de 25 % a 70 % en 3 meses.

Entra la inteligencia artificial como motor de evolución ágil

Los equipos ágiles de alto rendimiento ya están incorporando herramientas de inteligencia artificial para aumentar su capacidad adaptativa y su velocidad de entrega.

Aplicaciones actuales:

  • Predicción de riesgos en ciclos de entrega.
  • Recomendaciones automáticas para priorización de tareas y funcionalidades.
  • Automatización de tareas técnicas y de pruebas repetitivas.

Un caso que ya volvimos “típico” es el de los equipos que utilizan IA para identificar historias de usuario duplicadas o de bajo valor en el backlog, ahorrando un porcentaje de tiempo significativo de refinamiento en cada sprint. En este escenario, la métrica asociada es la reducción mensual de historias descartadas después de haber sido priorizadas.

Y como siempre, aunque ya suene a cliché, toca decirlo, por el estrés que está causando la incorporación de la IA en nuestras vidas, sobre todo en el trabajo: La IA no reemplaza al equipo; lo aumenta, lo potencia, mejora su capacidad de análisis y libera tiempo para tareas de mayor impacto.

Errores comunes (y cómo evitarlos)

No me voy a andar por las ramas, seguimos cometiendo muchos errores cuando de métricas, OKR, KPI y modelos de madurez se trata. Por eso escribí La furia de los OKR - Gazafatonario IT. Además de lo que mencioné allí, aquí hay solo algunos otros:

  1. Confundir resultados clave con tareas: Un resultado clave debe ser un cambio observable y cuantificable, no simplemente la ejecución de una acción.
  2. Enamorarse de métricas vanidosas: No basta con medir visitas a una web; hay que medir si esas visitas se traducen en conversiones o valor real.
  3. Usar solo encuestas para medir madurez: Combina percepciones subjetivas con datos y evidencias objetivas.
  4. Definir KPI sin una línea base: Sin un punto de partida, es imposible saber si estamos avanzando o retrocediendo.
  5. Copiar modelos ajenos sin adaptación al contexto: Cada organización tiene su cultura, mercado y desafíos. Ajusta cualquier modelo antes de adoptarlo.

Conclusión y llamado a la acción

Mide lo que transforma, no solo lo que cuenta. La agilidad no se define por la velocidad o la cantidad de entregas, sino por la capacidad de aprender, adaptarse y evolucionar de forma continua. Las métricas, los OKR, los KPI y los modelos de madurez forman un sistema interconectado que permite traducir aspiraciones estratégicas en acciones concretas, medibles y sostenibles.

Te invito a:

  • Establecer al menos un OKR estratégico por trimestre que oriente el cambio.
  • Monitorear de manera constante tres KPI clave que reflejen la estabilidad operativa.
  • Evaluar periódicamente tu madurez organizacional en cinco dimensiones esenciales.
  • Explorar cómo integrar herramientas de inteligencia artificial en tus flujos de trabajo y procesos de decisión.

No lo olviden, la madurez se alcanza cuando medimos para evolucionar, no solo para controlar. ¿Algo más? Por favor, déjamelo saber en el foro.


Post scriptum

Puedes escuchar una explicación sucinta de todo esto en mi podcast gracias a los amigos de Google NotebookLM.


Y puedes ver y descargar la presentación que hiciera hace poco. Con más ejemplos y datos. Y donde presento dos modelos de madurez para nuestro tiempo, uno para equipos y organizaciones y otro para personas, "De Novatos a Nindō (忍道)".