Buscar en Gazafatonario IT

miércoles, noviembre 12, 2025

Algolatría o el culto poseso a los oráculos sintéticos

 Algolatría o el culto poseso a los oráculos sintéticos


Esta es apenas la definición, al mejor estilo de la Academia de la Lengua.

algolatría

Del gr. algos (dolor, aquí tomado como juego morfológico de algo- de algoritmo) + lat. -latría ‘culto, adoración’ + ‘ia’, apócope de inteligencia artificial.

1. f. Devoción acrítica y masiva hacia las soluciones basadas en inteligencia artificial, que transforma cualquier problema humano en una “consulta al modelo” y cualquier duda ética en un prompt.

2. f. Tendencia sociolaboral a delegar juicio, responsabilidad y sentido común en sistemas algorítmicos: se acepta la salida del modelo como dogma, se externaliza la culpa y se privatiza la conciencia.

3. f. Culto performativo donde métricas, dashboards y predicciones ocupan el lugar del diálogo, el cuidado y la deliberación; rituales habituales incluyen retrainings en masa, ceremonias de deploy a horario sagrado y la lectura colectiva de “insights” como oráculos.

4. f. (col.) Forma ligera y humorística de referirse a quienes nombran todo con la etiqueta “IA” para ganar autoridad o inversión: “esa idea no necesita estrategia, solo un poco de algolatría”.

Gazafatonario © Todos los derechos reservados

www.luchosalazar.com                                    www.gazafatonarioit.com                                Lucho Salazar

No voy a satanizar la inteligencia artificial ni mucho menos a quienes la usamos. Después de todo, tampoco lo hice con Scrum hace años, cuando escribí sobre Scrumdamentalismo un artículo que pueden encontrar en:

https://www.gazafatonarioit.com/2019/01/scrumdamentalismo-o-de-la-dogmatica-agil.html

Pero empecemos por lo obvio: ya no pensamos. Preguntamos.

La diferencia puede sonarte irracional, pero pensar duele, toma tiempo, obliga a confrontar la incertidumbre y a cargar con el peso de las consecuencias. Preguntar, más específicamente, preguntar a un modelo, es veloz, indoloro, y viene con el beneficio narcótico de la inmediatez: una respuesta coherente, pulida, lista para copiar-pegar en el slide de la junta. La algolatría no es un fenómeno tecnológico. Es un fenómeno de pereza existencial vestida de innovación.

Lo fascinante, y al mismo tiempo aterrador, es que la algolatría se disfraza de rigor. Las personas y empresas que la practican no dicen "dejamos de pensar". Dicen "nos basamos en data". No admiten "renunciamos a la ética". Proclaman "optimizamos con IA". El ritual es impecable: tableros que parpadean con autoridad numérica, modelos que escupen insights como si fueran versículos, ceremonias de deploy donde nadie pregunta qué se está desplegando exactamente, solo que la latencia bajó 12 milisegundos y el accuracy subió 0.003 %. Aplausos. Deploy. A producción.

Nadie pregunta: ¿a quién afecta esto? ¿Quién decidió que esta métrica importa? ¿Qué pasaría si nos equivocamos? Porque el oráculo ya habló. Y contradecir al oráculo es herejía corporativa.

La algolatría tiene sus templos. Están en las salas de reuniones donde alguien dice "consultemos al modelo" y todos asienten con alivio, porque eso significa que nadie tiene que mojarse defendiendo una postura. Están en los equipos de producto que reemplazan la investigación etnográfica con encuestas automatizadas analizadas por el LLM de turno. Están en las startups que prometen "revolucionar esto o lo otro con IA" cuando lo único revolucionario es haber conseguido inversión sin plan de negocio. Están en los foros de discusión, donde cualquier debate complejo se clausura con un "ya le pregunté a ChatGPT" y un pantallazo borroso que nadie cuestiona porque objetar al oráculo es admitir que uno no está actualizado.

Lo perturbador no es que usemos IA. Lo perturbador es que hayamos externalizado el acto mismo de dudar. La duda, esa fricción incómoda que nos obliga a detenernos, ha sido delegada al pipeline. El modelo decide qué contenido ver, qué candidato contratar, qué crédito aprobar, qué tratamiento recomendar. Y nosotros, aliviados, firmamos. Porque si algo sale mal, la culpa es del modelo. Y los modelos no van a juicio. No tienen conciencia. No sudan frío a las tres de la mañana preguntándose si arruinaron la vida de alguien.

Esa es la gran comodidad de la algolatría: la privatización de la conciencia. Yo no decidí despedir a esa persona, fue el algoritmo de performance. Yo no discriminé en el proceso de selección, fue el sesgo del dataset. Yo no mentí en el informe, fue el modelo el que alucinó. La responsabilidad se diluye en capas de abstracción técnica hasta que nadie es culpable de nada. Es la burocracia moral del siglo XXI: nos lavamos las manos en agua de nube. Voy a decir esto último de una manera menos coloquial: nos declaramos inocentes usando la infraestructura tecnológica como excusa.

Y aquí está el truco perverso: la algolatría no necesita fanáticos. Necesita gente razonable, ocupada, que quiere hacer bien su trabajo, pero está abrumada. Gente que recibe 200 emails al día, que tiene cuatro reuniones traslapadas, que debe entregar el sprint antes del viernes. Para esa gente, para nosotros, el modelo no es un dios, es un asistente ejecutivo con esteroides. Y ahí es donde el culto se normaliza: no como devoción explícita, sino como dependencia funcional. Hasta que un día nos damos cuenta de que no sabemos tomar decisiones sin consultarle primero. Hasta que nos aterra la página en blanco porque ya no recordamos cómo se piensa desde cero.

Hay una escena que se repite en los equipos y empresas algolátricas: alguien propone hacer algo diferente, algo que requiere criterio humano, conversación lenta, deliberación ética. Y siempre hay una voz, normalmente la del gerente más ocupado, que interrumpe: "¿Podemos pedirle al modelo que genere opciones?" Y la sala exhala. Porque eso significa que nadie tiene que defender nada. Que podemos tercerizar el conflicto. Que el algoritmo cargará con el peso de la elección mientras nosotros seguimos en nuestras sillas giratorias, impolutas.

El problema no es la IA. El problema es que hemos confundido eficiencia con sabiduría, velocidad con claridad, predicción con comprensión. La algolatría convierte la predicción en profecía y la confianza en comodidad. Hasta que el oráculo se equivoca. Y entonces nos sorprendemos, indignados, como si hubiéramos olvidado que los modelos son espejos: reflejan lo que les mostramos, amplifican lo que somos. Si les mostramos sesgos, amplifican desigualdad. Si les mostramos prisa, amplifican errores. Si les mostramos cobardía moral, nos devuelven decisiones sin alma.

La salida de la algolatría no es abandonar la tecnología. Es volver a poner al humano, con sus dudas, su lentitud, su ética incómoda, en el centro del tabernáculo. Es recuperar el derecho a equivocarnos con nuestras propias manos. Es entender que una decisión tomada después de una conversación difícil vale más que mil outputs generados en milisegundos. Es atrevernos a decir "no sé" sin inmediatamente abrir el chat del modelo.

Porque al final, la algolatría no es un problema de ingeniería. Es un problema de valentía. Y eso, ningún transformer lo va a resolver por nosotros. Y es que la algolatría no nació del algoritmo, sino de nuestro miedo a pensar sin él: es la rendición elegante del juicio humano ante el espejismo de una certeza sintética.


 

Annexum Impium

Algunas manifestaciones de los algólatras incluyen:

1.      Toda reunión estratégica termina con "consultemos al modelo" y nadie cuestiona el output.

2.      Las decisiones de contratación, inversión o producto se basan en lo que dice el sistema, sin deliberación humana.

3.      Cualquier contenido generado por IA se acepta como válido sin revisión crítica.

4.      Los errores del modelo se justifican con "es que el prompt no estaba bien hecho" en lugar de cuestionar si la IA era apropiada para esa tarea.

5.      Se asume que más datos y más compute siempre producen mejores decisiones.

6.      La ética se reduce a "agregar una instrucción en el system prompt".

7.      Pensar que cualquier escéptico de la IA está "desactualizado" o "le tiene miedo al cambio".

8.      Las conversaciones difíciles se evitan pidiendo al modelo que genere "opciones neutrales".

9.      La responsabilidad se diluye: "yo solo implementé lo que sugirió el algoritmo".

10.  Creer que este artículo no habla de uno mismo, sino de otros.


miércoles, octubre 08, 2025

La insaciabilidad: Crónica de una humanidad que ya perdió

 

Ya no dormimos. Nuestros dedos se deslizan por la pantalla en la madrugada buscando "lo próximo" que nos salvará, que nos redimirá, que nos pondrá en la cima del mundo digital mientras el resto de la humanidad se desmorona en la obsolescencia. Hace unos días fue el lanzamiento de "lo último" de OpenAI, Eso está bien, supongo. Pero en realidad da lo mismo qué empresa sea, qué modelo, qué promesa. Ya saldrán los "very early adopters" a contarnos de sus primeras impresiones, una vez que lo usen, experimenten y obtengan los primeros resultados. Quizás yo sea uno de ellos. Pero no es eso lo que me quita el sueño.

Lo que me perturbó fue lo anterior. Los días previos. El crescendo de ansiedad colectiva: la insaciabilidad. Esa hambre feroz, desesperada, enfermiza de tener más, de saber más, de ser más antes que los demás.

Los "leaked news", los chismes, las especulaciones sobre un producto que nadie había tocado, como si fuera el Mesías técnico que nos salvaría del pecado original de la irrelevancia. Leí las predicciones apocalípticas: "Si no te subes a esta ola, morirás profesionalmente", "Las reglas del juego han cambiado para siempre", "Quien no adopte esto quedará atrás". Especulación con visos de agiotismo sobre algo intangible, invisible, prometeico. Y lo peor no es que se diga, lo peor es que lo creemos.

Creo que nos dejamos ganar, de una vez por todas y para siempre, del infame hype, del FOMO que nos carcome las entrañas, del miedo a quedarnos atrás mientras el mundo avanza sin nosotros. El nerviosismo, el estrés es tal que ya no nos sirven las miles de herramientas que existen a esta hora. Están ahí, funcionando, esperando ser dominadas, pero no nos interesan. No son suficientes. Nunca son suficientes. Esperamos, con la respiración contenida, las docenas de herramientas que aparecerán en las próximas horas, sabiendo en el fondo de nuestra alma que tampoco esas nos satisfarán. Y en esa carrera absurda, hemos perdido algo fundamental: la autonomía de decidir cuándo detenernos.

Esta es la insaciabilidad. No el hambre honesta que nos impulsa a crecer, sino la sed del que bebe agua de mar. Cada sorbo de innovación nos deshidrata más, nos vuelve más desesperados, más dependientes. Frenesí. Exaltación. Agitación. Excitación. Hoy hay orgasmos por el lanzamiento, eyaculaciones prematuras de entusiasmo ante capturas de pantalla y “demos” de cinco minutos. Mañana habrá paros cardíacos por la decepción, cuando descubramos que la herramienta milagrosa es solo eso: una herramienta, no un dios, no un salvador, no la respuesta definitiva a nuestra ansiedad existencial.

He estado en reuniones donde líderes tiemblan al hablar de IA. No por entusiasmo, sino por terror puro. El terror de que su competidor ya la está usando mejor, más rápido, más estratégicamente. El terror de que mientras ellos duermen, alguien más está experimentando, iterando, conquistando. Y ese terror se filtra en cada decisión, en cada estrategia, en cada presupuesto. Ya no preguntamos "¿Necesitamos esto?", sino "¿Qué pasará si no lo tenemos?". Hemos invertido la lógica del progreso: ya no buscamos mejorar, buscamos no empeorar.

Trabajamos para el algoritmo, vivimos para el timeline. Eso es lo peor, lo que verdaderamente me quita el aliento cuando lo pienso. Ya no usamos las herramientas; ellas nos usan. Producimos contenido para alimentar sus bases de datos. Optimizamos nuestras palabras para complacer sus sesgos. Modificamos nuestro pensamiento para alinearnos con sus patrones. Hemos invertido la ecuación fundamental de la tecnología y ni siquiera nos dimos cuenta del momento exacto en que sucedió. Simplemente un día despertamos y estábamos al servicio de las máquinas que supuestamente creamos para servirnos a nosotros.

Con eso, con ese momento imperceptible de rendición, la humanidad ya perdió. No perdió una batalla, perdió la guerra completa. Entregamos nuestra autonomía a cambio de eficiencia. Sacrificamos nuestra soberanía mental por conveniencia. Y lo peor es que lo hicimos voluntariamente, incluso con entusiasmo, convencidos de que estábamos siendo innovadores, disruptivos, visionarios.

He sido ese hereje. He intentado pausar, respirar, usar lo que ya tengo hasta dominarlo antes de saltar al siguiente brillo digital. Pero la presión es insoportable. Cada día, docenas de mensajes, artículos, videos sobre "lo nuevo" que cambiará todo. Y uno empieza a dudar. ¿Y si es cierto? ¿Y si esta vez sí es diferente? ¿Y si al no subirme a este tren, realmente me condeno a la irrelevancia? Esa duda es el gancho perfecto. Es el anzuelo que mantiene al pez nadando en círculos, siempre mordiendo, nunca saciándose.

Lo más irónico es que hablamos de inteligencia artificial, pero hemos perdido al menos parte nuestra inteligencia natural. La capacidad de discernir. De priorizar. De decir "no". Hemos tercerizado nuestro criterio a la masa, al consenso digital, al pánico colectivo. Si todos corren hacia algo, debe ser importante. Si todos hablan de algo, debe ser revolucionario. Pero nadie se detiene a preguntar: ¿revolucionario para quién? ¿Importante para qué?

Esta no es una crítica a la tecnología. Es un lamento por lo que nos hemos vuelto en su nombre. Adictos a la promesa, esclavos de la expectativa, prisioneros de nuestra propia insaciabilidad. Y mañana, cuando salga el siguiente modelo, el siguiente framework, la siguiente plataforma, volveremos a temblar, volveremos a correr, volveremos a perder un poco más de nosotros mismos en el proceso. Porque al final, el verdadero costo de la IA no se mide en dólares o en empleos perdidos. Se mide en la erosión silenciosa de nuestra capacidad de estar presentes, de estar satisfechos, de estar completos sin la próxima actualización.

No fue la inteligencia artificial la que nos reemplazó. Fue nuestra propia decisión de convertirnos en algoritmos humanos, predecibles, insaciables, siempre ejecutando la siguiente instrucción sin preguntarnos quién escribió el código.


 

sábado, septiembre 27, 2025

Cómo se usa ChatGPT en 2025

En este podcast, un resumen ejecutivo de un documento de investigación sobre el uso de ChatGPT, que detalla la rápida adopción global del chatbot desde su lanzamiento en noviembre de 2022 hasta julio de 2025. El estudio utilizó una metodología de preservación de la privacidad para clasificar millones de mensajes de usuarios, encontrando que para 2025, la mayoría de las consultas (alrededor del 70 %) no estaban relacionadas con el trabajo. Las tres categorías de conversación más comunes son Orientación Práctica, Escritura y Búsqueda de Información, y se observa que los usuarios más educados y con empleos profesionales tienen más probabilidades de usar el bot para tareas laborales, particularmente para recibir apoyo en la toma de decisiones (clasificado como "Preguntar"). Además, el estudio documenta que la brecha de género en el uso de ChatGPT se ha reducido significativamente y que la adopción ha crecido desproporcionadamente en países de ingresos bajos y medianos.

El estudio completo se puede descargar de https://www.nber.org/papers/w34255

https://youtu.be/RT6XqD1HPx0

martes, septiembre 23, 2025

El “Bidón pegajoso”: cuando la IA se convierte en el dopaje silencioso de las organizaciones

 

El campeón olímpico Richard Carapaz recibe asistencia del Mercedes de su equipo.

Hace poco finalizó la vuelta ciclística a España. Ya había escrito un artículo sobre la falacia del superhéroe multitarea y el costo oculto del «Siempre lo hemos hecho así», a propósito de una peligrosa práctica que realizan los directores de equipos ciclísticos que conducen los autos de los equipos.  Puedes encontrar el artículo en:

Vas a chocar y lo sabes: el síndrome del director ciclístico que está aniquilando tu producto – Lucho Salazar

Pues bien, en la penúltima etapa, un ciclista colombiano, Egan Bernal, fue sancionado por la práctica conocida como bidón pegado o pegajoso, un truco donde el auto del director se acerca, transfiere el bidón al ciclista y ambas manos “se pegan” al envase para dar al deportista un empujón extra, una maniobra que la organización considera como ventaja irregular y por la que Bernal recibió la multa.

Esto me recordó cómo hoy por hoy el “pelotón” corporativo avanza a ritmo frenético. Las métricas de productividad marcan el paso, los KPI dictan la cadencia, y en medio de esta carrera desenfrenada, aparece el auto del equipo con una solución aparentemente salvadora: la inteligencia artificial. Como en el incidente que protagonizó Egan Bernal en la Vuelta a España, en más de treinta años de experiencia he visto cómo en las organizaciones hay una línea delgada entre la asistencia legítima y el dopaje tecnológico. Con la IA, esa raya es cada vez más tenue.

Pensémoslo un poco. El CEO es el director deportivo, ansioso por resultados inmediatos. La solución de IA de turno es el carro del equipo, prometiendo velocidad y eficiencia. El bidón representa esas intervenciones puntuales: prompts prefabricados, automatizaciones express, dashboards predictivos. Y el ciclista agotado es el equipo humano, aferrándose con desesperación a cualquier cosa que le permita mantener el ritmo insostenible que exige el mercado.

Cuando la mano humana y la mano algorítmica quedan "pegadas" al mismo bidón digital, la organización experimenta una aceleración instantánea. Los informes se generan en segundos, el código se autocompleta, las decisiones se "optimizan" con modelos predictivos. En el corto plazo, parece una jugada maestra: las métricas suben, los costos bajan, los inversionistas aplauden. Pero este empujón artificial tiene un precio que pocas organizaciones están calculando.

Primero, está la atrofia de capacidades. Cuando los equipos dependen del "empujón" de la IA, sus músculos intelectuales se debilitan. La capacidad de análisis crítico, la creatividad para resolver problemas, el juicio profesional cultivado durante años: todo se erosiona cuando la respuesta siempre viene premasticada por un algoritmo. Es como el ciclista que olvida cómo remontar por sus propios medios porque siempre cuenta con el auto del equipo.

Segundo, surge una dependencia invisible pero peligrosa. ¿Qué sucede cuando el proveedor de IA cambia sus términos, cuando la regulación endurece las condiciones de uso, cuando un fallo técnico deja a la organización sin su muleta digital? El corredor queda solo en la carretera, sin la resistencia ni la técnica para continuar al ritmo que el mercado exige.

Tercero, aparecen las consecuencias éticas y reputacionales. Así como Bernal enfrentó multa y críticas, las organizaciones que abusan del "bidón pegado" digital enfrentan escrutinio regulatorio, pérdida de confianza del consumidor y cuestionamientos sobre la autenticidad de sus logros. ¿Es realmente innovación cuando el mérito es del algoritmo? ¿Qué valor tiene una victoria conseguida con ventaja artificial?

Está sucediendo a tutiplén. Empresas sancionadas por tratamiento indebido de datos biométricos [1], Amazon debió retirar su sistema de filtrado curricular cuando se identificó que discriminaba por género, al basarse en datos históricos sesgados [2]; bancos y otras empresas han sido víctimas de estafas donde directivos falsos, generados por IA en videollamadas, lograron transferencias millonarias, afectando la confianza y reputación de las compañías afectadas [3]; la manipulación de reseñas y opiniones en línea mediante IA pone en duda la legitimidad de la reputación digital de empresas y productos, deteriorando la confianza de los consumidores [4], entre muchos otros ejemplos son apenas la punta del iceberg de lo que está ocurriendo a raíz de esta ya infame práctica del “bidón pegajoso de la IA”.

Evidentemente, la solución no es prohibir la IA, debilitar su uso, ni mucho menos no usarla, sería como pretender eliminar los carros del ciclismo profesional. La IA es la herramienta más poderosa que la humanidad ha inventado, entonces lo que toca es redefinir las reglas del juego, establecer límites claros entre asistencia y dependencia, entre herramienta y muleta. Las organizaciones necesitan entrenar la resistencia cognitiva de sus equipos, mantener viva la capacidad de pensar y crear sin asistencia algorítmica, usar la IA como hidratación estratégica, no como propulsión artificial.

Es simple: cuando tu organización no puede funcionar sin el bidón pegado de la IA, no has construido ventaja competitiva: has comprado tiempo prestado. Y en el futuro próximo, las empresas que sobrevivan no serán las que mejor sepan agarrarse al algoritmo, sino las que aprendan a pedalear en el vacío cuántico donde la inteligencia artificial se vuelve tan ubicua que deja de ser diferenciador. La verdadera disrupción no es adoptar la IA; es saber competir cuando todos la tienen y nadie puede usarla como excusa.

¡Funciona para mí!

Referencias

[1] El mal uso de la inteligencia artificial en empresas.

[2] El mal uso de la inteligencia artificial en empresas.

[3] Mal uso de la inteligencia artificial: ejemplos y consecuencias.

[4] IA posible enemigo de la reputación de las empresas - Diario Libre.

jueves, septiembre 04, 2025

Vas a chocar y lo sabes: el síndrome del director ciclístico que está aniquilando tu producto

 

Imagen generada por IA

La falacia del superhéroe multitarea

Las carreras de ciclismo me parecen muy emocionantes. Me apasiona verlas. Pero imagina esto: un director deportivo conduciendo a 50 km/h por una carretera sinuosa de montaña, rodeado de miles de espectadores eufóricos, mientras simultáneamente entrega un bidón a un ciclista o una barra energética, grita instrucciones tácticas por radio y calcula mentalmente los tiempos de carrera. Todo esto mientras "conduce" un vehículo de dos toneladas. ¿Suena demencial? Bienvenido al mundo del ciclismo profesional, donde esta práctica suicida se defiende con el argumento más peligroso de la historia empresarial: el infame "siempre lo hemos hecho así".

Esta locura ciclística es el espejo perfecto de lo que está destruyendo silenciosamente nuestras organizaciones tecnológicas. Y no, no estoy exagerando.

En el desarrollo de software moderno, especialmente en entornos "ágiles", vemos el mismo patrón destructivo. El Product Owner que está en cuatro reuniones simultáneas mientras "define" la hija de ruta del producto. El Scrum Máster que facilita retrospectivas mientras programa y hace pruebas "para ayudar al equipo". El líder técnico que hace revisión de código mientras está en una llamada con el cliente explicando por qué el sprint falló... otra vez.

¿El resultado? El mismo que cuando el director ciclista inevitablemente choca: desastre total. Solo que en nuestro caso no son huesos rotos, son productos digitales que nacen muertos, equipos quemados y millones en alguna moneda evaporados en iniciativas que nunca debieron existir.

Pero la multitarea tiene un costo mucho más grave, uno que prácticamente es irrecuperable. Para saber cuál es, por favor, lee mi artículo El verdadero costo de la multitarea en mi Gazafatonario:

El costo de hacer multitarea - Gazafatonario IT

Ahora les hablaré de otro costo oculto en nuestras prácticas tradicionales.

El costo oculto del "Siempre lo hemos hecho así"

Aquí viene la parte que duele: las organizaciones que presumen de ser "ágiles" y "lean" son las peores infractoras. Han convertido los marcos de trabajo en religiones, los roles en títulos nobiliarios y los eventos en rituales vacíos.

Lo escucho a cada rato, con aire de orgullo: "Mi CTO está en las reuniones importantes, revisa todo el código y además lidera la estrategia de IA". Al preguntar: "¿Y cuándo piensa?", el silencio se hace incómodo. Porque claro, pensar no está en el backlog.

La ironía salta a la vista. Lean nos enseña a eliminar desperdicios, pero mantenemos a nuestros mejores talentos haciendo malabarismo con tareas incompatibles. Scrum habla de foco y compromiso, pero nuestros Product Owners están tan dispersos que no podrían reconocer una propuesta de valor ni aunque les pegara fuerte en la cara.

No creas que la IA no va a salvarte, va a exponerte. Y es que, con la explosión de la IA generativa, la situación se vuelve tragicómica. Veo equipos implementando GitHub Copilot mientras su arquitectura base es un desastre o gerentes pidiendo "meter IA" en productos que aún no logran encajar en el mercado.

La IA amplifica. Si tu proceso de desarrollo es caótico, la IA lo hará caóticamente más rápido. Si tu Product Owner no entiende el problema del usuario, ChatGPT le ayudará a no entenderlo con párrafos más elegantes.

El antídoto: separación radical de responsabilidades

Imagen generada por IA

Volvamos al ciclismo por un segundo. La solución es simple: el conductor conduce, punto. Otro miembro del equipo maneja la logística con los ciclistas. ¿Revolucionario? No. ¿Sensato? Absolutamente. En nuestras organizaciones tecnológicas, necesitamos la misma claridad brutal:

El Product Owner debe obsesionarse con el usuario. No con Jira, no con las reuniones diarias, no con el código. Su trabajo es entender tan profundamente al usuario que pueda predecir sus necesidades antes que ellos mismos. Si está en más de dos eventos al día, hay síntomas de intoxicación.

El Scrum Máster facilita, no ejecuta. Si está probando, no está observando las dinámicas del equipo. Es como un psicólogo que está tan ocupado tomando pastillas que no escucha a sus pacientes.

Los desarrolladores desarrollan. No están en reuniones de estrategia de negocio. No están vendiendo al cliente. Están resolviendo problemas técnicos complejos, lo cual, sorpresa, requiere concentración profunda y tiempo ininterrumpido.

Intenta lo siguiente: imagina que cada vez que alguien en tu organización hace multitarea con responsabilidades críticas incompatibles, está literalmente conduciendo un carro a alta velocidad mientras mira el celular. ¿Cuántos accidentes tendrías al día?

Ese error crítico en producción que costó mucho en ventas perdidas: accidente por conducir distraído. Esa funcionalidad que nadie usa después de 6 meses de desarrollo: choque frontal por no mirar la carretera. Ese equipo estrella que renunció en masa: volcadura por intentar cambiar de carril en zona prohibida.

Las organizaciones que sobrevivirán la próxima década no serán las que tengan la mejor tecnología o los frameworks más modernos. Serán las que tengan el coraje de decir: "Esto que hacemos es estúpido y peligroso, y vamos a parar".

Serán las que entiendan que un Product Owner enfocado vale más que diez "haciendo de todo un poco". Que un equipo de desarrollo con 4 horas diarias de concentración profunda produce más valor que uno en reuniones perpetuas. Que la IA es una herramienta, no una varita mágica.

Mi advertencia final

Si tu organización sigue operando como el director ciclístico, haciendo malabarismo con responsabilidades críticas incompatibles mientras acelera hacia el futuro, la sacudida será inevitable. La única pregunta es: ¿será un raspón del que puedan recuperarse, o será el accidente que los saque definitivamente de la carrera?

El ciclismo profesional puede darse el lujo de ser torpemente tradicional porque el espectáculo vende. Tu empresa no tiene ese privilegio. En el mundo del desarrollo de productos digitales, los dinosaurios no se extinguen lentamente; desaparecen en un trimestre malo.

Así que la próxima vez que veas a alguien intentando ser el superhéroe multitarea, recuerda al director ciclista entregando bidones mientras serpentea entre la multitud. Y pregúntate: ¿realmente queremos esperar al choque para cambiar?

La física no perdona. El mercado tampoco.