Algolatría o el culto poseso a los oráculos sintéticos
Esta es apenas la definición, al mejor estilo de la Academia
de la Lengua.
algolatría
Del gr. algos (dolor, aquí tomado como juego
morfológico de algo- de algoritmo) + lat. -latría ‘culto, adoración’ + ‘ia’,
apócope de inteligencia artificial.
1. f. Devoción acrítica y masiva hacia las
soluciones basadas en inteligencia artificial, que transforma cualquier
problema humano en una “consulta al modelo” y cualquier duda ética en un prompt.
2. f. Tendencia sociolaboral a delegar juicio,
responsabilidad y sentido común en sistemas algorítmicos: se acepta la salida
del modelo como dogma, se externaliza la culpa y se privatiza la conciencia.
3. f. Culto performativo donde métricas, dashboards
y predicciones ocupan el lugar del diálogo, el cuidado y la deliberación;
rituales habituales incluyen retrainings en masa, ceremonias de deploy
a horario sagrado y la lectura colectiva de “insights” como oráculos.
4. f. (col.) Forma
ligera y humorística de referirse a quienes nombran todo con la etiqueta “IA”
para ganar autoridad o inversión: “esa idea no necesita estrategia, solo un poco de
algolatría”.
Gazafatonario © Todos los
derechos reservados
No voy a satanizar la inteligencia artificial ni mucho menos a
quienes la usamos. Después de todo, tampoco lo hice con Scrum hace años, cuando
escribí sobre Scrumdamentalismo
un artículo que pueden encontrar en:
https://www.gazafatonarioit.com/2019/01/scrumdamentalismo-o-de-la-dogmatica-agil.html
Pero empecemos por lo obvio: ya no pensamos. Preguntamos.
La diferencia puede sonarte irracional, pero pensar duele,
toma tiempo, obliga a confrontar la incertidumbre y a cargar con el peso de las
consecuencias. Preguntar, más específicamente, preguntar a un modelo, es veloz,
indoloro, y viene con el beneficio narcótico de la inmediatez: una respuesta
coherente, pulida, lista para copiar-pegar en el slide de la junta. La
algolatría no es un fenómeno tecnológico. Es un fenómeno de pereza existencial
vestida de innovación.
Lo fascinante, y al mismo tiempo aterrador, es que la
algolatría se disfraza de rigor. Las personas y empresas que la practican no
dicen "dejamos de pensar". Dicen "nos basamos en data".
No admiten "renunciamos a la ética". Proclaman "optimizamos
con IA". El ritual es impecable: tableros que parpadean con autoridad
numérica, modelos que escupen insights como si fueran versículos,
ceremonias de deploy donde nadie pregunta qué se está desplegando
exactamente, solo que la latencia bajó 12 milisegundos y el accuracy
subió 0.003 %. Aplausos. Deploy. A producción.
Nadie pregunta: ¿a quién afecta esto? ¿Quién decidió que esta
métrica importa? ¿Qué pasaría si nos equivocamos? Porque el oráculo ya habló. Y
contradecir al oráculo es herejía corporativa.
La algolatría tiene sus templos. Están en las salas de
reuniones donde alguien dice "consultemos al modelo" y todos
asienten con alivio, porque eso significa que nadie tiene que mojarse
defendiendo una postura. Están en los equipos de producto que reemplazan la
investigación etnográfica con encuestas automatizadas analizadas por el LLM de
turno. Están en las startups que prometen "revolucionar esto o lo otro
con IA" cuando lo único revolucionario es haber conseguido inversión
sin plan de negocio. Están en los foros de discusión, donde cualquier debate
complejo se clausura con un "ya le pregunté a ChatGPT" y un
pantallazo borroso que nadie cuestiona porque objetar al oráculo es admitir que
uno no está actualizado.
Lo perturbador no es que usemos IA. Lo perturbador es que
hayamos externalizado el acto mismo de dudar. La duda, esa fricción incómoda
que nos obliga a detenernos, ha sido delegada al pipeline. El modelo
decide qué contenido ver, qué candidato contratar, qué crédito aprobar, qué
tratamiento recomendar. Y nosotros, aliviados, firmamos. Porque si algo sale
mal, la culpa es del modelo. Y los modelos no van a juicio. No tienen
conciencia. No sudan frío a las tres de la mañana preguntándose si arruinaron
la vida de alguien.
Esa es la gran comodidad de la algolatría: la privatización de
la conciencia. Yo no decidí despedir a esa persona, fue el algoritmo de performance.
Yo no discriminé en el proceso de selección, fue el sesgo del dataset.
Yo no mentí en el informe, fue el modelo el que alucinó. La responsabilidad se
diluye en capas de abstracción técnica hasta que nadie es culpable de nada. Es
la burocracia moral del siglo XXI: nos lavamos las manos en agua de nube. Voy a
decir esto último de una manera menos coloquial: nos declaramos inocentes
usando la infraestructura tecnológica como excusa.
Y aquí está el truco perverso: la algolatría no necesita
fanáticos. Necesita gente razonable, ocupada, que quiere hacer bien su trabajo,
pero está abrumada. Gente que recibe 200 emails al día, que tiene cuatro
reuniones traslapadas, que debe entregar el sprint antes del viernes. Para esa
gente, para nosotros, el modelo no es un dios, es un asistente ejecutivo con
esteroides. Y ahí es donde el culto se normaliza: no como devoción explícita,
sino como dependencia funcional. Hasta que un día nos damos cuenta de que no
sabemos tomar decisiones sin consultarle primero. Hasta que nos aterra la
página en blanco porque ya no recordamos cómo se piensa desde cero.
Hay una escena que se repite en los equipos y empresas
algolátricas: alguien propone hacer algo diferente, algo que requiere criterio
humano, conversación lenta, deliberación ética. Y siempre hay una voz, normalmente
la del gerente más ocupado, que interrumpe: "¿Podemos pedirle al modelo
que genere opciones?" Y la sala exhala. Porque eso significa que nadie
tiene que defender nada. Que podemos tercerizar el conflicto. Que el algoritmo
cargará con el peso de la elección mientras nosotros seguimos en nuestras
sillas giratorias, impolutas.
El problema no es la IA. El problema es que hemos confundido
eficiencia con sabiduría, velocidad con claridad, predicción con comprensión.
La algolatría convierte la predicción en profecía y la confianza en comodidad.
Hasta que el oráculo se equivoca. Y entonces nos sorprendemos, indignados, como
si hubiéramos olvidado que los modelos son espejos: reflejan lo que les
mostramos, amplifican lo que somos. Si les mostramos sesgos, amplifican
desigualdad. Si les mostramos prisa, amplifican errores. Si les mostramos
cobardía moral, nos devuelven decisiones sin alma.
La salida de la algolatría no es abandonar la tecnología. Es
volver a poner al humano, con sus dudas, su lentitud, su ética incómoda, en el
centro del tabernáculo. Es recuperar el derecho a equivocarnos con nuestras
propias manos. Es entender que una decisión tomada después de una conversación
difícil vale más que mil outputs generados en milisegundos. Es
atrevernos a decir "no sé" sin inmediatamente abrir el chat
del modelo.
Porque al final, la algolatría no es un problema de ingeniería. Es un problema de valentía. Y eso, ningún transformer lo va a resolver por nosotros. Y es que la algolatría no nació del algoritmo, sino de nuestro miedo a pensar sin él: es la rendición elegante del juicio humano ante el espejismo de una certeza sintética.
Annexum
Impium
Algunas manifestaciones de los algólatras incluyen:
1. Toda
reunión estratégica termina con "consultemos al modelo" y nadie
cuestiona el output.
2. Las
decisiones de contratación, inversión o producto se basan en lo que dice el
sistema, sin deliberación humana.
3. Cualquier
contenido generado por IA se acepta como válido sin revisión crítica.
4. Los
errores del modelo se justifican con "es que el prompt no estaba bien
hecho" en lugar de cuestionar si la IA era apropiada para esa tarea.
5. Se
asume que más datos y más compute siempre producen mejores decisiones.
6. La
ética se reduce a "agregar una instrucción en el system prompt".
7. Pensar
que cualquier escéptico de la IA está "desactualizado" o "le
tiene miedo al cambio".
8. Las
conversaciones difíciles se evitan pidiendo al modelo que genere "opciones
neutrales".
9. La
responsabilidad se diluye: "yo solo implementé lo que sugirió el
algoritmo".
10. Creer
que este artículo no habla de uno mismo, sino de otros.

