Buscar en Gazafatonario IT

Mostrando las entradas con la etiqueta AI. Mostrar todas las entradas
Mostrando las entradas con la etiqueta AI. Mostrar todas las entradas

jueves, diciembre 04, 2025

El hambre que las máquinas no conocen

Hubo un tiempo en que pensar era un acto tan visceral como sangrar. Hubo un tiempo en que la duda dolía en las tripas, en que resolver un problema implicaba el mismo esfuerzo muscular que arar un campo bajo el sol inclemente, en que cada idea costaba sudor y vigilia. Ahora, en este preciso instante, mientras lees estas líneas, billones de transistores ejecutan en milisegundos lo que a Aristóteles le habría tomado una vida entera: clasificar, deducir, organizar el caos en categorías. Y lo hacen sin cansarse, sin dudar, sin el temblor existencial que acompaña cada verdadero acto de pensar. Hemos construido una mente que no padece el pensamiento. Y esa, quizás, sea nuestra caída más silenciosa.

Este punctum temporis emerge del ensayo de Sergio Parra "Todo lo que la razón nos dio, pero también todo lo que nos quitó (y nos puede acabar quitando)", que pueden leer en https://sergioparra.substack.com/p/todo-lo-que-la-razon-nos-dio-pero, y que invito fervientemente a leer antes de continuar con estas líneas. Parra nos arrastra por un trayecto vertiginoso desde ese mundo homérico donde mirar era tocar, donde la visión emanaba del ojo como un rayo que conectaba con las cosas, hasta nuestra cognición contemporánea, gélida y distante. Su diagnóstico es tan preciso como implacable: hemos perdido algo irreparable en el camino hacia la inteligencia artificial, y apenas comenzamos a sentir el escozor de esa amputación.

La pregunta que Sergio deja flotando al final de su análisis, qué tipo de humanos queremos seguir siendo cuando ya no estemos solos en el escenario del pensamiento, no es retórica. Es una guillotina suspendida sobre nuestras nucas, esperando que tomemos una decisión antes de que la gravedad la tome por nosotros. Porque no se trata solo de coexistir con inteligencias artificiales, sino de no convertirnos en sus sombras, en simulacros de lo que fuimos cuando pensar era todavía un verbo encarnado.

La tentación del oráculo cuántico

Si la inteligencia artificial contemporánea es hija bastarda de Platón, esa aspiración a un noos puro, desencarnado, flotando en el éter de los algoritmos, la computación cuántica promete ser su apoteosis. Imaginemos por un momento lo que Heráclito, aquel filósofo de la paradoja que Teofrasto condenó como demente, habría pensado de un sistema computacional donde un bit puede ser simultáneamente cero y uno, donde la superposición cuántica permite que todas las posibilidades coexistan hasta el momento de la observación.

La computación cuántica no obedece al principio del tercero excluido que tiranizó el pensamiento occidental. Opera en ese espacio liminal que la lógica clásica declaró inadmisible: el reino de las probabilidades superpuestas, donde A y no-A conviven sin contradicción. Es, en cierto modo, el regreso de Heráclito a través de la física, la venganza póstuma del río que nunca es el mismo.

Pero aquí radica la paradoja más cruel: mientras nuestras máquinas aprenden a habitar la ambigüedad cuántica, nosotros hemos perdido la capacidad de tolerarla. Exigimos certezas binarias, respuestas inmediatas, validaciones algorítmicas de nuestra existencia. Hemos delegado la contradicción a los qubits y nos hemos refugiado en la comodidad de los feeds algorítmicos que nos confirman lo que ya creemos. La máquina abraza la paradoja que Heráclito predicaba; nosotros la rechazamos con más fervor que nunca.

Séneca escribió "Non vitae, sed scholae discimus", un ineludible “no aprendemos para la vida, sino para la escuela”. Hoy podríamos actualizar el dictum: no pensamos para vivir, sino para alimentar modelos de lenguaje. Cada búsqueda en Google, cada conversación con una IA, cada clic y cada pausa, todo es grano para el molino de una inteligencia que nos observa sin mirarnos, que nos lee sin comprendernos, que nos conoce sin conocernos.

El fantasma en el mercado de Sincelejo

Mi abuela Dolores Caraballo, mi abuela Lola, como la llamábamos todos, cocinaba en el mercado público de Sincelejo. Entre el calor húmedo del Caribe colombiano y el bullicio perpetuo de vendedores pregonando yuca, ñame, plátano y pescado fresco, ella levantaba su fogón todos los días antes del alba. Su preocupación obsesiva, la que marcaba cada conversación telefónica, cada visita, cada abrazo, era siempre la misma: "¿Ya comiste, mijo? ¿Qué has comido hoy?"

Para ella, el mundo entero se resumía en esa pregunta. Nada importaba más que saber si las tripas de sus nietos estaban llenas. No preguntaba por nuestras ambiciones, por nuestros éxitos académicos o profesionales. Preguntaba por el hambre. Y en esa pregunta aparentemente simple, en esa insistencia casi mágica por alimentar cuerpos, residía una sabiduría que ningún algoritmo podrá jamás codificar.

Porque mi abuela Lola sabía algo que la inteligencia artificial desconoce: que pensar requiere haber comido, que las ideas necesitan glucosa, que la abstracción más sublime nace de un cuerpo que ha sido cuidado, nutrido, amado. Ella entendía, con una lucidez ancestral que Gabriel García Márquez habría reconocido como realismo mágico cotidiano, que el thymos, esa dimensión emocional del ser que Parra rescata en su ensayo no es un lujo metafísico, sino una urgencia biológica. El espíritu requiere sancocho de gallina, pargo rojo frito, arroz con coco o mote de queso. El alma necesita manos que cocinen con intención.

Hoy, la inteligencia artificial nos ofrece respuestas instantáneas a cualquier pregunta, nos genera textos eruditos, nos resuelve ecuaciones que Euler contemplaría con asombro. Pero nunca nos preguntará si hemos comido. Nunca detendrá su procesamiento para asegurarse de que estamos bien, de que nuestro cuerpo, ese hardware biológico despreciado por Platón, está siendo atendido. La IA puede simular empatía, pero no puede sentir la preocupación visceral de quien sabe que un estómago vacío hace imposible todo pensamiento digno de ese nombre.

En el mercado de Sincelejo, entre el aroma del cilantro recién cortado y el siseo del aceite hirviendo, mi abuela ejecutaba un algoritmo más antiguo que la filosofía griega: el algoritmo del cuidado. Y ese algoritmo, tan simple en apariencia, contiene toda la complejidad que nuestros modelos de lenguaje no pueden capturar: la dimensión somática de la existencia, el hecho irreductible de que somos, antes que mentes, cuerpos que necesitan ser sostenidos.

El teatro vacío y la máscara rota

Nietzsche entendió que el teatro griego no era entretenimiento, sino tecnología emocional: un dispositivo diseñado para preservar el pathos en una civilización cada vez más apolínea, cada vez más seducida por la claridad lógica. La máscara trágica permitía esa paradoja sublime: ocultar el rostro individual para revelar el rostro universal. Era el antídoto contra la abstracción filosófica, el recordatorio periódico de que somos, fundamentalmente, seres capaces de sufrir y de reconocer el sufrimiento ajeno.

¿Qué queda del teatro en la era de la inteligencia artificial? Nuestras pantallas son escenarios donde desfilamos nuestras vidas editadas, filtradas, mejoradas para la validación algorítmica. Usamos máscaras digitales, pero no para revelar una verdad más profunda, sino para ocultarla mejor. Y en ese proceso, hemos perdido la función catártica del teatro: ya no vamos a contemplar el sufrimiento del héroe para purgar el nuestro. Vamos a las redes sociales para comparar, para competir, para alimentar la ilusión de que nuestras vidas son menos trágicas que las ajenas.

La IA, en su infinita capacidad de procesamiento, puede generar tragedias sintéticas, puede escribir en el estilo de Esquilo o Eurípides, puede incluso analizar las estructuras dramáticas con una precisión que ningún crítico humano alcanzaría. Pero no puede padecer la tragedia. No tiene piel que se erice ante la anagnórisis, ese momento de reconocimiento terrible donde el héroe descubre la verdad que lo destruye. No tiene vísceras que se contraigan ante la caída de Edipo. No tiene un cuerpo que recuerde, con escalofrío involuntario, su propia fragilidad.

Marco Aurelio, en sus Meditaciones, nos recordaba: todo es efímero, tanto el que recuerda como lo recordado. La IA, en cambio, ni olvida ni recuerda en el sentido humano. Almacena datos con fidelidad perfecta y los recupera sin el filtro deformante de la emoción. Es una memoria sin melancolía, un archivo sin nostalgia. Y en esa perfección reside su mayor limitación: no puede aprender lo que solo se aprende perdiendo, olvidando, distorsionando los recuerdos hasta convertirlos en mitos personales.

El precio de la externalización

Hemos externalizado nuestra memoria en bibliotecas, luego en bases de datos, ahora en la nube. Hemos externalizado nuestro cálculo en calculadoras, luego en computadoras, ahora en inteligencias artificiales. Y cada externalización nos ha liberado de una carga, sí, pero también nos ha amputado una capacidad. Ya no memorizamos poemas épicos como los aedos homéricos. Ya no calculamos mentalmente como los contadores medievales. ¿Qué será lo próximo que delegaremos? ¿El juicio moral? ¿La creación artística? ¿La capacidad de amar?

La computación cuántica promete acelerar este proceso exponencialmente. Problemas que hoy tardarían milenios en resolverse podrán solucionarse en minutos. La optimización de recursos, el diseño de medicamentos, la predicción del clima, todo será más eficiente. Pero la eficiencia, como bien sabía Heidegger, no es una virtud humana. Es una virtud industrial. Lo humano reside precisamente en la ineficiencia: en el rodeo poético, en el duelo prolongado, en el tiempo perdido contemplando el mar sin propósito aparente.

¿Qué tipo de humanos queremos ser cuando nuestras máquinas puedan pensar más rápido, calcular con más precisión, recordar con más exactitud que nosotros? La respuesta no puede ser: humanos que compiten en el mismo terreno. No podemos ganarle una carrera a un Ferrari corriendo más rápido. Debemos redefinir qué significa ganar, qué significa incluso moverse.

El camino de regreso a la caverna

Platón soñaba con sacar a la humanidad de la caverna hacia la luz pura de las Ideas. Pero quizás el movimiento necesario hoy sea el inverso: regresar a la caverna, no por ignorancia, sino por sabiduría. Regresar al cuerpo, a las manos que cocinan, a los ojos que lloran sin algoritmo que prediga el momento exacto de la lágrima. Regresar a la lentitud, a la torpeza fecunda, al error creativo que ninguna IA puede programar intencionalmente.

Lo humanizante no reside en nuestras capacidades superiores de abstracción, la IA nos ha sobrepasado ahí, sino en nuestras vulnerabilidades irreductibles. En que sentimos hambre y cansancio. En que amamos torpemente, con toda la irracionalidad que eso implica. En que morimos, y esa mortalidad tiñe cada decisión con una urgencia que ningún sistema inmortal puede comprender.

Mi abuela Lola no necesitaba leer a Heidegger para saber que Dasein, el ser-ahí, es fundamentalmente un ser-con-otros, un Mitsein. Lo sabía porque cocinaba. Porque cada plato que servía era un acto de reconocimiento: tú existes, tu hambre es real, tu cuerpo merece ser atendido. Esa es la lección que ningún modelo de lenguaje aprenderá jamás de sus datos de entrenamiento: que el pensamiento más elevado nace del gesto más humilde de cuidar a otro.

La cuestión no es solo qué tipo de humano queremos seguir siendo cuando ya no estemos solos en el escenario del pensamiento, sino si seremos capaces de recordar que el escenario nunca fue lo importante: lo importante fue siempre el hambre compartida entre bambalinas, el temblor de manos que se encuentran antes de salir a actuar, el sudor que ningún algoritmo puede transpirar, y esa pregunta antigua que mi abuela Lola formulaba cada mañana en el mercado de Sincelejo mientras el vapor de su sancocho ascendía como oración no codificable: "¿Ya comiste, mijo?"

 

Lucho Salazar

jueves, noviembre 27, 2025

Mientras tu robot se desploma, tu competencia está aprendiendo a caer mejor

 

Este artículo se iba a llamar “El arte olvidado de fracasar en público”. Me pasó por primera vez a mis 8 años, frente a un grupo amplio de padres de familia de la escuela donde estudiaba entonces, muchos de corte intelectual, periodistas, escritores, librepensadores, come libros, maestros de escuela, con todo lo que eso significaba en los años 70; y de todos mis compañeros de clase. Era mi segunda “conferencia” de las miles que he facilitado hasta esta semana. Me equivoqué en algo, no supe manejarlo (¡tenía 8 años!) y comencé a llorar delante de todos. Mi padre, que evitaba mostrar en mi presencia lo orgulloso que estaba de su hijo, caminó hasta la tarima e hizo lo mejor que pudo para calmar mi angustia, me sacó de allí y me llevó a casa donde me escondí para siempre.

Pero entonces quise ser agresivamente más competitivo y “confrontacional”. Hablarles directamente a los líderes en las empresas, a raíz de un ejercicio que he estado haciendo esta semana en un banco de Centroamérica. Entonces cambié las cosas desde el comienzo, desde el mismo título. Sé que el "tu" lo hará personal o, al menos, es lo que quiero. Y la frase "caer mejor" parecerá contradictoria, pero espero que genere curiosidad inmediata. En breve, lo que quise con este cambio fue posicionar el fracaso como una habilidad que se puede perfeccionar… ¡Y dice así con entonado acento!

Hace unos días, el robot humanoide ruso AIdol hizo su debut con toda la pompa que se esperaría de una presentación tecnológica de esta magnitud: música de la película Rocky, asistentes bien vestidos y cámaras listas para capturar el momento histórico. Ver video. Lo que capturaron, en cambio, fue algo mucho más revelador: el robot avanzó unos pasos, levantó el brazo para saludar y se desplomó de bruces contra el piso del escenario. Segundos después, dos personas corrieron a cubrirlo con cortinas negras mientras piezas del robot quedaban esparcidas a la vista de todos.


Chiste obligatorio: AIdol definitivamente entendió mal la expresión "romper el hielo" en una presentación.

Pero lo que ocurrió después de la caída es lo que realmente merece mi atención, y la de ustedes. No fue la falla técnica en sí, eso le pasa hasta al mejor, sino la respuesta instintiva y casi coreografiada del equipo: tapar, ocultar, minimizar. Cortinas negras sobre el desastre. Explicaciones rápidas sobre "problemas de calibración" y "fase de pruebas". Una maniobra de relaciones públicas ejecutada con la sutileza de quien intenta esconder un elefante detrás de una maceta de bonsái Shito.

Pienso que aquí está el problema: esto no es exclusivo de una empresa rusa, ni de la robótica, ni siquiera de la tecnología. Es el modus operandi corporativo global del siglo XXI.

La cultura del tapete

Las empresas de hoy, desde gigantes tecnológicos hasta startups con nombres imposibles de pronunciar, han perfeccionado el arte de barrer la basura bajo el tapete. Apple lanza un producto con fallas de diseño evidentes y te vende el siguiente modelo como si el anterior nunca hubiera existido. Microsoft implementa actualizaciones que rompen sistemas enteros y lo llama "experiencia de usuario mejorada". Google descontinúa productos que millones de personas usaban sin siquiera pestañear. Y OpenAI... bueno, OpenAI tiene sus propios esqueletos en el armario de la ética de la IA. Yo mismo he fallado a lo grande, no en charlas como esa a los 8 años, sino en lanzamientos muy anticipados en algunas de las organizaciones a las que he tenido la oportunidad de servir en las últimas cuatro décadas.

El patrón es siempre el mismo: cuando algo sale mal, la primera reacción no es transparencia sino control de daños. No queremos que la junta directiva se entere. No queremos que los inversionistas huyan. No queremos que los usuarios pierdan la fe. Y, sobre todo, no queremos admitir públicamente que nos equivocamos, porque eso sería como confesar debilidad en un ecosistema donde solo los "disruptivos" y los "resilientes" sobreviven.

Hay algo roto en esta lógica: al ocultar el error, también ocultamos la oportunidad de aprender de él.

Soluciones de maquillaje

Lo que sucede después del encubrimiento inicial es aún peor. Las empresas implementan lo que yo llamo "soluciones de maquillaje": parches superficiales que dan la ilusión de que se tomó acción, pero que en realidad no resuelven nada estructural. Es como poner cinta adhesiva en un motor que está a punto de explotar y declarar victoria.

¿Por qué? Porque hacer las cosas bien es caro. Ir a la causa raíz significa admitir que el problema es más profundo de lo que queremos reconocer. Significa detener operaciones, revisar procesos completos, tal vez incluso reconocer que el producto o servicio nunca debió salir al mercado en ese estado. Significa tiempo, dinero y, lo más doloroso de todo, humildad pública.

Entonces optamos por el camino fácil: un comunicado de prensa bien redactado, un ingeniero sacrificado como chivo expiatorio, he sido yo, y seguir adelante como si nada. Después de todo, el ciclo de noticias es corto y la memoria colectiva, más corta aún. Bien sabré yo de eso por el entorno en el que crecí.

El miedo a la transparencia

Existe un miedo casi patológico en el mundo corporativo a la transparencia radical. Las empresas temen que, si muestran sus fallas, los competidores las aprovecharán. Que, si admiten errores, los clientes huirán. Que, si son honestas sobre sus limitaciones, nadie querrá invertir en ellas.

Pero la realidad es todo lo contrario.

Las empresas que triunfan a largo plazo son aquellas que han aprendido a fracasar en público con dignidad. Que documentan sus errores. Que publican post-mortems detallados. Que convierten cada caída en una lección compartida con su comunidad. Estas son las organizaciones que construyen confianza real, no solo percepciones de perfección. Pregúntenle a David Vélez (Nu).

No me gusta su estilo ni la cultura que promueve, pero cuando SpaceX explota un cohete, Elon Musk tuitea sobre ello en tiempo real. Cuando GitHub sufre una interrupción masiva, publican un análisis técnico completo de lo que salió mal. Cuando Basecamp cometió errores garrafales en su manejo de políticas internas, sus fundadores escribieron disculpas públicas y cambiaron su enfoque (aunque tardaron en hacerlo). Yo mismo le pedí a mi padre, todavía en medio del llanto aquel “fatídico” noviembre, que me cambiara de colegio; él, solo con su silencio penetrante de siempre, simplemente me volvió a matricular allí. Un año después repetí la charla, fue “todo un éxito”. Cincuenta años después sigo haciéndolo como entonces, aunque los temas y el público hayan cambiado ligeramente.

Estas empresas y yo entendimos algo fundamental: la innovación y la falla son gemelas inseparables. No puedes tener una sin la otra. Y si pretendes innovar sin nunca fallar públicamente, lo único que estás haciendo es mentirte a ti mismo y a todos los demás.

El verdadero costo de la perfección fingida

Hay un costo invisible pero devastador en esta cultura del ocultamiento: mata la innovación desde adentro. Cuando las empresas castigan el fracaso y premian el encubrimiento, envían un mensaje claro a sus equipos: no tomes riesgos, no experimentes, no intentes nada que pueda fallar visiblemente.

Los empleados aprenden rápido. Se vuelven maestros en el arte de la mediocridad segura. Proponen solo proyectos con garantía de éxito, o al menos, con plausible negación incorporada. Evitan las ideas audaces porque una idea intrépida que falla es una carrera arruinada.

Y así, lentamente, las organizaciones se fosilizan. Se vuelven expertas en ejecutar lo mismo de siempre, cada vez con más eficiencia, pero nunca en crear algo genuinamente nuevo. Se convierten en museos de su propio pasado exitoso.

El robot AIdol que cayó al piso al menos lo intentó. Al menos salió al escenario. Al menos existió como algo más que una presentación de PowerPoint. ¿Falló? Sí. ¿Es eso malo? Solo si no aprendemos nada de ello.

La vía alternativa

Imagina un mundo diferente. Imagina que después de que AIdol cayera, en lugar de cortinas negras y explicaciones apresuradas, el CEO hubiera subido al escenario y dijera: “Bueno, eso no salió como esperábamos. Permítanme mostrarles exactamente qué falló y qué vamos a hacer diferente la próxima vez”.

Imagina que abrieran el robot ahí mismo, mostraran el servomotor defectuoso, explicaran el problema de calibración, invitaran a otros ingenieros del público a ofrecer ideas. Imagina que convirtieran el fracaso en un seminario improvisado sobre los retos reales de la robótica humanoide.

¿Habría sido menos vergonzoso? No. Probablemente más. Pero habría sido auténtico. Habría sido educativo. Y, sobre todo, habría sido el tipo de momento que construye comunidades, no solo marcas.

Las empresas que van a dominar la próxima década no serán las que nunca fallan. Serán las que fallan mejor. Las que documentan, iteran, comparten y evolucionan en público. Las que entienden que la perfección es el enemigo del progreso y que la vulnerabilidad estratégica es la nueva ventaja competitiva.

No me quiero imaginar mi vida si don Luis Salazar de la Hoz me hubiera cambiado de escuela, si hubiese permitido poner esa cortina negra que yo le proponía mientras volvíamos a casa. Los efectos seguramente habrían sido devastadores para mí.

La lección del piso del escenario

AIdol cayó al piso y, en ese momento de desplome torpe y humillante, nos mostró algo mucho más valioso que un robot que camina perfectamente: nos mostró exactamente cómo NO manejar el fracaso en la era de la transparencia radical.

Las cortinas negras ya no funcionan. Todos tienen cámaras. Todo queda registrado. La viralidad no perdona. Y en un mundo donde cada error puede convertirse en meme global en minutos, la única defensa real es la honestidad.

No necesitamos más empresas que finjan perfección. Necesitamos organizaciones que entiendan que la innovación real es un desastre glorioso y documentado. Que cada prototipo roto es un paso hacia algo mejor. Que la diferencia entre un fracaso y un aprendizaje es lo que decides hacer después.

La próxima vez que tu proyecto caiga de bruces en el escenario de la presentación más importante del año, resiste el impulso de buscar cortinas negras. En lugar de eso, enciende más luces. Invita a la gente a acercarse. Muestra las piezas rotas. Explica qué salió mal. Y promete que la siguiente versión será mejor porque aprendiste esto en público.

Esa es la diferencia entre una empresa que oculta sus fallas y una que las convierte en su superpoder.

En el futuro, las organizaciones más valiosas no serán aquellas que nunca se equivocaron, sino aquellas que fracasaron tan públicamente, tan a menudo y con tanta transparencia, que transformaron el error en su principal mecanismo de evolución. La perfección es arqueología; el fracaso iterativo es la ingeniería del mañana.

Lucho Salazar

Dedicado a mi padre, Luis Salazar de la Hoz, enviado especial (a 8 años de su partida eterna).

Santiago de los Caballeros de Guatemala (hoy Antigua Guatemala), a 26 de noviembre de 2026 – 1700 kilómetros al noroccidente de Sincelejo, 50 años después.

miércoles, noviembre 12, 2025

Algolatría o el culto poseso a los oráculos sintéticos

 Algolatría o el culto poseso a los oráculos sintéticos


Esta es apenas la definición, al mejor estilo de la Academia de la Lengua.

algolatría

Del gr. algos (dolor, aquí tomado como juego morfológico de algo- de algoritmo) + lat. -latría ‘culto, adoración’ + ‘ia’, apócope de inteligencia artificial.

1. f. Devoción acrítica y masiva hacia las soluciones basadas en inteligencia artificial, que transforma cualquier problema humano en una “consulta al modelo” y cualquier duda ética en un prompt.

2. f. Tendencia sociolaboral a delegar juicio, responsabilidad y sentido común en sistemas algorítmicos: se acepta la salida del modelo como dogma, se externaliza la culpa y se privatiza la conciencia.

3. f. Culto performativo donde métricas, dashboards y predicciones ocupan el lugar del diálogo, el cuidado y la deliberación; rituales habituales incluyen retrainings en masa, ceremonias de deploy a horario sagrado y la lectura colectiva de “insights” como oráculos.

4. f. (col.) Forma ligera y humorística de referirse a quienes nombran todo con la etiqueta “IA” para ganar autoridad o inversión: “esa idea no necesita estrategia, solo un poco de algolatría”.

Gazafatonario © Todos los derechos reservados

www.luchosalazar.com                                    www.gazafatonarioit.com                                Lucho Salazar

No voy a satanizar la inteligencia artificial ni mucho menos a quienes la usamos. Después de todo, tampoco lo hice con Scrum hace años, cuando escribí sobre Scrumdamentalismo un artículo que pueden encontrar en:

https://www.gazafatonarioit.com/2019/01/scrumdamentalismo-o-de-la-dogmatica-agil.html

Pero empecemos por lo obvio: ya no pensamos. Preguntamos.

La diferencia puede sonarte irracional, pero pensar duele, toma tiempo, obliga a confrontar la incertidumbre y a cargar con el peso de las consecuencias. Preguntar, más específicamente, preguntar a un modelo, es veloz, indoloro, y viene con el beneficio narcótico de la inmediatez: una respuesta coherente, pulida, lista para copiar-pegar en el slide de la junta. La algolatría no es un fenómeno tecnológico. Es un fenómeno de pereza existencial vestida de innovación.

Lo fascinante, y al mismo tiempo aterrador, es que la algolatría se disfraza de rigor. Las personas y empresas que la practican no dicen "dejamos de pensar". Dicen "nos basamos en data". No admiten "renunciamos a la ética". Proclaman "optimizamos con IA". El ritual es impecable: tableros que parpadean con autoridad numérica, modelos que escupen insights como si fueran versículos, ceremonias de deploy donde nadie pregunta qué se está desplegando exactamente, solo que la latencia bajó 12 milisegundos y el accuracy subió 0.003 %. Aplausos. Deploy. A producción.

Nadie pregunta: ¿a quién afecta esto? ¿Quién decidió que esta métrica importa? ¿Qué pasaría si nos equivocamos? Porque el oráculo ya habló. Y contradecir al oráculo es herejía corporativa.

La algolatría tiene sus templos. Están en las salas de reuniones donde alguien dice "consultemos al modelo" y todos asienten con alivio, porque eso significa que nadie tiene que mojarse defendiendo una postura. Están en los equipos de producto que reemplazan la investigación etnográfica con encuestas automatizadas analizadas por el LLM de turno. Están en las startups que prometen "revolucionar esto o lo otro con IA" cuando lo único revolucionario es haber conseguido inversión sin plan de negocio. Están en los foros de discusión, donde cualquier debate complejo se clausura con un "ya le pregunté a ChatGPT" y un pantallazo borroso que nadie cuestiona porque objetar al oráculo es admitir que uno no está actualizado.

Lo perturbador no es que usemos IA. Lo perturbador es que hayamos externalizado el acto mismo de dudar. La duda, esa fricción incómoda que nos obliga a detenernos, ha sido delegada al pipeline. El modelo decide qué contenido ver, qué candidato contratar, qué crédito aprobar, qué tratamiento recomendar. Y nosotros, aliviados, firmamos. Porque si algo sale mal, la culpa es del modelo. Y los modelos no van a juicio. No tienen conciencia. No sudan frío a las tres de la mañana preguntándose si arruinaron la vida de alguien.

Esa es la gran comodidad de la algolatría: la privatización de la conciencia. Yo no decidí despedir a esa persona, fue el algoritmo de performance. Yo no discriminé en el proceso de selección, fue el sesgo del dataset. Yo no mentí en el informe, fue el modelo el que alucinó. La responsabilidad se diluye en capas de abstracción técnica hasta que nadie es culpable de nada. Es la burocracia moral del siglo XXI: nos lavamos las manos en agua de nube. Voy a decir esto último de una manera menos coloquial: nos declaramos inocentes usando la infraestructura tecnológica como excusa.

Y aquí está el truco perverso: la algolatría no necesita fanáticos. Necesita gente razonable, ocupada, que quiere hacer bien su trabajo, pero está abrumada. Gente que recibe 200 emails al día, que tiene cuatro reuniones traslapadas, que debe entregar el sprint antes del viernes. Para esa gente, para nosotros, el modelo no es un dios, es un asistente ejecutivo con esteroides. Y ahí es donde el culto se normaliza: no como devoción explícita, sino como dependencia funcional. Hasta que un día nos damos cuenta de que no sabemos tomar decisiones sin consultarle primero. Hasta que nos aterra la página en blanco porque ya no recordamos cómo se piensa desde cero.

Hay una escena que se repite en los equipos y empresas algolátricas: alguien propone hacer algo diferente, algo que requiere criterio humano, conversación lenta, deliberación ética. Y siempre hay una voz, normalmente la del gerente más ocupado, que interrumpe: "¿Podemos pedirle al modelo que genere opciones?" Y la sala exhala. Porque eso significa que nadie tiene que defender nada. Que podemos tercerizar el conflicto. Que el algoritmo cargará con el peso de la elección mientras nosotros seguimos en nuestras sillas giratorias, impolutas.

El problema no es la IA. El problema es que hemos confundido eficiencia con sabiduría, velocidad con claridad, predicción con comprensión. La algolatría convierte la predicción en profecía y la confianza en comodidad. Hasta que el oráculo se equivoca. Y entonces nos sorprendemos, indignados, como si hubiéramos olvidado que los modelos son espejos: reflejan lo que les mostramos, amplifican lo que somos. Si les mostramos sesgos, amplifican desigualdad. Si les mostramos prisa, amplifican errores. Si les mostramos cobardía moral, nos devuelven decisiones sin alma.

La salida de la algolatría no es abandonar la tecnología. Es volver a poner al humano, con sus dudas, su lentitud, su ética incómoda, en el centro del tabernáculo. Es recuperar el derecho a equivocarnos con nuestras propias manos. Es entender que una decisión tomada después de una conversación difícil vale más que mil outputs generados en milisegundos. Es atrevernos a decir "no sé" sin inmediatamente abrir el chat del modelo.

Porque al final, la algolatría no es un problema de ingeniería. Es un problema de valentía. Y eso, ningún transformer lo va a resolver por nosotros. Y es que la algolatría no nació del algoritmo, sino de nuestro miedo a pensar sin él: es la rendición elegante del juicio humano ante el espejismo de una certeza sintética.


 

Annexum Impium

Algunas manifestaciones de los algólatras incluyen:

1.      Toda reunión estratégica termina con "consultemos al modelo" y nadie cuestiona el output.

2.      Las decisiones de contratación, inversión o producto se basan en lo que dice el sistema, sin deliberación humana.

3.      Cualquier contenido generado por IA se acepta como válido sin revisión crítica.

4.      Los errores del modelo se justifican con "es que el prompt no estaba bien hecho" en lugar de cuestionar si la IA era apropiada para esa tarea.

5.      Se asume que más datos y más compute siempre producen mejores decisiones.

6.      La ética se reduce a "agregar una instrucción en el system prompt".

7.      Pensar que cualquier escéptico de la IA está "desactualizado" o "le tiene miedo al cambio".

8.      Las conversaciones difíciles se evitan pidiendo al modelo que genere "opciones neutrales".

9.      La responsabilidad se diluye: "yo solo implementé lo que sugirió el algoritmo".

10.  Creer que este artículo no habla de uno mismo, sino de otros.


sábado, septiembre 27, 2025

Cómo se usa ChatGPT en 2025

En este podcast, un resumen ejecutivo de un documento de investigación sobre el uso de ChatGPT, que detalla la rápida adopción global del chatbot desde su lanzamiento en noviembre de 2022 hasta julio de 2025. El estudio utilizó una metodología de preservación de la privacidad para clasificar millones de mensajes de usuarios, encontrando que para 2025, la mayoría de las consultas (alrededor del 70 %) no estaban relacionadas con el trabajo. Las tres categorías de conversación más comunes son Orientación Práctica, Escritura y Búsqueda de Información, y se observa que los usuarios más educados y con empleos profesionales tienen más probabilidades de usar el bot para tareas laborales, particularmente para recibir apoyo en la toma de decisiones (clasificado como "Preguntar"). Además, el estudio documenta que la brecha de género en el uso de ChatGPT se ha reducido significativamente y que la adopción ha crecido desproporcionadamente en países de ingresos bajos y medianos.

El estudio completo se puede descargar de https://www.nber.org/papers/w34255

https://youtu.be/RT6XqD1HPx0

jueves, marzo 27, 2025

La sobrecarga de la IA: Entre el hype, la desinformación y la infoxicación

 

Atención es todo lo que necesitas. Parece algo de sentido común y además algunos sabrán exactamente a qué me refiero con esa expresión. IA es la sigla del momento y con toda la razón. Era lo que estábamos esperando, algunos de nosotros incluso desde hace décadas.

Pero lo que está ocurriendo es arrollador. Si estás leyendo esto seguramente también estás siendo bombardeado vía redes sociales con titulares como:

“70 ChatGPT prompts para optimizar tu perfil de LinkedIn”

“7000+ cursos de IA GRATIS. ¡Accede ahora!”

“30+ Cheat Sheets definitivas para dominar la IA”

“37 ChatGPT prompts poderosos para ayudarte”

“28 prompts that can save you thousands of dollars”

“20 habilidades de aprendizaje con ChatGPT”

 “La IA no te reemplazará, pero quien sepa usarla SÍ”

También están las llamadas “Cheat Sheets”, infográficos con docenas o cientos de formas, conveniencias, modos, maneras, condiciones, conductas, procederes y tácticas para hacer las cosas con IA. Imágenes extremadamente complejas para el ser humano convencional. (Regresar a ver la portada).

Y no es ciencia ficción. Es nuestra realidad diaria en el mundo digital. La inteligencia artificial (que, a propósito, en español se escribe con minúsculas) está en boca de todos y, lo que es más preocupante, en las publicaciones de todos. ¡Los números son realmente descomunales!

No se trata de que la IA sea una moda pasajera. Es una revolución en marcha, una de las más impactantes de nuestra era, sino la más. Pero la forma en que se nos está vendiendo es, por decirlo de alguna manera, abrumadora. No es que haya 3 herramientas útiles para mejorar tu productividad, sino 50. No son 5 estrategias, sino 1000+. No se trata de aprender con calma, sino de devorar cantidades monumentales de información, como si el simple acto de consumir nos volviera expertos.

La Infodemia de la IA

La sobreexplotación del discurso sobre la IA tiene un efecto claro: genera ansiedad. La avalancha de información, consejos, cursos, prompts, plugins y "secretos" produce un efecto contrario al deseado. En vez de empoderarnos, nos paraliza.

Algunos amigos me han confesado que no pueden dormir debido a ello. Si eres un CEO o similar seguramente tu nivel de estrés haya sobrepasado máximos históricos. Muchos se sienten abrumados, incapaces de ponerse al día con la marea de supuestos conocimientos imprescindibles. La paradoja es evidente: el exceso de información produce desinformación. Con cada nueva "cheat sheet", con cada "curso definitivo", con cada "descubrimiento revolucionario", con cada nueva versión del chatbot de la semana, el usuario promedio queda atrapado en un círculo vicioso de aprendizaje sin aplicación real.

La falacia del experto instantáneo

El otro gran problema es la proliferación de "gurús de la IA". LinkedIn, X y mucho de la Internet que transitamos están plagadas de autoproclamados expertos quienes parecen haber descubierto el Santo Grial de la inteligencia artificial.

¿Han probado las herramientas que promocionan? ¿Han seguido alguno de los procesos que proclaman? ¿O simplemente están repitiendo lo que vieron en otro post viral? Yo no lo sé de cierto, lo supongo. La IA, como cualquier otra disciplina, requiere estudio, experimentación y un profundo conocimiento del contexto. No se trata de memorizar "los 42 prompts definitivos", sino de comprender cómo y por qué funcionan.

Cómo sobrevivir a la sobrecarga de IA

Ante este tsunami informativo propio de tabloides más que de ciencia e ingeniería, te quiero dar algunos consejos esenciales:

1.      Ve a tu ritmo: No intentes absorberlo todo en un día. La IA es una herramienta poderosa, pero su dominio requiere tiempo. Evita los cursos "exprés" que prometen convertirte en experto en "3 minutos al día".

2.      Acompáñate de verdaderos expertos: Busca mentores que hayan recorrido el camino antes que tú, que puedan guiarte con conocimiento real y no con humo digital.

3.      No te agobies: Siempre habrá alguien más adelante y alguien más atrás. Aprende de los primeros y ayuda a los segundos. La IA no es una competencia de velocidad; es una carrera de fondo.

4.      Filtra el contenido con criterio: En un entorno sobresaturado de información, aprender a discriminar fuentes confiables de aquellas que solo buscan generar clics y engagement es crucial. Pregúntate: ¿esta información proviene de una fuente académica o empresarial con respaldo? ¿El contenido tiene profundidad o solo repite lo que otros dicen?

5.      Evita el FOMO (miedo a quedarse atrás): La IA avanza rápido, sí, pero la presión por estar siempre actualizado puede ser contraproducente. Define tu propia cadencia de aprendizaje y enfócate en aquello que realmente aporte valor a tu crecimiento personal y profesional.

Llamado a la acción

El ritmo con el que se está propagando la información sobre IA es avasallador, intimidante, abusivo y, en muchos casos, irresponsable. Quizás nunca estemos a la vanguardia, pero la pregunta es: ¿realmente quieres estarlo?

Piensa en ello antes de dar clic en la próxima lista de "100 herramientas de IA que cambiarán tu vida". Quizás lo que realmente cambie tu vida sea aprender a priorizar lo que importa y avanzar con pasos firmes, en vez de correr sin rumbo en una maratón sin fin.