Este artículo deriva de la conversación que sostuvimos en el Episodio 7 “El algoritmo de la verdad” de la segunda temporada del podcast “Del dicho al hecho”.
Por Daniela Mendoza Luna
Nos encontramos en el umbral de un periodo crítico en el que la inteligencia artificial ha dejado de ser una herramienta periférica para consolidarse como el tejido mismo de la mediación algorítmica de la existencia. En este nuevo entorno, la IA no solo asiste en la creación de contenidos, sino que define la estructura de nuestra realidad diaria. Hemos transitado de un modelo de búsqueda tradicional, encabezado por el Google de la década pasada, hacia un modelo de resumen predictivo impulsado por Large Language Models (LLM).
Este desplazamiento no es menor; representa la industrialización de la percepción. La autonomía del usuario se desgasta en favor de la conveniencia, el camino de menor resistencia donde ya no buscamos activamente la información, sino que somos «llevados» hacia ella. Como advierte Anna Lagos, Jefa de Redacción de WIRED en español.
«Pareciera que ya uno realmente no es como fan de nada o que le gusta algo en específico, sino que vas a donde te lleve la inteligencia artificial». Al priorizar la facilidad de respuesta sobre el rigor de la fuente, el consumidor se transforma en un sujeto pasivo, entregando su capacidad crítica a cambio de una gratificación informativa inmediata.
La “verdad” en 3 segundos
En la economía de la atención actual, la brevedad es una barrera estructural que impide el análisis de problemas de fondo. Estamos bajo la dictadura del hook: si un contenido no captura al usuario en un instante, desaparece.
El peligro estratégico radica en que el algoritmo ha redefinido la verdad basándose en el dwell-time (tiempo de permanencia) y no en la evidencia. Lagos es contundente al respecto: «Si te detienes 3 segundos en un video, el algoritmo asume que esa es tu verdad». Esta métrica transforma la curiosidad momentánea en una confirmación de identidad, eliminando la capacidad de las redacciones y la sociedad civil para contrastar datos antes de que la desinformación se instale en el sistema de creencias del individuo.
Las plataformas han completado su metamorfosis: han dejado de ser redes sociales para convertirse en motores de predicción. Esta evolución es peligrosa para la armonía democrática, ya que la IA está diseñada para «quedar bien» con el usuario, dándole siempre la razón y eliminando el diálogo necesario para la convivencia.
Este diseño ha provocado una fractura generacional y un quiebre del consenso social. Los Millennials, la Generación Z y la Generación Alfa habitan realidades informativas paralelas donde no existe un terreno común. Para el año 2026, se proyecta que el 90% del contenido digital tendrá influencia de la IA, lo que intensificará estas cámaras de eco. Al no compartir los mismos hechos ni los mismos feeds, la sociedad pierde la habilidad de discrepar constructivamente, reemplazando el debate por una polarización radical alimentada por algoritmos que amplifican la indignación para maximizar el tiempo de pantalla.
El alto costo del brainrot
El scroll infinito y las notificaciones constantes no son fallos del sistema; son características optimizadas por las mentes más brillantes de Silicon Valley para generar adicción mediante descargas de dopamina. Este consumo de contenidos fragmentados y carentes de narrativa, a menudo denominados como brainrot, está directamente vinculado a una crisis de salud pública que incluye ansiedad, depresión y una profunda soledad digital.
Desde una perspectiva estratégica, hemos ganado habilidades sociales digitales, pero hemos perdido capacidades físicas esenciales, como la de mantener una conversación telefónica o gestionar un desacuerdo en vivo. Lagos identifica una tensión crítica entre el consumo inmediato y la interacción diferida: nos acostumbramos a reaccionar a videos, pero tememos el compromiso de la respuesta en tiempo real. Obras como «La generación ansiosa» de Jonathan Haidt y el «Atlas de la IA» de Kate Crawford confirman que esta infraestructura está diseñada para «bajar las defensas» cognitivas, dejando al individuo vulnerable ante la información sintética y el agotamiento mediático.
La capacidad de los LLM para difuminar la frontera entre realidad y ficción ha generado un cisma de seguridad sin precedentes. La síntesis es alarmante: toma solo 3 segundos crear una mentira (vía clonación de voz o rostro), y el algoritmo te concede solo 3 segundos para aceptarla como verdad.
Esta amenaza se agrava en América Latina, una región con una vulnerabilidad estratégica acentuada por la escasez de perfiles técnicos capacitados para enfrentar ataques de esta magnitud. Casos como la filtración masiva de datos de Telcel demuestran que la seguridad ya no es solo técnica, sino una cuestión de integridad personal y financiera. Como señala la experta: «El momento que estamos atravesando es un cisma que nos agarró desarmados». La facilidad para suplantar identidades en segundos exige que dejemos de hablar de «ciberseguridad» para hablar de seguridad humana integral.
Recuperar la atención como acto de resistencia
Es urgente “bajar del altar” a la tecnología para recuperar el control. El algoritmo no es una entidad mística ni una fuerza de la naturaleza; es un código económico diseñado para extraer ganancias de nuestro tiempo. La respuesta ante este panorama no es la prohibición tecnofóbica, sino una «resistencia digital» consciente y una alfabetización mediática profunda.
Recuperar la capacidad de concentrarnos en formatos de largo aliento y en interacciones físicas no es una nostalgia romántica, sino una herramienta de supervivencia. La verdad solo puede reconstruirse si recuperamos nuestra autonomía cognitiva. En palabras finales de Anna Lagos: «El algoritmo no es una entidad mística, es un código escrito para generar ganancias a través de tu tiempo. Recuperar la verdad empieza por recuperar nuestra atención».
Para navegar este entorno de control predictivo, van acá 4 acciones derivadas de la conversación:
1. Filtra tus fuentes de información: Abandonar la dependencia de influencers movidos por incentivos económicos y buscar activamente a profesionales (periodistas, médicos, especialistas) con formación ética y técnica comprobable.
2. Genera anticuerpos: Limitar el tiempo de consumo para evitar la fatiga digital, permitiendo que el cerebro mantenga sus filtros críticos activos frente a la saturación de información sintética.
3. Busca el diálogo: Priorizar las conversaciones cara a cara como un «campo de entrenamiento» para recuperar la habilidad de discrepar y romper las cámaras de eco generadas por el consumo en diferido.
4. Coexiste con lo análogo: Fomentar el consumo de libros físicos, música en vivo y textos de largo aliento para reconectar con procesos de pensamiento complejo que el video corto ha intentado erosionar.


