Lo que consumimos nos moldea. Esta no es una idea nueva: ya lo sabían los antiguos griegos, los fundadores de las grandes religiones, los padres de la pedagogía. Somos lo que vemos, lo que escuchamos, lo que repetimos. La novedad —y la urgencia— es que hoy no somos nosotros quienes elegimos qué ver, sino un sistema complejo, invisible y automatizado que lo hace por nosotros. Lo llamamos algoritmo, pero podríamos llamarlo también: maestro, editor, programador de nuestra percepción.
Vivimos bajo un régimen de exposición constante. Pasamos horas mirando pantallas que nos hablan, que nos muestran el mundo filtrado, ordenado y servido en una dieta personalizada que no siempre elegimos conscientemente. Abrimos YouTube y los videos nos eligen. Entramos a Instagram y el algoritmo ya decidió qué cuerpo es bello, qué estilo es deseable, qué emoción vale mostrar. En TikTok, el tiempo se disuelve y entramos en una coreografía infinita donde lo que vemos, lo que creemos y lo que sentimos empiezan a mezclarse. ¿Cuándo fue la última vez que buscaste algo sin que te lo sugirieran antes?
La idea de que un algoritmo nos educa puede sonar exagerada, pero consideremos lo siguiente: si aprendemos por repetición, por impacto emocional, por lo que vemos todos los días, entonces el feed es una forma de escuela. No una escuela con pizarrón y pupitres, sino con scroll infinito, estímulos rápidos y dopamina dosificada. ¿Quién diseñó ese aula? ¿Con qué valores? ¿Con qué objetivos?
Los algoritmos no son neutrales. Están programados —muchas veces no por una sola persona, sino por equipos, por empresas, por decisiones comerciales y por sesgos culturales. En principio, buscan que te quedes. Que no te vayas. Que consumas más. Su lógica no es expandir tu mundo, sino retenerte en uno cómodo, familiar, predecible. Eso explica por qué si te interesa la astrología te van a llegar más astrólogos, pero difícilmente filósofos que la cuestionen. Si empezás a ver contenido sobre productividad, es probable que termines con diez gurús hablándote de levantarte a las 5 a.m., pero pocos hablándote del derecho al descanso.
Este filtro invisible construye burbujas, refuerza creencias y nos hace sentir que el mundo piensa como nosotros. Pero el verdadero riesgo no es solo la polarización o el sesgo ideológico, sino la pérdida del criterio: el debilitamiento progresivo de la capacidad para distinguir entre lo real y lo fabricado, entre el deseo propio y el inducido, entre lo aprendido y lo sugerido. Una especie de analfabetismo digital donde creemos que elegimos, pero en realidad aceptamos lo que nos seleccionaron.
Un informe de Reviews.org en 2023 reveló que el estadounidense promedio revisa su teléfono más de 140 veces al día (fuente). No es solo una cuestión de hábitos, sino de estructura mental: cada revisión es una nueva dosis de realidad filtrada. Cada like, cada video, cada sugerencia afianza el guion invisible de lo que deberías ser, pensar, comprar o desear.
¿Qué podemos hacer ante esto? Primero, visibilizar lo invisible. Entender que lo que vemos no es casual. Desarrollar pensamiento crítico digital: saber cómo funcionan las plataformas que usamos, preguntarnos por qué estamos viendo lo que vemos. Diversificar nuestras fuentes, salir del feed, volver a los libros, a las conversaciones largas, al silencio.
Segundo, exigir transparencia. Las grandes plataformas manejan información que moldea conductas a nivel colectivo, y sin embargo sus algoritmos son cajas negras. Necesitamos políticas públicas que regulen su impacto, que limiten su manipulación emocional, que protejan a los más vulnerables: niños, adolescentes, personas en crisis.
Y tercero, recuperar el espacio común. No todo puede ser personalizado. La democracia, el conocimiento, la cultura necesitan zonas compartidas. No podemos construir futuro si cada uno vive en un canal curado por una máquina que solo busca que no se le vaya el dedo.
El algoritmo ya nos educa. La pregunta no es si lo hace, sino cómo, con qué intención y en manos de quién. Si queremos que la tecnología nos asista sin domesticarnos, debemos volver a hacernos cargo de lo que miramos. Porque lo que miramos nos hace. Y lo que permitimos que nos muestre una máquina, también.