El Ocaso de la Autonomía: Reflexiones sobre la Colonización Algorítmica del Pensamiento (2a parte)

En este segundo apartado, exploramos las dimensiones psicopolítica y cibercultural donde la IA deja de ser una herramienta de consulta para convertirse en un dispositivo de gobierno mental. A la luz de de Rénald Gesnot (2025), analizamos cómo el diseño algorítmico de las megacorporaciones busca la creación de una arquitectura de obediencia invisible. Integramos la visión de Valeria Odetti (2024) sobre la opacidad de los riesgos y de la postura y argumentos de Di Blasi Regner (2024) sobre la erosión de la autonomía, para desvelar lo que se esconde tras la promesa de la asistencia personalizada.

Cabe entonces preguntar, si ¿es la personalización algorítmica una forma de libertad o el mecanismo más sofisticado de homogeneización que la humanidad haya enfrentado?, en ese sentido Gesnot lanza esta provocación al sugerir que la IA no nos "conoce" sino que nos "perfila" para reducir nuestra complejidad humana a un conjunto de probabilidades comercializables. Esta reducción es, en esencia, un acto psicopolítico que busca la predictibilidad del sujeto, eliminando de esta manera lo imprevisto que caracteriza al pensamiento humano original.

En este escenario, V. Odetti (2024) aporta una pieza fundamental al advertir sobre el denominado por la autora como "sesgo pedagógico" de la IA generativa. Según Odetti, las respuestas que nos entregan estos sistemas no son neutrales ni universales, sino  que portan la huella de quienes las programaron y de los datos con los que fueron entrenadas. Esta opacidad genera una burbuja donde el usuario cree estar accediendo al conocimiento global, cuando en realidad está siendo confinado en una narrativa preconfigurada por meros intereses corporativos.

Por su parte, Di Blasi Regner (2024) sostiene que el "imperativo del saber internalizado" es la única defensa ante esta manipulación. si el individuo no posee un mapa de conocimientos sólidos en su propia memoria, carece de los puntos de referencia necesarios para notar cuándo está siendo dirigido por el algoritmo. La psicopolítica de las megacorporaciones se alimenta, precisamente, de este vacío de saber: es mucho más fácil manipular a una mente que ha delegado su capacidad de verificación a la propia herramienta que intenta controlarla.

¿Qué esconden realmente las megacorporaciones tras sus discursos de democratización? La investigación de Arbeláez-Campillo et.al. (2021) sugiere que la intención de fondo es la consolidación del monopolio epistémico. Al igual que Gesnot, estos autores ven en la IA una fuerza que fragmenta el tejido social al ofrecer realidades a la medida de cada usuario, destruyendo el terreno común necesario para la deliberación pública y el disenso constructivo.

En la dimensión cibercultural, la "muerte de la alteridad" se vuelve evidente. Si el algoritmo, como señala Odetti (2024), tiende a la homogeneización de las respuestas basándose en lo más probable, lo diferente y lo disruptivo quedan fuera del radar. Vivimos en una cibercultura de la repetición donde la IA actúa como una cámara de eco que refuerza nuestros sesgos previos, impidiéndonos confrontar ideas que desafíen nuestra zona de confort intelectual.

¿Podemos hablar de soberanía mental si nuestra "curiosidad" es orquestada por un software inteligente programado? Gesnot (2025) argumenta que la verdadera intención de las empresas de IA para los próximos años es la colonización del inconsciente. al predecir nuestras dudas antes de que surjan, las megacorporaciones no solo responden preguntas, sino que limitan el horizonte de lo que nos está permitido preguntar, un fenómeno que Di Blasi (2024) califica como una "atrofia del deseo de saber".

Contrastando las posturas, mientras los líderes tecnológicos hablan ya de una "superinteligencia" al servicio de todos, el análisis crítico de Chaparro Domínguez (2025) revela una intención al automatizar la propaganda. Lo que se esconde detrás del "chatbot" es una arquitectura de influencia señala el autor, capaz de lanzar narrativas personalizadas. Odetti (2024) refuerza esto al señalar que la falta de transparencia en los algoritmos es una barrera para cualquier intento de justicia social o educativa.

Nos surge la siguiente pregunta al respecto, ¿es la IA un espejo o una prisión? Para Gesnot (2025) es una prisión de cristal donde el usuario se siente libre porque recibe lo que desea, ignorando que sus deseos han sido ya previamente moldeados. Esta visión se complementa con la de Brito et.al.(2019), quienes advierten sobre el conflicto entre la IA y el futuro social, señalando que la falta de control humano sobre los criterios de "verdad" algorítmica pone en riesgo la esencia misma de la democracia.

Visto esto desde la dimensión psicopolítica, la IA actúa como una especie de panóptico digital emocional. Al monitorear nuestras reacciones y tiempos de lectura, las corporaciones ajustan sus modelos para mantenernos en un estado de "dependencia cognitiva". Di Blasi R.(2024) recalca que este tipo de dependencia es letal para la erudición, ya que sustituye el esfuerzo de la investigación personal por la gratificación instantánea de una respuesta procesada, vaciando el contenido de la experiencia humana.

Nos lleva de fondo a la siguiente pregunta: ¿Cómo recuperar la autonomía en un entorno diseñado para la obediencia? El contraste entre el optimismo tecnológico y el esceptisismo de Gesnot, sugiere que la resistencia comienza por reconocer el sesgo. Como nos propone Odetti (2024), es imperativo desarmar la supuesta "naturalidad" con la que aceptamos las respuestas de la IA. La conciencia crítica algorítmica no es solo una habilidad técnica, es una postura política frente a la homogeneización del pensamiento.

Concluimos este apartado señalando que la burbuja de pensamiento homogéneo es el producto más exitoso creado por la cibercultura  corporativa contemporánea. como ya pudimos analizar como Gesnot, junto a Regner y Odetti, nos advierten de entrada que las verdaderas intenciones de la IA para el futuro no son ayudarnos a pensar mejor, sino pensar por nosotros mismos para que dejemos de ser sujetos-marionetas que quieren convertirnos en datos.

Ese es y será el reto de romper el espejo algorítmico y volver a habitar la complejidad de lo real, de lo imaginario y creativo. Sería la enorme tarea que tendría que llevarse a cabo desde los espacios de la educación y los retos específicos que esto conlleva. Aspectos a ser tratados en el tercer apartado.

Comentarios

Entradas populares