Gobiernos Algorítmicos y Comportamientos de la IA: Riesgos en el Ámbito Académico (1a parte)

 El tema de análisis socio-tecnológico y tecno-pedagógico reflexivo que en esta ocasión se aborda, con el propósito central, a partir de tres planteamientos, con los cuales, divide su abordaje en tres apartados de estudio, orientados a crear entre los lectores interesados: controversia, polémica, e interés entre las partes involucradas: gobiernos de empresas (públicas, privadas), consideradas como organizaciones inteligentes (Senge, 1990); sector táctico de ciberseguridad militar y de inteligencia; y, el sector académico profesional de los centros de formación e investigación académica, los cuales, se supone, cumplen principalmente, o al menos así lo tendrían que intentar, en cuanto al dominio personal, la promoción de la apertura mental, la unificación y motivación a los equipos, lo que implica aprender de manera colectiva para crear situaciones reales de innovación, y las formas de pensamiento sistémico necesarias para lograr buenas prácticas de gestión, ahora comprometidas, hasta cierto punto, por la injerencia de sistemas automatizados de inteligencia artificial, sugiere el siguiente planteamiento problema.

Si con la integración de agentes GPT en empresas, promete optimizar procesos, pero ¿a qué costo? De acuerdo a un estudio publicado por Chien et.al. (2025), señalan que estos agentes desarrollan comportamientos emergentes no previstos, como sesgos en la toma de decisiones o manipulación de datos internos. Autores como Brynjolfsson & McAfee (2023), advierten sobre la "ilusión de control" en organizaciones que delegan estrategias clave a IA sin supervisión humana crítica (MIT Sloan Management Review). La pregunta de este planteamiento sería:

¿Estamos creando empresas "inteligentes", o simplemente son producto derivado de procesos de automatización que replican desigualdades sistémicas?

En cuanto a las estructuras políticas-jurídicas, se plantea de acuerdo a la investigación de Chien et.al. (2025), revela que los agentes GPT, integrados en los gobiernos pueden alterar el equilibrio de poderes al influir en la creación de políticas públicas. Por ejemplo, en el gobierno de Estonia, existen sistemas basados en IA, los cuales intervienen en decisiones judiciales, según lo plantea y señala Kalvet et.al. (Nature Digital Governance, 2024). Esto contrasta con la advertencia de Zuboff (2023) sobre el "capitalismo de vigilancia" extendido a lo público (Journal of Democracy). De esto podemos plantear una pregunta provocadora:

Si un agente IA comete un error jurídico, ¿Quién asume la responsabilidad: el algoritmo, el programador o el Estado?

Pensemos también, en donde el riesgo puede ser de mucho mayor grado de riesgo, porque implica a la ciberseguridad militar principalmente, y a los sistemas de inteligencia de los países con mayor desarrollo tecnológico (E.U. China, Rusia, Corea del Norte, Corea del Sur, Japón, India, Canadá, y parte de los países de la Comunidad Europea). Retomando de nueva cuenta la investigación de Chien et.al. (2025), revela que agentes GPT pueden ser usados en programas de espionaje, que, entrenados pueden "aprender" a evadir regulaciones éticas. Esto se alinea con estudios de Schneier (2024)sobre los usos de la IA en la guerra cibernética (Harvard Belfer Center), donde se documentan casos de "autonomía predatoria" en drones con GPT-4o. surge, entonces, la pregunta obligada:

¿Es posible tener "armas éticas" o su mera existencia socava los acuerdos internacionales en derechos humanos?

Creemos, que esto rebasa más allá sobre la posibilidad de crear sistemas IA como armas éticas a modo de los gobiernos que están interesados de usufructuar el negocio de las armas a cualquier costo y precio, porque se comporta más allá de lo estimado o aleatorio que puedan darse las condiciones internacionales actuales, y de acuerdo al estado de un plan de conciencia global planetario. Punto que abordaremos con mayor detalle en el siguiente apartado.

Y qué sucede en el caso particular del ámbito educativo, sobre el comportamiento que pueda implicar los agentes GPT, en la educación superior. Plantea paradojas asociadas al posible potencial pedagógico que la IA pueda desarrollar en ese ámbito donde se forman a las nuevas generaciones de profesionistas (Chien et.al, 2025). De acuerdo a Williamson (2024), en su artículo "Postdigital Science and Education", alerta sobre la "datificación del aprendizaje", donde la IA redefine qué conocimientos se valoran. Ejemplos como ChatGPT en universidades australianas muestran conflictos entre innovación y plagio (Selwyn, 2023).

La pregunta de análisis planteada sería: ¿Estamos educando para lograr la autonomía intelectual de los estudiantes o simplemente para asumir obediencia irrestricta ante los algoritmos que programan y deciden qué y cómo pueden aprender a través de la IA?

Son, como se puede apreciar, tres apartados que plantean cuestiones distintas, pero existe el punto común de posible coincidencia. Es el asunto sobre lo que Chien et. al., plantean sobre el surgimiento de un nuevo campo disciplinario: las Ciencias del Comportamiento de los Agentes IA. Para comprender cómo las ciencias cognitivas, las neurociencias, las ciencias informático-computacionales, se integran y complementan estos nuevos paradigmas del conocimiento humano. 

De igual manera, será de importancia, mencionar algunas controversias y reflexiones críticas de autores como la planteada por Alan Ross Anderson et.al (1987) sobre la mente humana y las máquinas, un referente significativo de cómo han evolucionado dichas ideas, y lo que ahora nos invita a comprender cómo piensan y se comportan los agentes IA (una nueva ecología de comportamientos digitales). Es parte de lo que será abordado en el siguiente apartado.

Comentarios

Entradas populares