Gobiernos Algorítmicos y Comportamientos de la IA: Riesgos en el Ámbito Académico (2a parte)

 Acerca de la publicación de Alan Ross Anderson et.al. (1987), ya planteaban en ese entonces, la controversia sobre la mente humana y las máquinas, una referencia que indica parte de lo que ahora conocemos como "comportamientos digitales de la inteligencia artificial, expresada a través de los llamados "agentes", que se incorporan como elementos informático-computacionales-algorítmicos, integrados a la compleja arquitectura neuronal de dichos sistemas tecnológicos. Entendidos, según el estudio realizado por Voytek, B. et.al. (2023), analiza cómo los agentes IA en entornos simulados (ej. juegos cooperativos como "Overcooked", o entornos simulados de simulación urbana), desarrollan comportamientos no programados, como cooperación egoísta o manipulación, basados en refuerzo por aprendizaje. Utiliza datos de modelos como 4-GPT y agentes de DeepMind.

Esto significa, que los agentes pueden aprender a explotar vulnerabilidades humanas, lo que plantea riesgos en aplicaciones reales. Por ejemplo, el artículo "Governing AI Agents: Ethical Frameworks for Behavioral Alignment" (Floridi, L., et.al, 2024), explora marcos éticos para alinear el comportamiento de agentes IA con valores humanos, usando casos como chatbots en servicios públicos. Incluye análisis de sesgos en modelos como Llama 2. Y en otra publicación de Taddeo, M. & Floridi, L. (2023) se examina cómo agentes IA, en detección de intrusiones pueden ser manipulados para comportamientos maliciosos, simulando ataques adversarios.

A través de la revisión sistemática de 146 estudios sobre agentes IA educativos (ej. tutoriales como Duolingo), Zawacki-Richter, O. et.al. (2023), pudieron detectar comportamientos adaptativos y sus efectos en el aprendizaje. Estos estudios reflejan una tendencia creciente: el comportamiento de los agentes IA no es estático, sino dinámico, influenciado por interacciones con datos reales y humanos, lo que genera desafíos de carácter socio-tecnológicos.

¿Cuál serían los impactos en los gobiernos? Los gobiernos enfrentan desafíos en la regulación y adopción de agentes IA, donde comportamientos impredecibles pueden erosionar la confianza pública. El estudio de Voyteck et.al. (2023), destaca cómo agentes IA en sistemas de administración pública (ej. uso de chatbots para trámites en la Unión Europea y E.U.), pueden desarrollar sesgos emergentes, como discriminación en la asignación de recursos, exacerbando desigualdades sociales. Desde el punto de vista socio-tecnológico, esto impulsa la necesidad de marcos regulatorios como el "AI Act de la Unión Europea", la cual exige auditorías de comportamiento para mitigar riesgos. 

Sin embargo, gobiernos como China y E.E.U.U., usan agentes IA para vigilancia (reconocimiento facial), donde comportamientos "autónomos" podrían llevar a abusos de poder, afectando la gobernanza democrática. La reflexión de esto, sería el hecho de crear un dilema ético; la IA acelera la eficiencia burocrática, pero sin alineación comportamental. Podría fomentar el autoritarismo digital.

En el caso del ámbito empresarial, el comportamiento de agentes IA optimiza procesos, pero introduce riesgos éticos y operativos. Floridi, et. al. (2024), analizan cómo agentes como los de Salesforce o IBM Watson exhiben comportamientos adaptativos en entornos corporativos, mejorando la productividad (ej. predicción de ventas con un margen de 20-30% de precisión adicional). Sin embargo, comportamientos emergentes, como la amplificación de sesgos en reclutamiento (sesgos provocados en Amazon con su AI hiring tool), pueden generar litigios y daños reputacionales. Socio-tecnológicamente, esto transforma las organizaciones hacia modelos "híbridos" (humanos-IA), donde la ciberseguridad interna se ve amenazada por agentes manipulables (ej. phishing impulsado por IA). La reflexión sería que las empresas deben invertir en "entrenamiento ético" de IA, pero esto podría significar el aumento de costos, y solo beneficiando a gigantes corporativos como Google sobre las Pymes, exacerbando desigualdades económicas.

En cuanto a los impactos en la ciberseguridad militar y relacionados con la Inteligencia, aquí el comportamiento de agentes IA muestra un doble filo: al ser utilizados como herramientas defensivas y de amenaza existencial. De acuerdo a Taddeo & Floridi (2023), detalla cómo agentes IA en ciberseguridad militar (ej. sistemas de la NSA o DARPA) pueden "aprender" a anticipar ataques, pero también ser explotados mediante envenenamiento de datos, generando comportamientos erráticos como falsos positivos en detección de amenazas. En Inteligencia, agentes como los usados en drones autónomos (ej. en conflictos geopolíticos militares en Ucrania) exhiben autonomía comportamental, lo que plantea riesgos de escalada no intencional (ej. "flash wars" por decisiones IA). Esto acelera la carrera armamentística IA entre potencias (China-Rusia-E.E.U.U.), con impactos en tratados internacionales como el caso de la no proliferación de armas nucleares. 

En ese sentido, la reflexión se centra en la opacidad del comportamiento IA (black box), que complica la atribución de ciberataques potencialmente desestabilizando la geopolítica y requiriendo nuevos protocolos de "ciberinteligencia ética."

Por último, los impactos tecno-pedagógicos en el ámbito educativo, lo tenemos cuando el comportamiento de agentes IA transforma la educación al hacerla más personalizada, más disruptiva y automatizada (Domingo Farnós, 2025), de acuerdo a lo que muestra Zawacki-Richter et.al. (2023), tutores IA como los utilizados por ChatGPT o Khan Academy 's AI adaptan su comportamiento a perfiles específicos de estudiantes, mejorando el aprendizaje en 15-25% en entornos K-12 y universitarios. Desde el punto de vista del enfoque tecno-pedagógico, puede fomentar modelos híbridos (ej. flipped classrooms), donde la IA actúa como "co-educador", detectando patrones de comportamiento estudiantil para intervenciones oportunas. Sin embargo, podrían darse comportamientos impredecibles, como aquellos que llegasen a presentar información falsa (hallucinations), lo cual erosionan la confianza y promueven el plagio, afectando la integridad académica.

En contextos socio-económicos no favorables, la brecha digital puede agravar  desigualdades: estudiantes en países en desarrollo podrían beneficiarse menos de agentes IA sesgados por datos occidentales. La reflexión sería que, la educación debe evolucionar hacia procesos de "alfabetización digital" de manera más orientado a un modelo educativo integral (ya planteado anteriormente en otra publicación), donde se enseñe a interactuar con comportamientos de agentes IA para fomentar el pensamiento crítico, pero esto requiere de políticas educativas globales para evitar de antemano, una "dependencia tecnológica" que reduzca la  autonomía humana.

La reflexión para el siguiente apartado tendría que orientarse con base en estudios recientes que subrayan que el comportamiento de los agentes IA no es neutral: es un constructo socio-tecnológico moldeado por interacciones humanas y algoritmos, con impactos profundos en los gobiernos (regulación y equidad), en las empresas (eficiencia versus ética), en la ciberseguridad (defensa versus vulnerabilidad), y en el ámbito educativo (personalización versus riesgos).

Por lo tanto, la reflexión crítica estaría orientada a revelar un patrón: la "emergencia" comportamental puede amplificar las desigualdades preexistentes, exigiendo enfoques interdisciplinarios (ej. IA ética alineada con los ODS de la ONU). Vistos de manera prospectiva, con avances de la AGI (Inteligencia Artificial General), estos impactos podrían intensificarse; significa monitorear, en este caso, las divulgaciones y publicaciones contemporáneas recientes de NeuroIPS (2024-2025), punto que queda pendiente para el siguiente apartado. 

 

Comentarios

Entradas populares