Uso de Agentes IA en la Manipulación de Narrativas Digitales (2a parte)
En la segunda parte del tema abordado, pensamos ser un poco más creativos, después de abordar anteriormente, sobre conceptos importantes relacionados con los llamados agentes que son producidos por la tecnología de sistemas inteligentes informáticos, cuya construcción de algoritmos (arquitectura neuronal), ya pudimos darnos cuenta, tienen de origen diversos grados de complejidad y dificultad, para implementarlos en la industria, en el sector de servicios comerciales, el sector salud, en el propio ámbito de la ciencia, entre otros tantas aplicaciones que surjan durante el presente año.
Explico, en este caso, se trata de un debate ficticio entre dos personajes que van a exponer sus puntos de vista desde su visión personal y profesional, tomando como punto central el uso de agentes IA en la manipulación de narrativas digitales. Así tenemos a la Dra. Elena Voss, transhumanista experta en inteligencia artificial y ética digital. Del otro lado, tenemos al Prof. Thomas Kael, neoludita reflexivo y precavido, filósofo de la tecnología y crítico de la tecnocracia. Para enriquecer y complementar el debate, agregamos un moderador también ficticio que va a orientar el desarrollo de los temas a discutir. Comencemos entonces, el debate.
Moderador:
"Los agentes de IA -desde chatbots hasta sistemas de recomendación- están redefiniendo cómo se consumen las narrativas digitales. Plataformas como TikTok, X (Twitter) o Meta, utilizan algoritmos para personalizar contenido, pero también para amplificar desinformación, sesgos ideológicos o dependencia tecnológica. ¿Estamos ante una herramienta de empoderamiento humano como lo podría defender el transhumanismo, o ante un riesgo existencial para la autonomía cognitiva como lo advierten los neoluditas?"
Dra. Elena Voss:
"Los agentes IA son la evolución natural de la comunicación humana. Autores como Nick Bostrom (Supertinteligencia, 2014), argumentan que, bien regulados, estos sistemas pueden optimizar el acceso al conocimiento y neutralizar sesgos. Por ejemplo, proyectos como GPT-4o ayudan a educadores a personalizar aprendizaje. Esto lo podemos observar en el informe de Open AI (2023). La manipulación no es inherente a la tecnología, sino a su mal uso. Tal como propone la OCDE en sus Principios de IA (2019), será a través de la transparencia algorítmica, que los agentes pueden democratizar la narrativas, no controlarlas."
Prof. Thomas Kael:
"Esa visión ignora los estudios de Shoshana Zuboff (The Age of Surveillance Capitalism, 2019), la cual plantea que los agentes de IA están diseñados para maximizar engagement, es decir, la autora considera que es una herramienta que emplean las empresas tecnológicas para manipular la atención y el comportamiento humano como parte de un sistema de modificación conductual. Así tenemos plataformas como Facebook que usan el refuerzo conductual, según lo señala Tristan Harris (The Social Dilemma, 2020), para crear burbujas ideológicas. Tenemos también, el informe de E.U. Agency for Fundamental Rights (2022), que muestra cómo algoritmos discriminan a minorías. ¿Empoderamiento? Es una ilusión. Como advirtió Neil Postman (Technopoly, 1992), la tecnología no es neutral: redefine qué es verdad y quién la controla."
Dra. Elena Voss:
"Pero el problema no son los agentes, sino la falta de alfabetización digital. Por ejemplo, Ethan Zuckerman (Mistrust, 2021) propone una lectura crítica de algoritmos. Además, agentes como Perspective API (de Jigsaw/Google), detectan discursos de odio automáticamente. La IA puede ser un antídoto contra la manipulación si se gobierna con ética, como lo sugiere Stuart Russell (Human Compatible, 2019)."
Prof. Ethan Kael:
"La ética no basta cuando está en manos de corporaciones. Cathy O'Neal (Weapons of Math Destruction, 2016), prueba que los algoritmos reproducen desigualdades estructurales. Y según Timit Gebru, exempleado de Google, señala que los LLM como ChatGPT amplifican racismos por sesgos en los datos. Cabe la pregunta, ¿Cabe que ellos autorregulen? Es ingenuo. Necesitamos moratorias como lo propone el EU Artificial Intelligence Act (2024)."
Moderador:
"El debate no es tecnología si versus tecnología no, sino ¿Qué tecnología y para qué? Como nos advierte Yuval Noah Harari (21 Lessons for the 21st Century), si no dominamos a los agentes de IA, ellos nos dominarán. La solución está en la hibridación: herramientas técnicas rigurosas + humanismo crítico."
Lanzamos de manera complementaria una pregunta como papa caliente para los lectores: ¿Con quién se identifican más, con la visión transhumanista de la Dra. Voss o con la crítica expuesta del Prof. Kael? ¿Qué riesgos y oportunidades ven en su propia interacción cotidiana con agentes de IA?
Dejemos por un momento el debate y dediquemos el espacio para plantear las siguientes preguntas: ¿Pueden los agentes IA ser diseñados para reducir la polarización (ej. mostrando visiones plurales), o su lógica de optimización siempre priorizará el conflicto?, si la educación es la solución ¿cómo enseñar a criticar algoritmos cuando estos evolucionan más rápido que los planes de estudio?, ¿deberían regular los estados las narrativas digitales o sería censura oficial de acceso a la información?
Podríamos pensar y concluir que los posibles acuerdos mínimos a los que nuestros ficticios debatientes podrían llegar en todo caso serían, por ejemplo, la posibilidad de crear auditorías independientes, es decir, crear organismos interdisciplinares (con informáticos, filósofos y pedagogos) para evaluar el impacto de los agentes IA, tal como propone el AI Now Institute, impulsar un diseño ético desde el origen, implementar el principio de precaución, según lo señala EU AI Act. Incluir en escuelas y universidades materias sobre ética digital y sesgos algorítmicos, basadas en frameworks (marco universal de valores, principios y acciones para orientar leyes y políticas nacionales sobre IA) como las plantea la UNESCO (2021).
En el tercer apartado, podríamos establecer algunas posibles líneas de reflexión y de acción que tendrían como punto central, la enorme tarea de colaborar en el desarrollo de proyectos académicos para la capacitación profesional en el uso y creación de agentes que pudieran servir para propósitos comunes colectivos inteligentes que permitan impulsar el aprender a aprender basado en la creatividad, innovación, inclusión, resiliencia y desarrollo sustentable en nuestras comunidades inmediatas.
Comentarios
Publicar un comentario
Se solicita que los comentarios y argumentos sobre las publicaciones de este blog sean: propositivos, reflexivos, críticos, con aportaciones pertinentes en el ámbito de la tecno-pedagogía y la educación del siglo XXI.