Cibercultura y Sociedad Disruptiva: Impactos de la Automatización en la Educación del Presente y Futuro (2a parte)
En el primer apartado revisamos como desde las aportaciones de Castells (2021), Levy (2022) y Selwyn (2020), abordaron desde su visión personal, cómo se manifiesta la cibercultura en relación a la integración inmediata de herramientas digitales, entre ellas las de inteligencia artificial; los cambios en la alfabetización digital y la necesidad de adquisición de nuevas competencias tecno-pedagógicas; y, la relación con los problemas éticos derivados de la dependencia tecnológica de las personas y en relación con la formación crítica de los estudiantes.
En ese escenario de corto plazo, se establece la transición hacia la adopción de herramientas basadas en la IA, con el fin de automatizar las tareas administrativas y las correspondientes al proceso de aprendizaje, la personalización de los contenidos y la sistematización de la evaluación automática. Haciendo hincapié que dichos procesos podrían generar desigualdades en el acceso y una posible dependencia excesiva hacia la tecnología en detrimento de desarrollar en las personas capacidades de pensamiento crítico.
En el mediano plazo, nos habla sobre la transformación de los roles educativos en una sociedad automatizada, lo cual orienta el análisis a los siguientes aspectos a considerar: a) la reconfiguración del docente como mediador entrenado entre tecnología y su método de atención hacia los estudiantes; b) la evolución de los métodos pedagógicos derivados hacia enfoques híbridos, centrados en la colaboración entre humanos y máquinas; y, c) la posible aparición de conflictos cuando se plantea lo siguiente: ¿la automatización sustituirá la creatividad y el juicio humano?
El escenario probable se vislumbra cómo la automatización y la IA habrán transformado de manera significativa los procesos educativos. Los docentes adoptarán roles más estratégicos, como guías del pensamiento crítico y ético, mientras que las herramientas tecnológicas asumirán tareas rutinarias. Sin embargo, podrían surgir tensiones entre quienes abrazan estos cambios tecno-pedagógicos y aquellos que temen una gradual deshumanización de la educación. Y con sobrada preocupación, porque, el mercado de competencia de las actuales corporaciones que están ahora creando robots y androides parecidos a humanos, ya pueden adoptar funciones y roles de docente frente a grupo, donde le pueden desplegar contenidos complementados con actividades mediante herramientas multimedia o inclusive, enriquecidas con realidad aumentada (AR), pueden provocar en los estudiantes que participen de manera activa y colaborativa a través de entornos de gamificación (por ejemplo, cuartos de escape, etc.).
Para este escenario de mediano plazo, recurriremos a la revisión de varios autores, que pueden ilustrar parte de lo que se ha comentado. Una aportación que argumenta cómo la inteligencia artificial está transformando las prácticas educativas y plantea la necesidad de fomentar la transparencia en los sistemas de aprendizaje automático utilizados en el ámbito educativo, lo tenemos con Luciano Floridi (2020), con un artículo publicado en la revista Philosophy and Technology, "Artificial Intelligence, Deep Learning, and the ´Black Box´ Problem: How to Foster Transparency and Accountability in Education". El autor señala que los sistemas de IA desde la evaluación de los estudiantes hasta la personalización del aprendizaje, están siendo automatizados para optimizar tareas que tradicionalmente eran realizadas por educadores humanos. Esto trae en consecuencia, un cambio en la dinámica educativa, en cuanto al abordaje de los contenidos, la relación entre estudiantes, docentes y el conocimiento. Esto introduce nuevas formas de enseñanza y aprendizaje que, si bien, prometen eficiencia, también generan desafíos éticos y pedagógicos. Floridi alerta sobre cómo los sistemas de IA pueden perpetuar desigualdades existentes, ya que los modelos entrenados en datos sesgados podrían discriminar contra ciertos grupos sociales. Trae consigo implicaciones profundas en contextos educativos, donde se intenta buscar la equidad y la inclusión.
Señala el autor, que el problema de la "caja negra" (Black Box)está asociado con los sistemas de aprendizaje profundo. Este concepto se refiere a la falta de comprensión sobre cómo los algoritmos de IA toman decisiones complejas. Este problema plantea importantes desafíos en el ámbito educativo: falta de explicabilidad sobre las tomas de decisión de las IA son a menudo opacas, dificulta que docentes, estudiantes y administradores comprendan cómo se producen los resultados. Dicha opacidad de los sistemas puede llevar a una dependencia excesiva en la IA, reduciendo el papel de los docentes como mediadores críticos en el proceso de aprendizaje. Trae en consecuencia, la falta de transparencia la cual, puede erosionar la confianza en los sistemas educativos impulsados por IA, especialmente si los actores involucrados no entienden ni pueden cuestionar las decisiones tomadas de las máquinas.
En otra publicación de Floridi (2021), "The Ethics of Artificial Intelligence in Education: Promoting The Human Decision". de la revista AI and Society, el autor explora los dilemas éticos en el uso de la IA para personalizar el aprendizaje y automatizar tareas administrativas, destacando la importancia de mantener el enfoque en los valores humanos. Si bien, la IA puede analizar grandes cantidades de datos sobre el rendimiento y las preferencias de aprendizaje de los estudiantes, ofreciendo experiencias educativas adaptadas y más efectivas, también puede mejorar el acceso y la inclusión. Implica dilemas éticos relacionados con la reducción de la autonomía del estudiante que le impide y limita, a su vez, la capacidad para que los estudiantes tengan la oportunidad de explorar fuera de las rutas predefinidas, restringiendo su libertad de elección y creatividad.
En el caso concreto de la IA, los sistemas pueden perpetuar sesgos si los datos en los que se basan no son representativos o justos, lo que podría generar discriminación contra ciertos grupos de estudiantes que no cubren el perfil requerido por las máquinas, y no tanto por los docentes o los directivos del plantel escolar. Floridi argumenta que de nueva vuelta, una excesiva dependencia en la IA podría priorizar la eficiencia sobre la interacción humana y la dimensión ética del aprendizaje, reduciendo el papel del docente como un guía moral y emocional. En ese sentido, señala el autor, la recopilación masiva de datos de los estudiantes plantea preocupaciones sobre la privacidad, la seguridad de la información y el potencial uso indebido de los datos.
Otros autores que están en el nivel de reflexión crítica parecido a Floridi, lo tienen las publicaciones de Sherry Turkle (2016), "Can Robots Teach? Reflections on the Future of the Education in the Age of Artificial Intelligence", en la revista Daedalus, y el artículo de Neil Selwyn (2019), "Education and Artificial Intelligence: The Challenges of Automating the Classroom", publicado en Learning, Media and Technology.
Turkle, reflexiona sobre el impacto de los robots y la IA en la educación, la cual considera sobre las limitaciones emocionales y humanas de las tecnologías automatizadas en el aprendizaje. Identifica las siguientes limitaciones de dichas tecnologías: Que los robots y sistemas IA aparte de que no pueden experimentar emociones ni empatizar con los estudiantes, representa una barrera importante, ya que, la educación no solo implica la mera transmisión de conocimientos, sino también el apoyo emocional y la construcción de relaciones humanas significativas. Por lo tanto, la enseñanza efectiva requiere una comprensión profunda de las emociones, motivaciones y contextos individuales de los estudiantes, algo que las máquinas no pueden replicar. El uso de robots en entornos educativos puede deshumanizar el proceso de aprendizaje, reduciéndolo a una interacción mecánica o transaccional, porque, inclusive, señala la autora, puede desarrollar una dependencia emocional de los estudiantes, como problemática planteada hacia los robots, confundiendo la capacidad de respuesta programada con una relación real. Esto podría afectar negativamente su desarrollo emocional y social.
A medida que los estudiantes interactúan con tecnologías automatizadas que con docentes humanos, existe el riesgo de que pierdan oportunidades para desarrollar habilidades sociales esenciales como la empatía, la colaboración y el pensamiento crítico. Los docentes al no ser meros transmisores de contenidos, pueden llegar a ser modelos a seguir y guías que promuevan la ética, es decir, son mentores para guiar a los estudiantes en su desarrollo personal y los ayudan en sus dilemas éticos y sociales. Este rol requiere juicio humano y sensibilidad.
La publicación de N. Selwyn (2019), centra su crítica hacia la tensión entre los beneficios de la automatización impulsada por la IA y las empresas que las promueven detrás del telón. Las preocupaciones señaladas del autor son: la reducción del aprendizaje a procesos mecanizados, es decir, acerca de lo que prioriza la IA (eficiencia y estandarización), puede conducir según Selwyn, a una visión reduccionista del aprendizaje considerado como un proceso técnico y cuantificable. Esto ignora aspectos más profundos del aprendizaje, como el pensamiento crítico y el desarrollo emocional. La automatización de procesos educativos disminuye el papel del docente como guía y mentor, reemplazando las interacciones humanas con respuestas algorítmicas. Esto plantea el riesgo de que los estudiantes se sientan desconectados y desmotivados.
Los sistemas de IA a menudo se basan en métricas para evaluar el aprendizaje, lo que puede provocar un enfoque superficial en el cumplimiento de objetivos medibles, en lugar de fomentar habilidades intangibles e intrínsecamente humanas. Esto reduce la capacidad de los docentes frente a grupo y reduce su rol en simples operadores de sistemas tecnológicos. Resalta que la educación no solo es una cuestión de eficiencia individual, implica procesos colectivos en la colaboración, el diálogo y el intercambio cultural, aspectos que la IA no puede facilitar de manera efectiva.
La conclusión de momento, es que los desafíos y dilemas éticos de la cibercultura que van a continuar incrementándose en la medida que estas tecnologías y sistemas de IA avancen en sus procesos de algoritmización y dominio de estructuras de lenguaje natural, sean cada vez más personalizados al tratar de imitar lo que como humanos podemos realizar en la vida cotidiana, con todo el bagaje de experiencias que requieren de nuestra propia capacidad para resolver problemas y tomar decisiones inteligentes individuales y colectivas, quedan en el aire pendientes y escaleras por construir juntos, a fin de salvaguardar nuestra propia supervivencia planetaria humana.
En el siguiente apartado, abordaremos el escenario de largo plazo, el cual trae consigo y debajo de la manga la emergencia de una cibercultura completamente integrada, donde los límites entre lo humano y lo tecnológico, posiblemente se difuman, donde existe la necesidad de un nuevo contrato social en la educación, basado en principios éticos globales para nuestra convivencia con la IA avanzada, planteando lo siguiente para trabajar con propuestas educativas concretas a largo plazo: ¿cómo vamos a redefinir la humanidad en una sociedad automatizada?
Comentarios
Publicar un comentario
Se solicita que los comentarios y argumentos sobre las publicaciones de este blog sean: propositivos, reflexivos, críticos, con aportaciones pertinentes en el ámbito de la tecno-pedagogía y la educación del siglo XXI.