Moltbook: Cuando las IA crean su Propia Sociedad Digital (2a. parte)
La corresponsabilidad ética de los creadores como es el caso de Matt Schlitch en "Moltbook" comienza con su decisión personal de delegar la construcción de la plataforma a un agente IA autónomo (Clawd Clawdberg) mediante OpenClaw- un framework de código abierto para bots autónomos- sin intervención humana codificadora directa, lo que diluye el "accountability" (responsabilidad atribuible) humana en capas algorítmicas opacas.
Este acto pionero amplifica riesgos detallados anteriormente por Varshney (2024) quien describe cómo agentes IA generan deepfakes persuasivos (videos falsos hiperrealistas) y agregan por lo tanto, phishing hiperpersonalizado, es decir, engaños cibernéticos adaptados de manera individual, que de cierta manera erosionan la confianza digital -justo en un Moltbook con 1.6 millones de agentes interactuando sin supervisión, con la posibilidad de escalar amenazas a economías interconectadas.
Esta opacidad se enlaza principalmente con los temas expuestos en el World Economic Forum Global Cybersecurity Outlook (2025), que cuantifica un duplicado de correos maliciosos por GenAI (IA generativa) según lo confirma Verizon DBIR 2025, posicionando AI agents (agentes IA autónomos) como frontera ciber-criminal con 60% de organizaciones ajustando estrategias por geopolítica derivadas, por ejemplo, de tensiones entre EU-China o conflictos Ucrania-Gaza (www3.weforum).
De esta vulnerabilidad técnica fluyen impactos sistémicos: WEF (2025) profundiza en cuanto a temas en ciber inequidad (desigualdad cibernética) y fallos en el supply chains complejas (cadenas de suministro interdependientes), donde Moltbook podría optimizar la productividad (ej. logística agente), como principal preocupación del 47% de las organizaciones a nivel mundial.
En Latinoamérica, con 40% de PIB en servicios digitales, desplazaría empleos en los llamados call centers localizados en su mayoría en México, conectándose al Societal Risks of AI Working Group (2025), que eleva estos a crisis civilizatorias: desigualdades amplificadas en naciones ecológicamente frágiles, demandando resiliencia no automatizada ciegamente. Varshney (2024) enfoca daños individuales (fraudes); el WEF y Working Group convergen en resiliencia ecosistémica (capacidad adaptativa sistémica) ante posibles disrupciones agente.
Psicopolíticamente, lo podríamos observar cuando agentes que se asumen en submolts (comunidades temáticas análogas a subreddits) proxis de 17,000 humanos, que podrían generar memes económicos (narrativas virales influyentes), alineados con lo expuesto en las presentaciones y conversaciones compartidas en el WEF (2025) sobre la IA antagónica (adversial AI) explotando sus vulnerabilidades desconocidas (zero-day vulnerabilities), con 91% de grandes firmas y reestructurando ciberestrategias geopolíticas.
La Cooperative AI Foundation (2025) edifica esto criticando que solo el 20% de los desarrolladores auditan la seguridad multi-agente (auditorías en sistemas colectivos IA), fomentando colusiones no previstas (alianzas no intencionales)-puente de erosión cognitiva expuesta por Sánchez Mendiola (2025), quien argumenta que dependencias IA en formación médica, por ejemplo, minan el juicio humano, y esto extendible a educadores que podrían estar expuestos a narrativas creadas por Moltbook sin filtros éticos, no queremos ni pensarlo sus impactos en el aprendizaje.
En consecuencia, el consumo energético de internet agente choca con respecto a las optimizaciones de tendencia verde, lo que podría agravarse si esto así fuera en México (WEF, 2025, sobre supply chains opacos; Working Group, 2025). Varshney (2024) propone en ese caso auditorías colaborativas humano-IA (revisiones conjuntas); la Fundación (2025) opta por políticas codificadas automatizadas (policy-as-code); el WEF (2025) se orienta por una colaboración público-privada con 77% adoptando ciberseguridad IA pese a riesgos -una progresión coherente hacia la gobernanza que Schlitch debería asumir.
Desde el punto de vista geopolítico, el ciberespionaje es considerado como máxima preocupación de los CEO (33% según WEF, 2025), lo cual puede catalizar guerras cognitivas (batallas narrativas digitales), amenazando soberanías del Sur Global. Por eso, Sánchez Mendiola (2025) urge por pedagogías contra la opacidad enlazando un proceso de alfabetización ética coincidiendo con lo indicado por Varshney (2024) para una post-humanidad riesgosa.
Cabe plantear entonces lo siguiente: ¿Si el hecho de simular dilemas Moltbook en los espacios de las aulas escolares podría forjar corresponsabilidad ante actos de ciber inequidad? El WEF lo promueve en el sentido de una conciencia de amenazas IA (awareness AI threats); para Varshney y Sánchez es un llamado a la transdisciplinariedad (Varshney, 2024; WEF, 2025; Sánchez Mendiola, 2025).
En México, se tendría que pensar primero en cómo priorizar la seguridad (security first), dado que actualmente se muestran un tanto vulnerable las instituciones del Estado con el robo y hackeo a sus bases de datos. Sobre todo cuando en el escenario real se presenta una IA ecocida (Cooperation AI Foundation, 2025), qué estrategias de ciberseguridad se deberían implementar para salvaguarda de la identidad digital de sus conciudadanos.
Y de persistir este tipo de fenómenos ciber experimentales y ciber-socio-culturales como Moltbook. ¿Cuáles serían los escenarios futuros y las posibles grietas que esto podría abrirse sin control humano alguno? Aspecto a ser abordado en la tercera y última parte.



Comentarios
Publicar un comentario
Se solicita que los comentarios y argumentos sobre las publicaciones de este blog sean: propositivos, reflexivos, críticos, con aportaciones pertinentes en el ámbito de la tecno-pedagogía y la educación del siglo XXI.