Mentefactura y Sociedad del Conocimiento: Desafíos y Controversias (2a parte)

 Un primer planteamiento que anotamos para la segunda parte del tema abordado, es el siguiente: 

De acuerdo a los argumentos reflexivos críticos expuestos por Igor Shnurenko, Tatiana Murovana e Ibrahim Kushchu, en el informe de la Unesco (2020): Artificial Intelligence. Media and Information Literacy, Human Rights and Freedom of Expression, advierten sobre el uso de la IA en diferentes ámbitos (económicos, políticos, educativos, culturales, etc.), pueden impactar de manera desfavorable en la sociedad y en las personas. ¿Y esto cómo podría impactar en lo que se propone realizar, según la Unesco, en distintas fases de adopción y adaptación en los países, especialmente aquellos que se encuentran en vías de desarrollo, a través de las sociedades del conocimiento (Unesco, 2005, 2017)?

Se señala en dicho documento que, si bien, la inteligencia artificial (IA), ya se considera como una herramienta poderosa en constante evolución, tiene, a su vez, un impacto significativo en la sociedad y en las personas. Esto se puede observar en diferentes ámbitos: en lo económico y laboral, la IA puede aumentar la productividad y la eficiencia de las empresas, pero también puede desplazar a los trabajadores humanos en ciertas tareas repetitivas mecanizadas. Esto puede generar desigualdad y desempleo, especialmente en países en vías de desarrollo. Por otro lado, que las empresas e industrias que desarrollen su propia capacidad tecnológica a través de la IA, existe la posibilidad de crear nuevos empleos en áreas de la programación, la gestión de datos y lo que por sí misma pueda generar la IA. 

En lo político y social, los sistemas de IA pueden perpetuar sesgos existentes en los datos de entrenamiento (discriminación algorítmica), lo que lleva a decisiones discriminatorias en áreas como la contratación, el crédito y la justicia. Asimismo, la recopilación y el uso de datos personales por parte de la IA plantean preocupaciones sobre la privacidad y seguridad, por eso es fundamental establecer regulaciones y salvaguardias adecuadas.

En el ámbito educativo y cultural, la IA puede adaptar la enseñanza a las necesidades individuales de los estudiantes, véase al respecto, por ejemplo, lo que aporta Domingo Farnós sobre las publicaciones relacionadas con la educación disruptiva, donde el aspecto central a considerar es la equidad y la accesibilidad real concreta que puedan ofrecer las instituciones escolares y universitarias, si estas cuentan o no con la infraestructura tecnológica, si sus docentes están capacitados y entrenados para el uso de la IA en el espacio del aula con metodologías tecno-pedagógicas digitales, etc. Si con estas propuestas, de alguna manera, pueden ayudar a preservar y difundir el patrimonio cultural, como también, abordar cuestiones éticas y de propiedad intelectual.

Y, en lo que corresponde, prácticamente, a la parte ética y los derechos humanos, habría que hacer mención sobre la transparencia y explicabilidad que se refiere a la habilidad de entrenamiento en sus diversas máquinas de aprendizaje, que pueda desarrollar la IA en sus decisiones y procesos para garantizar la confianza y la rendición de cuentas. Por otro lado, se debe considerar que, la IA no podrá socavar los derechos humanos, la libertad de expresión, la privacidad y la no discriminación en cualquiera de sus expresiones y manifestaciones que atenten contra la integridad de las personas, de sus familias y del entorno de las comunidades y colectivos.

A modo de ejemplo que podría darnos una recreación de lo que sucede actualmente a nivel internacional sobre los avances y transformaciones de la Sociedad del Conocimiento (Unesco, 2016), en cuanto al impulso y desarrollo de la denominada mentefactura, lo podemos apreciar en el caso concreto de lo que sucede con el surgimiento de las llamadas neurotecnologías, las cuales dieron su inicio desde los años setenta (s. XX) y lo que se ha generado a la fecha,  traen a colación una serie de debates reveladores entre profesionales del campo de las neurociencias, desde el espacio del trabajo científico y tecnológico, entre politólogos y juristas, entre filósofos, psiquiatras y neurocientíficos, entre empresarios, y hasta militares y sus corporaciones, puede traer consigo una serie de acotaciones pertinentes a tomar en cuenta en cuanto al uso de dichas tecnologías y su afectación biológica, psicológica y mental de las personas.

En el documento publicado por la Unesco (2023): Neurotecnologías y Derechos Humanos en América Latina y el Caribe: Desafíos y Propuestas de Política Pública, donde participaron comisiones de líderes y expertos parlamentarios de América Latina y el Caribe (CILAC), plantean lo siguiente en cuanto a los principios teóricos fundamentales que sustentan esta iniciativa sobre la ética de la neurotecnología:

Primero, lo que corresponde a la identidad humana y dignidad, se plantea que si bien la neurotecnología puede acceder directamente para manipular y emular la estructura del cerebro, esto puede afectar la identidad de las personas: emociones y miedos. De ahí, que sea crucial proteger la dignidad humana y la noción de quiénes somos como humanos.

Segundo, al combinar la neurotecnología con la IA puede llegar a influir en los pensamientos y emociones sin el consentimiento de las personas. Es prioritario garantizar la autonomía y la libertad de pensamiento.

Tercero, en cuanto a la privacidad (mental) y bienestar, la tecnología puede producir información sobre las identidades y emociones de las personas, por eso es de suma importancia proteger dicha privacidad y bienestar se vuelve materia de interés y seguridad social pública.

Es decir, que si bien la neurotecnología, al fusionar la neurociencia y la tecnología, ha abierto un abanico importante de posibilidades que abarcan desde la medicina, hasta la mejora del rendimiento mental, y de alguna manera ha contribuido al crecimiento de las sociedades del conocimiento, no obstante, su uso plantea importantes cuestiones éticas y de seguridad que tendrían que abordarse con seriedad. 

Específicamente, al interactuar con el cerebro humano, la neurotecnología se vale de diversas técnicas, como la resonancia magnética funcional (fMRI), las interfaces cerebro-computadora (BCIs), la estimulación magnética para atender personas con Parkinson, la neuroterapia digital, la modelización del cerebro y el uso de exoesqueletos para la rehabilitación de personas con discapacidad motora. Sin embargo, estos avances no están exentos de riesgos.

Podemos mencionar que, cuando algunos pacientes con epilepsia han usado dispositivos neurológicos invasivos, han experimentado pérdida de identidad y autonomía. Esto plantea preocupaciones sobre cómo la neurotecnología puede afectar la esencia misma de quiénes somos.

Existe también el riesgo de que la neurotecnología se utilice para manipular y controlar a las personas, ya sea con fines políticos, militares, religiosos o ideológicos. Esto podría afectar la libertad de pensamiento y la toma de decisiones individuales.

Se sabe que a través de la neurotecnología tiene la capacidad de recopilar datos sobre las emociones y pensamientos de las personas. Por lo tanto, es igualmente crucial proteger la privacidad mental y la confidencialidad de los datos cerebrales.

Esto nos lleva, a cuestionar, de inicio y a modo de controversia y desafío para los promotores de la mentefactura y su integración fortuita a la sociedad del conocimiento, si es más que un pretexto de los tomadores de decisión internacional que pertenecen a firmas y grandes megacorporaciones que quieren tener asegurado los escenarios de control y vigilancia hacia las próximas décadas. Esto lo veremos en la tercera parte última de esta reflexión. Necesitamos aportaciones y más propuestas opcionales de mejora y gestión para la región latinoamericana. Si una de estas opciones es la mentefactura, aún no lo podemos afirmar y asegurar.


Comentarios

Entradas populares