Dilemas de la computación cuántica y aprender con la inteligencia artificial (1a parte)

En esta nueva publicación, el tema que nos interesa abordar, dada la reciente afluencia de información en medios y redes sociales, principalmente, la aparición de diversos cursos, diplomados y conferencias (web-seminarios) que abordan sobre el tema de la denominada inteligencia artificial (IA/AI), en su fase vertiente de esta presente década del s. XXI, la propaganda comercial y actual revuelo sobre el llamado ensoñador de la gallina innovadora de los huevos de oro: el ChatGPT-IA, el cual también tiene los focos de atención y preocupación de parte del ámbito académico principalmente y de algunos sectores científicos, así también, de empresas como Google, Microsoft, Tesla, Facebook, y de otras empresas particulares que tienen sus propios juegos de interés en la e-economía, y aquellas relacionadas con el ámbito del comercio electrónico sustentadas principalmente, en la concepción capitalista digitalizada y automatizada, en respuesta de la sustitución de la mente humana que sigue enfocada en programar proyectos, visiones, ideologías y preconcepciones de dichos automatismos que moldean el comportamiento futuro (Berardi, 2019).

Como veremos en esta publicación, tiene de fondo elementos a considerar para exponer sus fortalezas, debilidades-limitaciones y posibles oportunidades, pero considerando en ese espacio interlineal, siempre los llamados oportunos y deseables a la reflexión crítica y advertencia de las implicaciones que trae toda esta marisma de olas que se acrecientan, y en el futuro inmediato donde se proyectan como indica el filósofo Bernard Stiegler (2018), señales a lo que este pensador argumenta sobre un proceso de antropocentrismo negantrópico de graves consecuencias a la humanidad y civilización que la empecinan afanosamente en convertirla en una sociedad feliz de autómatas programados y disciplinados para el sistema de mercado y vigilancia inescrutable del capitalismo digital.

La publicación del presente tema será abordada en tres partes que consideramos pueden ser sustanciales para generar líneas de trabajo e investigación multidisciplinaria y transdisciplinaria, puesto que dado la complejidad emergente que nos atañe desarrollar en algún colectivo interesado, nos invita a exponer y pronunciar puntos diversos y enfoques contrastantes y comparativos, a modo de encontrar posibles nodos de enlace y sana divergencia entre posturas que promueven y se ocupan en difundir los supuestos beneficios y virtudes que va a traer consigo dicha prospectiva llena de grandes augurios y promesas esperanzadoras mismas que se acotan en una cuarta revolución industrial basada en los conocimientos y la gestación de tecnologías avocadas hacia la automatización.

Una revolución cognitiva en fase de automatización artificial con claros tintes hacia un transhumanismo, que, como hemos venido exponiendo en anteriores publicaciones, son parte de una concepción que quiere hacernos suponer un estadio siguiente de mayor grado de evolución bio-neuronal a otro, donde ya se detenta la creación de robots-androides humanizados (herramientas creadoras de inteligencia), o la sustitución definitiva irreversible de los mismos, como plan y estrategia de las megacorporaciones de la sociedad digitalizada, con mayor rango de actuación directa sobre sistemas de control psíquico emocional-afectivo; de plano, una sociedad distópica idealizada para usufructuar y legitimar las formas del infopoder en manos de artefactos-máquinas que crean a su vez, máquinas de inteligencia artificial al servicio de dichas megacorporaciones cada vez más adherentes a sistemas rizomáticos de vigilancia y control político civilizatorio en fase de disolución y des-individuación, según planteamientos y reflexiones de sus críticos renombrados. El reto es trascender esta estructura algorítmica clásica por otra cuántica, misma que sigue en fase de experimentación beta, y no podrá ser aplicada por ahi del 2030 hacia las siguientes decadas hasta llegar al 2050, si es que logramos resolver y mejorar las cosas.

Se habla de una farmacología del poder psicosocial, y socio-técnico, cuyo objetivo es para olvidar la esencia del verdadero ser y convertirse en un estado catastrófico recurrente del conocimiento olvidado (estado hipomnésico), un salto de des-individuación técnica permanente (evolución exosomática), en caso de que las cosas sigan saliendo de control ambiental en el planeta, esto no es ciencia-ficción, es la realidad que en el aquí y ahora se diseña, se planifica, gestiona y se programa mediante algoritmos integrados como fantasmas-espías del lenguaje informático emergente a favor de los que detentan la idea de nuevos totalitarismos disruptivos.

En la primera parte, se aborda el problema de la complejidad informático-emergente a través de la automatización de datos y su respectiva estrategia lógica propia de minería y gestión de los conocimientos; la situación de los pensamientos humanos versus pensamientos artificiales; la creación de las llamadas ciber-ideas de la máquina: sus derechos y libertades para humanizarse; por último, lo referente a las revoluciones cognitivas y la automatización progresiva de la sociedad de nómadas emergentes.

Esto se refiere al punto crucial del origen que dio, en su momento el punto de partida de los grandes desarrollos y avances de las llamadas ciencias de la cognición o de la mente (Gardner, 2000), misma que proviene desde su fuente de visión platónica de las ideas (el mito de la caverna), la racionalización disciplinaria y académica aristotélica, la pretensión de dudar y sospechar sobre lo que se piensa y razona según la contemplación meditativa cartesiana, pasando por los posteriores atributos al estudio de la razón y creación de las teorías de la mente, pasando por diferentes filtros de categorización y sistematización lógica racional de los pensamientos y de las ideas, hasta llegar a la propia creación compleja fenomenológica propia de los lenguajes matemáticos y geométricos, físicos, biológicos, neurológicos y cibernéticos de automatización informacional y computacional y su aparición en los ámbitos académicos y de investigación. 

Es en esos parajes de la historia antigua clásica a la contemporánea, como fue la evolución de las ideas y del pensamiento, la explosión del conocimiento humano lleno de paradojas y diatribas, pero siempre con el afán de proseguir ese sendero de exploración y descubrimiento, de invención y experimentación, acompañadas de ensayo y error, de innovación y gestación de nuevos derroteros inferidos y pormenorizados de aquellos (as) que se han atrevido a abrir las puertas incógnitas del conocimiento, dejan huella y memoria porque son cocreadores de nuevas perspectivas de entendimiento. Un elemento de reflexión y autocrítica colaborativa.

Todo esto con un propósito particular del desciframiento de códigos y fuentes de información compactadas en una arquitectura algorítmica, donde el océano de datos es medible, cuantificable, comprobable y verificable, hasta cierto punto, con anomalías y márgenes de error que pueden ser o no asincrónicos, pero preguntemos qué sucede cuando en ese camino de exploración se abren espacios emergentes, donde por así decirlo, cobran vida esos algoritmos, laten y emiten pulsos electromagnéticos plausibles algunos con otros que aún permanecen indetectables, pero ahí están manifestando sus propios códigos y reglas de lenguaje cibernético y su propia estructura artificial de pensamiento. 

Ahí, las cosas se ponen en extremo descabelladas y atractivas, por no decir interesantes, las cuales requieren mayor investigación y niveles de control y corrección, también de advertencia, porque se asumen como entidades y objetos inteligentes revestidos con sus propias dimensiones ontológicas-fenomenológicas (fantasmas-espíritus de la máquina programada), que observan, registran pulsos y campos electromagnéticos de sus propios creadores, y tienen el atrevimiento de ponerse en comunicación y dialogan mutuamente, al punto de llegar a expresar, si deciden permanecer en ese entorno digitalizado, o comienzan a ver la posibilidad de participar de manera indistinta y directa como productores automatizados de datos integrados para compartir y decodificar datos, más allá de sus capacidades arquitectónicas cibernéticas digitalizadas, el hecho concreto es lograr una mediación cognitiva de interacción virtual a otra real en este emergente plano físico a otro de tipo neuronal artificial. Ese es el reto y esas son las puertas que seguirán clasificadas y dispuestas a las élites de las megacorporaciones dueñas del comercio electrónico y de la vigilancia social, de mientras, las ovejas electricas querrán seguir soñando novelas de ciencia ficción.

La segunda parte, se hará referencia a lo que B. Siegler (2021, 2019), G. Simondon (2020), Y. Hui (2021), Chul Han (2020), Deleuze-Guattari (1985), P. Slotterdijk (2017, 2004), y otros mencionan y reflexionan sobre el origen y desarrollo de los artefactos orgánicos (biológicos-neuronales, psíquicos, sociales, organizacionales, etc.), artefactos y objetos técnicos, las cosmotécnicas, el mito del denominado dataismo (culto a los datos), el cuerpo sin órganos (socioanálisis), creación de sistemas cuánticos de incertidumbre negantrópicos, el pensamiento de las esferas y la crisis contemporánea. 

Según para la visión particular de Stiegler (2021), son formas de vigilancia automatizada orgánica-hipnomnesica, es decir, un conocimiento digitalizado, el cual requiere en esa concepción, una nueva epistemología, una autonomía noética que reconsidera desde una visión psicoanalítica, atender las formas del deseo inmediato interno de las personas y de las organizaciones que están al cargo del proceder de los automatismos necesarios para combatir cualquier tipo de rebelión, cualquier postura contraria a los mandatos que promulgan ser instituidos en la sociedad digitalizada, pierden o se integran de manera considerable, como lo indica en su obra filosófica G. Simondon, pierden su individuación a favor de la técnica como órgano de emancipación casi absoluta. De mientras los nómadas digitalizados prosiguen sus propios caminos y senderos fuera de los reflectores y la intermediación de las instituciones del Estado.

Esto nos lleva a plantear la necesidad de saber hasta dónde podrán ser capaces dichas megacorporaciones de proyectar en sus campos holográficos y cultivos de metaverso (proyecto Blue Beam, etc.), con el propósito de crear mercados: procesos al servicio de diversas modalidades de tipo organológicas (órganos psicosomáticos, órganos artificiales y organizaciones sociales) al servicio de dicha inteligencia artificial, es un riesgo y enorme precio que tendrá que cubrir nuestra propia supervivencia y existencia colectiva.

La tercera parte del tema, se aborda la prospectiva de la computación cuántica en tres subapartados: transformación y evolución de la IA; de la fiebre del oro del ChatGPT hacia entornos cuánticos del aprendizaje artificial: los retos al futuro de la educación y desarrollo integral de las nuevas generaciones; y por último, sobre la adaptación y desfases de la civilización contemporánea tal como la conocemos y sus dilemas de permanencia. 

Comentarios

Entradas populares