Dilemas de la computación cuántica y aprender con la inteligencia artificial (2a parte)

 En la publicación anterior, se hizo mención de algunas características generales de lo que actualmente, en el campo de la ciencia y tecnología de vanguardia del siglo XXI, se desarrolla en diversos campos de investigación y posible aplicación de la denominada computación cuántica en una fase inicial, porque de ello, podremos darnos cuenta, posiblemente en unos treinta años adelante, pero lo que sigue siendo tema latente en estos días, es lo referente a la inteligencia artificial (IA), del cual me he venido enterando de una gran diversidad de publicaciones, aparte de la mercadotecnia que ya aparece como lo había mencionado, con conferencias magistrales, cursos (diplomados), talleres, donde dan a conocer las virtudes y formas de gestión del conocimiento y del aprendizaje derivado de esta concepción de la era disruptiva de automatización, propiciada por la industria 4.0 en los países con mayor desarrollo y crecimiento.

 

Sin embargo, valdría la pena detenernos sobre las voces y reflexiones que se han derivado de todo este auge desbordante de innovación, sobre todo, de las posibles aplicaciones en los campos de la medicina, el cambio en la fuerza de trabajo, los riesgos considerados para su desarrollo en el ámbito militar, los riesgos para la economía interna y sus expectativas para promover y fomentar estas industrias tecnológicas de automatización digital, lo que se espera atender y promover en el ámbito educativo y en la formación profesional de los nuevos recursos humanos que se van a insertar en el potencial mercado laboral, las nuevas carreras y el curriculum a considerar para diseñarlo desde el nivel básico al universitario, son entre otros temas que tienen relación con su reglamentación, control y vigilancia, según lo describe el documento (reporte y recomendaciones) que presentan los miembros del Centro de Compromiso Tecnológico de la Cámara de Comercio de E.U.: "Commmission on Artificial Intellligence Competitiveness, Inclusion, and Innovation". Uno de los puntos de controversia que se describe en dicho documento es, sobre la conceptualización correcta del término "inteligencia artificial", que según la aportación de la OCDE comprende los siguientes aspectos, acorde con lo que esta organización acota en su concepción delimitada a lo que esta organización internacional acota como RBC (Conducta de Negocio Responsable), haciendo referencia a lo que denomina en su definición como los patrones de la inteligencia artificial y lo consideran como un sistema basado en la máquina que puede establecer objetivos humanos definidos, hacer predicciones, recomendaciones, o decisiones que afecten en entornos reales o virtuales, de las cuales se derivan dichos patrones:(1) Hyper-personalización, en la cual la inteligencia artificial desarrolla un perfil de cada individuo y dicho perfil aprende y se adapta en tiempo para una gran variedad de propósitos, incluyendo el despliegue de búsqueda de contenidos en línea (ejemplo, con Netflix) con recomendaciones para el usuario potencial; (2) Conversación e interacción humana, involucra la interacción de humanos con las máquinas, tema ya delimitado anteriormente por los pioneros de la computación y de la informática, como interfaz (hombre-máquina), en este caso se establece mediante la conversación realizada con una infinidad de métodos que incluyen voz, texto, imagen, el ejemplo más característico lo exponen con tres herramientas (Wysa, Joyable y Talkspace), las cuales emplean chatbots que proveen orientación al usuario sobre temas de salud mental, cuidado de modos de conducta y análisis de intenciones; (3) Patrones y detección de anomalías, esta IA ayuda en la identificación de patrones en los datos y en las conexiones de orden superior entre los puntos de datos a fin de visualizar si existen anomalías externas, muy empleado en el análisis financiero, fraudes, lavados de dinero, marcado de compras, etc.; (4) Reconocimiento, usa la llamada máquina de aprendizaje (machine learning) y otras aproximaciones cognitivas para identificar y determinar objetos y otros puntos de datos (imagen, video, texto, audio y otros datos desestructurados); (5) Sistemas dirigidos por objetivos, usan igualmente machine learning y otras aproximaciones cognitivas a fin de activar sistemas de aprendizaje de ensayo y error, el principal objetivo es hallar alternativas óptimas para la solución de un problema como estrategia algorítmica que beneficie subastas reales de mercado o empleado como experimento de juego de ajedrez (ejemplo de Deep Blue contra Kaspárov, campeón del ajedrez en 1997); (6) Analítica predictiva y soporte de decisión, su objetivo es comprender cómo existen en el pasado condiciones existentes para predecir conductas futuras y ayudar a los humanos a tomar mejores decisiones; (7) Sistemas autónomos, incluye sistemas de software físico y virtual capaces de completar una tarea, alcanzar una meta, interactuar con sus alrededores, adquirir un objetivo con un involucramiento variable gradual de los humanos que requieren que las máquinas de aprendizaje sean capaces sin la interacción humana de recibir información en un entorno real o virtual a fin de predecir la conducta futura de los elementos del sistema y como hacer tratos con dichos cambios, esto ya se visualiza con la construcción de autos inteligentes autónomos.

Y de toda esta parafernalia de innovaciones y reglamentaciones, requieren, por lo tanto, de políticas y de sistemas de control y regulación de los agentes interesados y de las megacorporaciones que van a participar en la creación de la nueva economía del mercado de trabajo automatizado, requieren de la formación expedita de las nuevas fuerzas de trabajo, el entrenamiento y la formación básica y profesional de las capacidades humanas para potenciarlas a través de las máquinas de aprendizaje. Temas que serán abordados en la tercera publicación.

El otro rostro que falta integrar en esta reflexión, es la de aquellos pensadores que han visualizado los impactos y los posibles riesgos potenciales que trae consigo esta concepción disruptiva de las tecnologías computacionales y ahora consigo montado el escenario automatizado mediático, donde se va a configurar los nuevos esquemas de planeación, gestión y programación y ser un punto exponencialmente controvertido en el ámbito académico, científico y cultural de supervivencia o extinción de muchas instituciones de educación superior ante estos cambios acelerados. 

Los cambios que están ya a la orden del día por la enorme cantidad de publicaciones sobre inteligencia artificial, son ya innumerables, hacen sola presencia como campos de complejidad emergentes, con dichas implicaciones, que van más allá de la cuota que los investigadores tienen que cumplir personalmente para mantener su estatus quo en sus centros de trabajo académico, principalmente. Pero lo cierto, es que la industria generadora de los conocimientos requeridos contemporáneos en el ámbito profesional y laboral son ya complementos potencializadores de los avances impresionantes de la inteligencia artificial, es entonces considerado, ya, como un cambio de paradigma inminente, una revolución inteligente que va a trascender de manera significativa en nuestra cotidianeidad individual y colectiva, y en nuestra limitada realidad un tanto restringida que hemos construido hasta el momento. Y eso que aún, estamos viviendo una fase beta de lo que en las siguientes décadas se visualiza, por parte de los pioneros innovadores en materia de computación cuántica, un horizonte promisorio, fascinante, con riesgos considerables a la seguridad de las personas y de la sociedad que siguen sin preverse ni calcularse en su verdadera dimensión.

De esto damos cuenta sobre las reflexiones y análisis que aportan, por ejemplo, Yuk Hui (2020) con relación a las máquinas y la ecología, y su reflexión sobre las cosmotécnicas derivadas de los desarrollos de China, particularmente, sus implicaciones en el mercado y en la cultura mundial, eso requiere de un necesario pensamiento planetario; o lo que este autor denomina como catástrofe algorítmico (la venganza de la contingencia), sobre los riesgos de los accidentes digitales informáticos, las anomalías que pueden generar disturbios tecnológicos considerables (inmadurez tecnológica humana versus accidentes en conocimiento), una dialéctica del accidente que conduce a su sistematización argumenta Hui, se exterioriza su razonamiento y obtiene un modo propio de contingencia, es decir, existen todavía dudas entre los agentes expertos para sustentar que los nuevos lenguajes algorítmicos y la posible velocidad con la que en el futuro van a contar con las tecnologías cuánticas, si estas van a tener la capacidad suficiente de minimizar y posiblemente, controlar estas desavenencias que siguen persistentes actualmente, a las que se identifican y denominan como accidentes o anomalías derivadas del propio sistema, la pregunta válida en estos momentos sería si puede existir confianza y seguridad de que la las máquinas de aprendizaje basadas en inteligencia artificial, tengan un haz sobre la manga y puedan detectar a tiempo y momento el posible disturbio, pregunten de esto a los técnicos y científicos de la NASA, si ya lograron resolverlo en sus satélites y cohetes, e igualmente a los militares de los gobiernos que poseen ojivas nucleares, si tienen el completo control de sus sistemas internos inteligentes.

Ello significa, que por ejemplo, en las industrias de la automatización industrial o de los campos de la investigación médica o de vigilancia en seguridad nacional militar, donde se trabaja principalmente, en la analítica y minería de datos, puede haber ciertas situaciones algorítmicas no contempladas por los agentes expertos usuarios, o por las máquinas de aprendizaje, o de parte de los sistemas tutoriales inteligentes donde se crean dichos sistemas algorítmicos y redes neurológicas artificiales, y en ese contrasentido de alteridad inobjetable de su modelo matemático previamente diseñado para tales fines, puede provocar infinidad de anomalías no contempladas por los programadores y mineros de datos y complicaciones en la solución posible de los problemas, pero sobre todo, en la toma de decisiones responsables. 

Pensemos este tipo de situaciones particulares cuando se activan drones o misiles que se salen de control de los objetivos ya programados previamente, caen y estallan en otro objetivo no identificado, las consecuencias geopolíticas son de alto riesgo, igualmente por la mala gestión y administración de los directivos de la banca internacional, pueden crear desastres y caos financiero mundial, aun cuando tengan sistemas sofisticados de inteligencia artificial, las anomalías y los accidentes tecnológicos son permanentes y frecuentes.

En ese sentido, también las reflexiones de B. Stiegler (2016), sobre los aspectos de la tecnología digitalizada que él considera, son estados de desilusión y delincuencia propagados por las élites corporativas que han promocionado una educación y administración educativa o gestión del aprendizaje, son para este autor, productos del modelo de consumo capitalista neoliberal que promueven de manera disruptiva el uso de las tecnologías que denomina de progreso dirigida específicamente hacia la transmisión intergeneracional y traslado del conocimiento que provee una profunda forma para el sujeto individual y social. 

Esto significa que toda la invención de lo humano para la sociedad del futuro detenta principios que de origen muestran defecto de como por ejemplo, se puede redefinir y reinventar lo humano a partir del despliegue de las industrias tecnológicas basadas en la digitalización y automatización de los datos, trae en consecuencia, una forma de disolución sobre las condiciones de formación que pueden señalar una visión miope en cierto sentido de una sociedad automatizada que va a enfrentar las condiciones laborales, culturales, económicas, políticas y educativas que Stiegler (2019) considera como parte de un estado de estupidez sistémica, resultado de la formación de atención que las empresas como Google, Amazon, Facebook, Microsoft y Apple entre otras, conducen a un estado que incrementa irremediablemente a las consecuencias catastróficas intergeneracionales (D. Ross, 2019) que dichas empresas visualizan y tratan de promover en el entorno futuro de la educación, lo cual puede incluso reducir las expectativas de satisfacciones a corto plazo del comportamiento consumista, que pueden producir círculos viciosos de adicción que de alguna manera están ya impactando considerablemente en el proceso de aprender y enseñar, simplemente porque ya existen máquinas de inteligencia artificial que orientan y deciden en un momento dado, cómo el niño y el adolescente (con mayor razón), tiene que resolver problemas y tomar decisiones, que de entrada no son suyas, son las del algoritmo activado a sus preferencias en intereses de consumo, trae en consecuencia una generación con menor capacidad de análisis y de pensamiento crítico, es entonces, uns serie de retos importantes que las instituciones educativas tendran que tomar en cuenta ante esta avalancha automatizada de tecnologías digitalizadas que aprenden y también adoptan y sustituyen las formas de pensamiento individual. Mi pregunta en ese sentido, es si es algo que ya tienen contemplado los promotores de aprender con la inteligencia artificial. Lo dejamos pendiente en la siguiente publicación.

 

Comentarios

Entradas populares