Explorando Límites entre Sueños, Lenguaje y Máquinas: Una Visión de Frontera (2a parte)

En la segunda parte del tema de reflexión abordado, nos vamos a centrar en dar un panorama desde el punto de vista de tres enfoques interdisciplinarios: la teoría de la conciencia de Daniel Dennett (1991, 1992), la teoría de la mente extendida de Andy Clark (2002), en contraste con los postulados teóricos propuestos por Douglas Hofstadter y Sander (2013) sobre la analogía como mecanismo fundamental del pensamiento humano. El ejercicio de reflexión y análisis dichas posturas teóricas, nos va a permitir hacer una analogía, de lo que implica considerar, respecto de por qué, las máquinas inteligentes artificiales, presentan ciertos límites-sesgos en su arquitectura de sistemas informáticos computacionales algorítmicos (construcción neuronal), donde procesan datos e información, para ser usados por estas tecnologías, por ejemplo, en predecir o pronosticar, analizar e interpretar eventos, establecer variables, situaciones, delimitar contextos, crear solicitudes de preguntas realizadas por personas que consultan las IA, y se traducen de manera sesgada las respuestas, y se transforman en posibles modelos de percibir de manera distorsionada la realidad del mundo, tal como lo configurarían personas que presentan esquizofrenia o disfunciones cognitivas. 

Segundo, en cuanto a los límites y sesgos que presentan las IA, en comparación, por ejemplo, con lo que llega a suceder cuando el cerebro de las personas presentan ciertos cuadros de disfunción: pensamiento (afasias), lenguaje (comprensión lectora, dislexia, producción y afluencia), y sistemas de representación simbólica (dislexia, lectura), especialmente en caso de personas que presentan TDAH (Williams et.al., 2008; Scheres et.al, 2007; Looman, Osterlan, Hyde, van Meel y Sergeant, 2007; Antrop et.al, 2006; Sonuga-Barke et.al., 2003; Thorell, 2007).

 

¿Esto mismo, lo pueden llegar a presentar las IA?, y en ese caso, ¿qué es lo que la comunidad de expertos está desarrollando para intervenir a tiempo, en caso, de que dichas máquinas alteren (alucinen) los datos y construyan sistemas de predicción y pronóstico erróneos con otro tipo de intensiones, es no solo un problema del modelo algorítmico (Yuk Hui, 2021) es de la propia IA, o lo es también de parte de los creadores de la IA, porque son parte de una evolución histórico-social y cultural entre la humanidad y la creación de máquinas y tecnologías? Ahí está el dilema.

Según Dennett (1991, 1992), la conciencia está constituida por un modelo múltiple que se integra a una serie de procesos neuronales que generan múltiples interpretaciones o "copias" de la realidad. Dichas copias compiten por la atención y su final interpretación que no se lleva a cabo hasta después del hecho. Menciona sobre un método que el autor denomina como "Heterofenomenología", con el cual pretende estudiar la conciencia desde una perspectiva de tercera persona, es decir, argumenta que las experiencias subjetivas de un individuo pueden ser parte de un reporte que dirige por sí misma a dicha conciencia. En su teoría, aboga por un "materialismo eliminativo", comprendido por los estados mentales de sentido común y de conciencia, los cuales señala el autor, pueden llegar a ser incorrectos. De ahí sugiere que los futuros avances científicos puedan reemplazar a conceptos folclóricos provenientes del campo de la psicología, e inclusive, de las propias neurociencias, por otro tipo de descripciones científicas más seguras.   

Por su parte, el modelo teórico del filósofo Andy Clark, sobre la mente extendida, enfatiza la importancia de lo que el autor denomina como "cognición encarnada", arguye que la mente humana no es solo producto del cerebro, porque está profundamente entrelazada con el cuerpo y sus interacciones con el entorno, lo cual reta a las posturas tradicionales de la cognición que sostienen que solo llega a ocurrir en los confines del cráneo. De esta postura, lo conduce al siguiente planteamiento, sobre lo que Clark (2002) denomina como "procesión predictiva", la cual sugiere que el cerebro, de manera constante y actualizada, realiza predicciones sobre el mundo con base a una información sensorial continua.

Las diferencias clave entre las dos posturas teóricas de Dennett y Clark, son en su enfoque de investigación, Dennett se centra en la parte subjetiva de la conciencia, mientras Clark, extiende su amplia visión de la cognición, porque examina cómo la mente puede interactuar con el ambiente y puede llegar a incorporar recursos, como podría ser el teléfono móvil (celular), tablets, periféricos para realidad virtual o realidad aumentada, etc. Su apuesta teórica conduce hacia una visión transhumanista.

En cuanto a la aproximación metodológica, ambos autores se enfrentan a la visión tradicional de la mente, aunque difiere en que Dennett, se va más bien por los planteamientos derivados de su materialismo eliminativo, mientras Clark extiende su hipótesis de la mente extendida y la cognición encarnada a una perspectiva alternativa sobre la naturaleza del proceso cognitivo. Vendría, entonces, a configurar, en gran parte, sus estructuras conceptuales.

Tanto Dennett como Clark puntualizan lo que sucede en cuanto a los posibles límites que las máquinas inteligentes artificiales pueden presentar. Por ejemplo, en cuanto a una encarnación cognitiva limitada. Los sistemas de las IA están basados en algoritmos de aprendizaje profundo, pero carecen de esta cognición encarnada. Mientras pueden llegar a procesar enormes cantidades de datos, y ejecutar tareas específicas con cierta seguridad registrable, a menudo carecen de la habilidad de interactuar con el mundo físico de la misma manera que lo hacen los humanos. Esta limitación puede afectar su entendimiento y e interpretación de los contextos del mundo real.

Sobre el problema expuesto del símbolo. Esto, según la teoría de conciencia de Dennett, hace énfasis sobre la importancia de las experiencias subjetivas generadas de su interpretación del contexto. En el caso de los sistemas de IA, pueden presentar dificultad para conectar símbolos abstractos, aquellos usados por los algoritmos al significado del mundo real sin ningún entendimiento rico encarnado.

Sobre los desafíos de procesamiento predictivo abordados, según Clark, se requiere que la mente esté en un estado continuo sensorial para actualizar los modelos del mundo, la IA realiza sus predicciones con base en los datos, pero dichos sistemas pueden enfrentar desafíos para incorporar nueva información de una manera flexible y adaptativa, por eso conduce sus limitaciones en su habilidad artificial para entender la complejidad de los contextos dinámicos del mundo real.

En tanto que los sesgos comparativos de la cognición humana, se pueden clasificar en: antropocéntricos, aquellos en los que son los propios seres humanos que intentan antropomorfizar a todos los sistemas de la IA, atribuyéndoles cualidades e intenciones humanas que pueden distorsionar nuestro entendimiento de las capacidades y limitaciones; sesgos de confirmación, se refieren a cuando los individuos interpretan de manera selectiva evidencias sobre creencias preexistentes y supuestos sobre la IA. Esta postura puede conducir a errores sobre las fortalezas y debilidades de los sistemas IA, y obstaculizan esfuerzos por desarrollar evaluaciones más precisas y confiables sobre su uso y aplicaciones en contextos diversos y diferenciados (industria, finanzas, educación, ciencia, cultura, comercio, comunicación, etc.). 

Agregamos, también, los sesgos sociales-culturales, porque si observamos que en la realidad la cognición humana se ve influenciada por factores sociales y culturales puede, también, producir sesgos en nuestras propias percepciones y evaluaciones respecto a los sistemas IA. Un ejemplo cotidiano actual podría ser las actitudes culturales que podemos asumir hacia la tecnología y su automatización para conformar lo que podemos interpretar de las capacidades de la IA, y los posibles impactos que conducen a diferentes perspectivas y juicios sobre diversos contextos culturales donde se use y apliquen dichos sistemas, donde se requiera resolver problemas inmediatos y tomar decisiones importantes.

Pero existen otros sesgos que tendríamos que considerar, porque de alguna forma, se interconectan con los límites y sesgos de los sistemas IA, y nos referimos propiamente a los sesgos relacionados con las disfunciones del cerebro como serían los llamados sesgos de confirmación y su vínculo con los sesgos cognitivos, que es una tendencia a interpretar información como preconcepción, es decir, cuando existen individuos que presentan sesgos exacerbados en su cognición, en el caso de personas con esquizofrenia o con desorden de personalidad paranoide que presentan un alto nivel de sesgo de confirmación que conduce a las personas a distorsiones de interpretación de la realidad; sesgos de anclaje e inflexibilidad cognitiva, donde los individuos dependen demasiado de la información inicial al tomar decisiones, puede estar asociado con la inflexibilidad cognitiva que presentan personas con espectro de trastorno autista, los individuos presentan problemas para enfocar los cambios de atención y adaptarse a la nueva información lo cual conduce a estructuras rígidas de pensamiento y dificultades para resolver problemas; estereotipia y disfunciones cognitivas sociales, que pueden estar conectadas a disfunciones del cerebro, que afectan la percepción social y la interacción, conductas que presentan personas con autismo o desorden de ansiedad social, los cuales presentan dificultad para entender los problemas sociales y crean estereotipos o heurísticas para navegar las situaciones sociales.

Si estos sesgos de disfunción cognitiva humana lo transferimos en los sistemas IA, presentan lo siguiente. En los sistemas de representación simbólica y dislexia, las IA pueden presentar dificultades para procesar de manera eficiente la información simbólica, de manera particular en tareas que involucren el entendimiento del lenguaje natural o analizar textos. Esto se supone que en las nuevas versiones ya se está corrigiendo.

En el procesamiento del lenguaje y afasia, se pueden encontrar analogamente con que los sistemas IA muestran limitaciones para entender y generar el lenguaje humano, particularmente en casos donde aparece ambiguedad o complejidad en el entendimiento del lenguaje por parte de la IA. Y, finalmente, al funcionamiento ejecutivo y su relación con el deficit de atención y desorden de hiperactividad, los sistemas IA pueden presentar dificultades en tareas que requieren control atencional y flexibilidad cognitiva como cuando se le solicita a la IA que haga un multi planteamiento o decisión en entornos dinámicos, por ejemplo, cambio climático, o el estado de salud de un paciente, o el pronóstico financiero de un banco o empresa en situaciones de banca rota, etc., si la máquina IA no logra dar respuestas concretas confiables y seguras, puede distorsionar el pronóstico o la predicción con la realidad del contexto y situación que se presenta, y puede aumentar la dimensión de dichos problemas que, al parecer, no tienen solución en el corto, mediano o largo plazo. Todo un tema a ser replanteado en comunidades de expertos y tomadores de decisión, por el riesgo que ello implica en las instituciones.     

En la tercera postura teórica, para enriquecer el análisis y reflexión, de Hofstadter y Sander (2013), como contraste de las anteriores, retomamos de estos autores lo que postulan en su libro: "Surfaces and Essences: Analogy as the Fuel and Fire of Thinking", por qué tenemos que comprender sobre la importancia que tiene el uso de la analogía como punto central del pensamiento humano, esto apunta que su enfoque teórico, está centrado al uso de la analogía con la cual, los individuos pueden conectarse para intercambiar conceptos no relacionados aparentemente, para facilitar el entendimiento, resolver problemas y promover el pensamiento creativo. 

A través de ejemplos del lenguaje, matemáticas, ciencia, y de la vida diaria, los autores demuestran como el razonamiento analógico subyace en un amplio rango de procesos cognitivos del aprendizaje de nuevos conceptos a la generación de ideas novedosas. Sin embargo, las analogías pueden conducir a errores y malas concepciones cuando existen similaridades superficiales o existen fallas en las correspondencias profundas. 

Los autores subrayan de como a través de las comparaciones culturales, el uso de metáforas, por ejemplo, influyen en la gente para conceptualizar y razonar sobre el mundo. Dan a entender los autores, que la analogía puede ser usado para la comprensión de conceptos complejos, la comunicación, la cognición humana, el contexto y las disposiciones, y su relación con los estudios que realizan la psicología y la sociología.

De las categorías sobre las capacidades analógicas que emplean los seres humanos según Hofstadter y Sander (2013), los sistemas IA aun no logran emular de manera robusta. Igualmente, cuando se trata del lenguaje, del contexto y sus disposiciones, que implica como la capacidad analógica está fuertemente anclada en la experiencia y el conocimiento previo de las personas, los sistemas IA aun presentan dificultades para capturar, descifrar e interpretar de manera adecuada. Por esto advierten los autores sobre la necesidad de comprender los mecanismos subyacentes a la analogía para evitar conclusiones absurdas, de ahí, la pertinencia para trascender los límites de los enfoques puramente algorítmicos de las máquinas inteligentes artificiales. Esto igualmente, plantea importantes desafíos y limitaciones para el desarrollo de la IA en el futuro inmediato, que lleguen a emular y tal vez, superar las capacidades analógicas humanas. Aun no lo sabemos por lo pronto.

Una primera conclusión, podríamos pensar, en esencia, de una manera propositiva, que nos permita abrir nuevas visiones de frontera para aproximar los estudios sobre los sistemas IA y la cognición humana requiere, por lo tanto, de una perspectiva crítica interdisciplinaria que involucre enfoques que se interconecten desde la ciencia cognitiva, los estudios y propuestas de la filosofía de la mente y su relación con la IA, y los enfoques provenientes de las ciencias sociales para desarrollar entendimientos acotados a la naturaleza de la conciencia, la mente, la cognición. Así, como también, las limitaciones de la IA, mejorando un diálogo de apertura y colaboración entre expertos de diverso campo que puedan mitigar los sesgos y puedan promover discusiones informadas sobre la intersección de la IA y la cognición humana. En el tercer apartado, haremos mención y reflexionaremos, como estos vasos comunicantes los podríamos activar con las llamadas ciencias de los sueños, y si es posible que algún día la IA viaje y sueñe con nosotros en espacios transmedia. Ese es el desafío que tenemos enfrente del camino.


   

Comentarios

Entradas populares