breve historia de las ciencias cognitivas 

Alejandra Ciria y Bruno Lara

2021

LA METÁFORA DE LA MENTE COMO COMPUTADORA

Mind’ no longer ‘goes more ghostly than a ghost’. Instead, diseased mentality can be understood without loss of scope or rigor, in the scientific terms of neurophysiology…and to mathematical biophysics the theory contributes a tool for rigorous symbolic treatment of known nets and an easy method of constructing hypothetical nets of required properties.” [La ‘mente’ ya no ‘se vuelve más fantasmal que un fantasma’. En cambio, la mentalidad enferma puede ser entendida sin pérdida de alcance o rigor, en los términos científicos de la neurofisiología ... y la biofísica matemática, la teoría contribuye con una herramienta para el tratamiento simbólico riguroso de las redes (neuronales) conocidas y un método fácil de construir redes hipotéticas de propiedades requeridas.] (McCulloch & Pitts, 1943, p. 20-21)

teoría computacional de la mente

La revolución cognitiva y el nacimiento de las Ciencias Cognitivas fueron influenciados fuertemente por el desarrollo de las computadoras. En 1943, el neurólogo McCulloch y el neurofisiólogo Pitts sugirieron que la actividad del sistema nervioso central y las operaciones en las redes neuronales podrían ser explicadas mediante computaciones neuronales que siguen los principios de la lógica, con base en proposiciones que llevan a un todo (activación) o nada (ausencia de activación). Ambos investigadores son considerados unos de los primeros teóricos que concibieron los fundamentos de la computación neuronal. Su trabajo inspiró el desarrollo posterior de las redes neuronales artificiales, generando un gran interés en los computólogos para desarrollar algoritmos e implementaciones que usaran el cerebro y su funcionamiento como inspiración. A su idea se le puede atribuir el origen de la teoría computacional de la mente, la cual sugiere que la mente puede ser entendida como un sistema de procesamiento de información gobernado por la manipulación formal de símbolos.

Palabra "mente" en código binario.

test de turing

En 1950, uno de los teóricos de la informática más influyentes, Alan Turing,  propuso el juego de imitación, más tarde conocido como el "Test de Turing", para establecer una definición operativa simple de inteligencia que prácticamente puso en movimiento a todo el campo de la inteligencia artificial (French, 2000). El objetivo del juego es que un interrogador tenga que identificar cuál de los otros dos jugadores es una mujer y cual es un hombre, con los cuales se comunica sin contacto visual, la mujer intenta convencer al interrogador de ser ella la mujer, el hombre trata de confundir al interrogador para hacerlo fallar en su decisión.  Ahora, ¿qué pasa si substituimos a la mujer por una computadora? (Figura 1). 

El papel del sistema informático en la computadora, es ahora convencer al interrogador de ser el humano, imitando las respuestas que debe dar una persona. Por otro lado, el papel de la persona es no sólo convencer al interrogador de él ser el humano, sino convencerlo de que la otra persona es una computadora. Turing sugirió que si una computadora es capaz de engañar al interrogador la misma cantidad de veces que lo hiciera el hombre en el primer escenario, se podría suponer que la computadora es inteligente debido a que es capaz de imitar las respuestas de una persona (Turing, 1950). Desde esta perspectiva, aunque es controvertida, la inteligencia se definió en términos de comportamiento lingüístico.

Figura 1. Representación gráfica del juego de la imitación propuesto por Alan Turing. 

Siguiendo esta misma línea de pensamiento, Newen y Simon (1976) consideraban a la capacidad de almacenar y manipular símbolos como un requisito estructural de la inteligencia. Por lo tanto, entender tanto lo que un símbolo constituía, como las reglas que manipulaban a dichas entidades, eran considerados temas centrales dentro del campo de la inteligencia artificial. Como consecuencia, la noción de los sistemas de símbolos físicos surge como un concepto fundamental para la creación de máquinas inteligentes bajo la perspectiva de la teoría computacional de la mente. 

manipulación de símbolos e inteligencia

Un sistema de símbolos físicos consiste en un conjunto de elementos o símbolos, que son patrones físicos que pueden ser componentes de otro tipo de entidad más compleja llamada expresión. A su vez, una expresión consta de varias instancias de símbolos relacionados físicamente de manera específica. El sistema de símbolos posee un conjunto de procesos que operan sobre las expresiones para generar otras expresiones. Estos procesos están asociados con la modificación, creación y reproducción de expresiones. 

El adjetivo 'físico' dentro de la noción de sistemas de símbolos físicos denotaba que los sistemas de símbolos obedecían las leyes de la física y, por lo tanto, podían ser realizables por sistemas de ingeniería hechos de componentes diseñados y fabricados. En este sentido, dentro del campo de la inteligencia artificial se pensaba que un sistema de símbolos físicos parecido al de la mente humana podía ser realizable en una máquina que produjera a través del tiempo una colección en evolución de estructuras o expresiones simbólicas. Según Newen y Simon (1976), un sistema de símbolos físicos tiene la capacidad necesaria y suficiente para realizar acciones inteligentes apropiadas para el sistema y adaptarse a las demandas del entorno. 

La metáfora de la mente como computadora otorgó la posibilidad de explicar los procesos y mecanismos internos que relacionan y explican las entradas sensoriales y dan pauta a la conducta, tales como las representaciones mentales (Smith y Kosslyn, 2008). Las representaciones mentales se relacionan con el proceso de re-presentar, o volver a presentar en la mente, información que contiene o comunica un significado. La principal función de las representaciones mentales es transmitir información. Las imágenes, formas, conceptos, palabras y símbolos son distintos modos de representar conocimiento (Gardner, 1985). Los conceptos de ‘procesamiento de información’ y de ‘representaciones mentales’ se convirtieron en elementos explicativos centrales dentro de la psicología cognitiva (ej. Neisser, 1967; Shepard, 1984). La teoría representacional de la mente plantea que los procesos mentales no son otra cosa más que operaciones -transformaciones- sobre las mismas representaciones mentales (Fodor, 1981). 

Esta manera de entender los procesos mentales implica una visión funcionalista de la mente, en la cual se explica el funcionamiento de los mecanismos relacionados con el procesamiento de información, sin necesidad de explicar los procesos físicos o naturales subyacentes a dicho procesamiento. Bajo la metáfora de la mente como una computadora, el procesamiento de información implica la manipulación de símbolos mediante un conjunto de reglas y procesos formalmente definidos (Newen y Simon, 1976). Desde esta perspectiva se planteó que las clases de sistemas de símbolos más relevantes que se conocían hasta ese momento eran los seres humanos y las computadoras. Por lo tanto, se pensó que era posible desarrollar máquinas inteligentes que fueran capaces de recordar, extraer y aprender nueva información mediante la manipulación de símbolos a través de un conjunto de reglas estrictamente definidas en dominios de tareas específicas. 

El conexionismo, el cual también surge gracias a los avances en las ciencias computacionales y el uso de redes neuronales artificiales, se puede entender como uno de los primeros movimientos que intenta atacar la idea de que el cerebro se debe entender como un sistema lógico de manipulación de símbolos. Para los conexionistas, el cerebro debía estudiarse y entenderse desde su neurofisiología, sus conexiones neuronales y su arquitectura basada en redes neuronales jerárquicas. Dentro del conexionismo, aunque las representaciones mentales ya no se entienden como la mera manipulación de símbolos mediante un conjunto de reglas, continuan siendo necesarias para explicar a la cognición como la actividad de resolver problemas mediante el procesamiento de información. 

contribución de la inteligencia artificial

El término de inteligencia artificial (IA) fue acuñado por John McCarty en la Conferencia de Darthmouth de 1956 para referirse a la ciencia y la ingeniería que tiene como objetivo fabricar máquinas inteligentes, especialmente programas informáticos inteligentes (McCarthy, 1998). Los sistemas expertos pueden considerarse como un subconjunto dentro de la inteligencia artificial que da cuenta de la visión tradicional sobre la mente como un procesador de información para la resolución de problemas abstractos. 

sistemas expertos

Un sistema experto es un sistema que tiene el propósito de capturar el conocimiento proveniente de especialistas humanos en una computadora e imitar la capacidad humana de toma decisiones para la resolución de problemas en áreas específicas. Originalmente, los sistemas expertos estaban confinados a áreas relacionadas con la ciencia y la medicina.

En 1965  Edward Feigenbaum desarrolló el primer sistema experto en la universidad de Stanford,  conocido como DENDRAL, este fue el primer sistema basado en reglas aplicado en problemas del mundo real  (Lindsay, 1993). DENDRAL era capaz de hipotetizar la estructura molecular de una sustancia utilizando los datos de espectrografía, mostrando un desempeño similar al de un experto humano. Así mismo, Feigenbaum y Buchanan desarrollaron el primer sistema experto "shell" EMYCIN, esté era capaz de funcionar  en múltiples dominios. Se trataba de un motor de inferencia libre de contenido capaz de generar inferencias inductivas, es decir, generar conclusiones a partir de los datos y deductivas buscando evidencia a partir de una hipótesis. Sin embargo, a pesar de la ambición de que los sistemas expertos podrían ser un substituto del especialista humano, estos tienen el problema de partir de la premisa de que todo conocimiento de un experto puede ser codificado explícitamente. Ahora se reconoce que existe conocimiento de expertos que es muy difícil capturar de forma explicita, así como conocimiento tácito que probablemente sea imposible de capturar (Boden, 2008).

A mediados de los años setenta, los investigadores de inteligencia artificial sostenían que las computadoras podían comprender el lenguaje natural (por ejemplo, Johnson (1977) y Schank (1975)). Sin embargo, Fodor (1978) señaló que confundieron erróneamente las teorías semánticas. Por ejemplo, confundieron la pregunta de ¿qué significa una oración?, con las preguntas que se realizaban en las teorías de comprensión de oraciones, ¿cómo se entiende una oración?. Fodor destacó la idea de que los modelos informáticos no proporcionan ninguna teoría semántica debido a la ausencia de una relación entre el lenguaje y el mundo. Esta declaración anticipó el experimento mental de la 'Habitación China' en el cual se argumenta que la sintaxis no es suficiente para la semántica. 

inteligencia y semántica

John Searle (1980) propuso el experimento mental de la 'Habitación China' (Figura 2). El experimento consiste en imaginar a un hombre dentro de una habitación, en donde se encuentran una cesta llena de símbolos y un libro de reglas. Las reglas están escritas en el idioma materno del hombre. Por una ranura de entrada el hombre recibe cadenas de símbolos que resultan incomprensibles para él. on el libro de reglas, el hombre es capaz de relacionar la cadena entrante a una cadena más que formará usando los símbolos en la cesta y que pondrá en una ranura de salida. Resulta que las cadenas de símbolos entrantes son preguntas escritas en chino y las cadenas de salida son las respuestas a esas preguntas, también en chino. 

Para cualquier observador fuera de la habitación, hablante de chino, el sistema o lo que sea que esta dentro de la habitación que proporcionó las respuestas entendió perfectamente las preguntas. En este escenario, aunque el hombre no entiende una palabra de chino, utilizando correctamente el libro de reglas, sus respuestas son indistinguibles de las de un hablante nativo de chino. 

Figura 2. Experimento mental de la Habitación China propuesto por John Searle. 

Con este experimento mental, Searle asevera que aunque un programa informático o una computadora, sea capaz de pasar la prueba de Turing (Turing, 1950), en realidad no comprende el significado de ninguno de los símbolos que manipula. Lo que está haciendo el programa es manejar de forma correcta las reglas de sintaxis, sin embargo no conoce la semántica de las oraciones. Una condición necesaria para la semántica es una relación casual apropiada de las entradas y salidas de una computadora - o un programa - con el resto del mundo, por lo que la manipulación de símbolos (sintaxis) no es suficiente para tener semántica (Searle, 1990). 

Sin lugar a dudas, un sistema informático que juega al ajedrez o responde a preguntas naturales complejas muy rápidamente, o que incluso pasa la prueba de Turing, demuestra un alto dominio de experiencia en una tarea muy específica. Sin embargo, este sistema experto se limita a lo que ha sido diseñado y, lo que es más importante, no puede comprender ninguno de los procesos subyacentes a su aparente comportamiento inteligente. Por lo tanto, algunos de los investigadores de IA que se enfocaron en construir máquinas que actúan y piensan como lo hacen los humanos, en lugar de sólo diseñar sistemas expertos, se interesaron en la hipótesis de la cimentación física para la adquisición de conocimiento. 

cimentación de símbolos

En 1989 Harnad sugirió que el significado de los símbolos se basa en categorías perceptuo-motoras. Específicamente, Harnad propuso un sistema que usa las proyecciones sensoriales de objetos y eventos distales para discriminar representaciones icónicas de modo que el sistema simbólico identifique las características invariantes de la entrada, dando una representación de categoría como salida. La adquisición de significado de los símbolos requiere de la identificación del referente desde distintas perspectivas en el mundo. Esto es lo que se conoce como el problema de la cimentación de símbolos, esto es, cómo la adquisición del significado del símbolo se basa en el mundo físico (Harnad, 1990). 

Al  mismo tiempo, Brooks (1990) intentó resolver el problema de la cimentación de símbolos mediante implementaciones en agentes artificiales autónomos. Sus propuestas y observaciones han tenido efectos de largo plazo en la comunidad de IA en general, particularmente, en el área de robótica. Una de sus aportaciones más importantes fue proponer que el mundo es el mejor modelo de sí mismo, por lo que un agente puede actuar utilizando la información que percibe y no requiere adquirir un modelo del mundo (Brooks, 1991). Por lo tanto, cuando el significado del símbolo se basa en el mundo físico, la necesidad de representaciones simbólicas tradicionales se desvanece por completo. 

nueva inteligencia artificial

En la actualidad, concebir a la cognición como gobernada por la manipulación formal de símbolos, se relaciona con lo que se conoce como GOFAI, término que proviene de las siglas en inglés: Good Old-Fashioned Artificial Intelligence (Haugeland, 1985). Dreyfus (1967, 1972) hizo una fuerte crítica a la GOFAI al proponer que la manipulación de las representaciones simbólicas no podría llevar a un comportamiento inteligente, para esto se requiere de un cuerpo para interactuar con el mundo. La cimentación física de la cognición implica tener un cuerpo con el cual se pueda interactuar con el entorno de tal forma que se puede procesar la información para otorgarle un significado situado en un contexto (Barsalou, 2008). Estas ideas llevaron a un cambio en el paradigma de la inteligencia artificial en el cual tener un cuerpo es un prerrequisito para la inteligencia y es necesario para la cognición (Pfeifer y Bongard, 2006).

Pensar a la inteligencia como corporizada (corporeizada) tiene importantes implicaciones para la comprensión de la cognición tanto biológica como artificial. Esto involucra considerar que los procesos cognitivos no son independientes del cuerpo, sino que están fuertemente limitados y, al mismo tiempo, son posibilitados por éste. En este sentido, las capacidades cognitivas de los agentes biológicos y artificiales tienen su base esencial en la corporalidad, en su morfología particular y las propiedades materiales de sus cuerpos (Pfeifer y Bongard, 2006). 

Desde esta nueva perspectiva, se considera que para comprender el funcionamiento del cerebro se debe comprender cómo es que éste se encuentra embebido en el sistema físico y cómo es que los agentes interactúan con su entorno. Una de las implicaciones más profundas de esta nueva forma de entender la cognición se centra en la relación entre procesos físicos y aquellos relacionados con el procesamiento de la información neuronal y de control (Hoffmann y Pfeifer, 2012). Por lo tanto, la concepción corporizada (corporeizada) de la inteligencia y de la cognición enfatiza la conexión entre cuerpo, cerebro y entorno.  

RECURSOS COMPLEMENTARIOS

Robótica Cognitiva: la nueva inteligencia artificial 

¿Qué es la inteligencia? ¿Cómo podemos diseñar agentes artificiales inteligentes?  Conferencia del Dr. Bruno Lara encargado del Laboratorio de Robótica Cognitiva de la Universidad Autónoma del Estado de Morelos (inicia en el minuto 12). Se explica el juego de la imitación de Turing, la habitación China de Searle, así como la importancia del cuerpo en interacción con el entorno para la nueva inteligencia artificial. 

REFERENCIAS

Boden, A. M. (2008). Mind as machine: A history of cognitive science. Oxford University Press.

Brooks,  R. A. (1990).  Elephants don’t play chess. Robotics and autonomous systems, 6(1-2):3–15.

Brooks, R. A. (1991). Intelligence without representation. Artificial intelligence, 47(1-3):139–159.

Dreyfus, H. L. (1967). Why computers must have bodies in order to be intelligent. The Review of Metaphysics, 13-32.

Dreyfus, H. (1972). What Computers Can’t Do: The limits of artificial intelligence. Harper and Row, New York.

French, R. M. (2000). The Turing Test: the first 50 years. Trends in cognitive sciences, 4(3), 115-122.

Fodor, J. A. (1978). Tom Swift and his procedural grandmother. Cognition, 6(3), 229-247.

Gardner, H. (1985). The mind's new science: A history of the cognitive revolution. Basic Books.

Harnad,  S. (1989). Minds, machines and Searle. Journal of  Experimental  & Theoretical Artificial Intelligence, 1(1):5–25.

Harnad,  S. (1990). The symbol grounding problem. Physica D: NonlinearPhenomena, 42(1-3):335–346.

Haugeland, J. (1985). Artificial intelligence: the very idea. Cambridge, MA: MIT Press.

Hoffmann,  M.  and  Pfeifer,  R.  (2012). The implications of embodiment for behavior and cognition: animal and robotic case studies. arXiv  preprintarXiv:1202.0440

Johnson-Laird, P. N. (1977). Procedural semantics. Cognition, 5(3), 189-214.

Lindsay, R. K., Buchanan, B. G., Feigenbaum, E. A., & Lederberg, J. (1993). DENDRAL: a case study of the first expert system for scientific hypothesis formation. Artificial intelligence, 61(2), 209-261.

McCarthy, J. (1998). What is artificial intelligence?.


McCulloch, W. S., & Pitts, W. H. (1943). A logical calculus of the ideas immanent in nervous activity. Bulletin of Mathematical Biophysics, 7, 115–133.

Neisser, U. (1967). Cognitive psychology. New York: Appleton-Century-Crofts. 

Newell, A., & Simon, H. A. (1976). Computer science as empirical inquiry: Symbols and search. Communications of the ACM, 19, 113–126.


Pfeifer, R. and Bongard, J. (2006). How the body shapes the way we think: a new view of intelligence. MIT press.


Searle, J. R. (1980). Minds, brains, and programs. Behavioral and brain sciences, 3(3), 417-424.

Searle, J. R. (1990). Is the brain a digital computer?. In Proceedings and addresses of the American Philosophical Association, 64(3), 21-37. 

Shepard, R. N. (1984). Ecological constraints on internal representation: Resonant kinematics of perceiving, imagining, thinking, and dreaming. Psychological review, 91(4), 417.

Schank, R. C., & Abelson, R. P. (1975). Scripts, plans and goals. In Proceedings of the 4th International Joint Conference on Artificial Intelligence. IJCAI (Vol. 1).

Smith, E. & Kosslyn, S. M. (2008). Procesos cognitivos: modelos y bases neurales. Pearson, Prentice Hall.

Turing, A. M. (1950). Computing machinery and intelligence. Mind, 59(236), 433-460.