Descartes afirmaba en su Discurso del Método (1637) lo siguiente:
“…si hubiese algunas máquinas que semejasen a nuestros cuerpos e imitasen hasta tal punto nuestras acciones como fuera moralmente posible, dispondríamos siempre de dos medios certísimos para reconocer que no eran de ningún modo verdaderos hombres: el primer modo es que nunca podrían usar palabras ni otros signos, componiéndolos, como nosotros hacemos, para declarar a los demás nuestros pensamientos; pues se puede concebir perfectamente que una máquina esté hecha de tal modo que profiera palabras, e incluso que profiera algunas a propósito de las acciones corporales que hayan causado ciertos cambios en sus órganos, como al tocarla en algún sitio, pregunte lo que se le quiere decir; si en otro, que grite que se le hace daño, y cosas parecidas; pero no que ella las disponga de diverso modo para responder al sentido de todo lo que se diga en su presencia, como los hombres más embrutecidos pueden hacerlo…”
Es difícil hacerle justicia a la genialidad de este pasaje. Y es que el intelecto singular de Descartes se anticipaba un debate sobre inteligencia artificial y filosofía de la mente que tuvo propiamente lugar recién en el siglo XX, unos 300 años después.
El matemático inglés Alan Turing, en un artículo de 1950, se hizo la siguiente pregunta: ¿Puede una máquina pensar? Para responder a esta interrogante, propuso realizar el siguiente experimento, que llamó “el juego de la imitación”: en un cuarto cerrado tenemos un ser humano H y una máquina M. Fuera del cuarto se ubica un interrogador I, que cuestiona a H y a M. El objetivo de I es descubrir quién es la máquina y quién el humano.
El objetivo de la máquina es engañar al interrogador, en cuyo caso decimos que ha pasado el test. El objetivo del humano es ayudar al interrogador a acertar quién es quién. La idea es que la máquina piensa si, y solo si, pasa el test. Así, Turing pretende dar un significado preciso a la noción de pensamiento. Al igual que Descartes, Turing propone una forma de conversación como criterio de distinción entre mente y autómata.
Cuando Turing utiliza la palabra “máquina” se refiere a la computadora digital. Aunque hoy en día estemos habituados a utilizar este término como sinónimo de ordenador, la computadora digital de Turing no es una máquina física, sino un objeto matemático.
Podemos pensar la máquina de Turing (informalmente) como una estructura abstracta que se compone de:
- a) Una cinta compuesta por celdas que pueden contener o no un símbolo
- b) Un cabezal que lee y escribe símbolos en las celdas
- c) Una serie de estados discretos
- d) Un conjunto finito de instrucciones
Las instrucciones le dicen a la máquina qué escribir (salida) en la celda de acuerdo a:
- a) Lo que el cabezal lee (entrada)
- b) El estado en el que se encuentra la máquina en ese momento.
En síntesis, lo que hace la máquina es manipular símbolos en una cinta de acuerdo a un conjunto finito de instrucciones. No está demás repetir que se trata de una máquina abstracta. Nuestros ordenadores físicos no son más que instancias concretas de esta estructura matemática, de la misma forma que las Pirámides de Giza son instancias concretas de la estructura abstracta que es el triángulo.
El propósito del concepto de máquina de Turing es el de dar una definición formal de la noción intuitiva de algoritmo (o sea, de aquello que es computable)[1]. La tesis de Church-Turing dice que todo algoritmo es equivalente a una máquina de Turing.
Para apreciar mejor el concepto, en este link uno puede aprender rápidamente a programar su propia máquina de Turing o hacer correr ejemplos prefabricados. [2].
IA fuerte y el funcionalismo de máquina de Turing
La pregunta acerca de si las máquinas son capaces de pensar podría, entonces, ser reformulada de la siguiente forma: ¿Puede una computadora digital engañar a un humano en una prueba de Turing? Al presente, sabemos que este no es el caso.
Pero si el día de mañana apareciese una computadora que lograra pasar la prueba de Turing, ¿significaría realmente que esa computadora piensa? O, mejor dicho, ¿significaría que esa computadora posee una mente?
El filósofo John Searle distingue entre dos posiciones posibles respecto de la inteligencia artificial (IA):
- IA débil: según esta postura, es posible crear computadoras que simulen una mente humana, pero no más que eso.
- IA fuerte: los que suscriben a esta posición creen que si una computadora implementa el programa correcto, ésta será literalmente una mente.
Bajo el programa de la IA fuerte se encuentra la suposición de que la mente humana es literalmente una computadora. El cerebro es simplemente un hardware (o wetware, como escribe sarcásticamente Searle), y la mente sería su software. Y hay más: cualquier sistema físico puede tener una mente, sin importar que sea biológico o no, con tal de que implemente el programa correcto.
Yendo a un extremo: si una máquina expendedora posee el programa correcto, será lícito decir que tiene una mente. Esto es lo que Hilary Putnam denominó “realizabilidad múltiple”: el mismo programa puede implementarse en múltiples sistemas físicos. Algunos incluso llegan a decir que no hace falta siquiera que el programa sea el correcto: basta sencillamente con que el sistema implemente un programa para decir que tiene una mente.
Searle cuenta, a modo de anécdota, que al preguntarle a John McCarty (creador del término “inteligencia artificial”) qué creencias tiene su termostato, éste respondió: “Mi termostato tiene tres creencias: ‘hace mucho calor’; ‘hace mucho frío’; y ‘la temperatura es correcta’”.
La teoría computacional de la mente no solo tiene partidarios dentro de los investigadores de la IA: la psicología cognitiva se basa en la premisa de que la mente puede cuanto menos modelarse como una computadora.
Contra el conductismo
En cuanto a la filosofía, la teoría emergió como respuesta al conductismo y se elevó casi al nivel de ortodoxia durante los años 70. El conductismo negaba la existencia de estados mentales y postulaba que lo único que debe interesarle a la psicología es el comportamiento y la influencia que tiene el ambiente sobre él. Para el conductismo, la mente es una caja negra, pues solo interesa saber las entradas (los estímulos) y las salidas (el comportamiento), sin importar cuál sea el mecanismo interno que las produce.
Así, por ejemplo, mi creencia de que va a llover no es más que una disposición a salir a la calle con paraguas. Ahora bien: ¿Acaso no puedo tener ganas de mojarme ese día? Hay en verdad muchos ejemplos de comportamientos que no pueden ser explicados sin recurrir a estados mentales como «tener ganas de mojarse». El comportamiento del actor que finge sentir dolor, en relación a la persona que se comporta igual pero que de verdad lo siente, no puede ser explicado sin recurrir a estados mentales. Aunque el comportamiento de ambos sujetos es idéntico, el actor tiene un estado mental distinto.
Entonces Hilary Putnam propuso el funcionalismo, que es esencialmente un conductismo con estados mentales. Según el funcionalismo, lo que define a un estado mental no es ninguna propiedad intrínseca, sino más bien el papel funcional que cumple dentro de la mente humana como sistema. Un estado mental no se define por el qué sino por el cómo. Piense, por ejemplo, en que hay vasos de plástico, de vidrio, de metal, etc. Lo que todos tienen en común es que cumplen el papel funcional de vaso.
También se constituye como una reacción a la teoría de la identidad mente-cerebro, según la cual los estados mentales no son más que estados del cerebro. En efecto, no sería posible explicar cómo es que animales con cerebros tan diferentes como el ratón, el delfín o el tigre puedan sentir dolor a menos que admitamos que el dolor no puede ser idéntico a un estado del cerebro (o negásemos que estos seres sienten dolor). Lo que tienen en común el dolor del ratón, el delfín y el tigre es que ciertos mecanismos de su cerebro cumplen el mismo papel funcional, y ésto es lo que llamamos mente (de nuevo, realizabilidad múltiple).
El funcionalismo es en realidad bastante viejo: en sus líneas generales, no es más que el hilemorfismo de Aristóteles. Para el filósofo griego, en efecto, la mente no es más que la forma de la materia, no la materia. Hablando en otros términos, la materia sería el sistema físico llamado «cerebro» y la mente vendría a ser la estructura abstracta de este sistema.
Putnam vio que, desde su funcionalismo, la mente posee una correspondencia perfecta con una máquina de Turing (un autómata probabilista, para ser más precisos). Los estados mentales son los estados de la máquina. Así como el cerebro recibe estímulos y produce comportamientos (de tipo práctico, como las acciones, y de tipo cognitivo, como las creencias), también la máquina tiene entradas y salidas.
Finalmente, la máquina tiene un conjunto de instrucciones que determinan sus salidas dadas ciertas entradas y el estado en que se encuentra. El cerebro también las tendría. Son reglas de la forma: “Si recibes un estímulo de tipo E, y te encuentras en un estado mental M, entonces exhibirás el comportamiento C”. Entonces, nuestro problema del amante de la lluvia queda resuelto: “Si percibo que está lloviendo, y me encuentro en el estado mental M de querer mojarme, no saco mi paraguas”.
Si descubrimos ese conjunto finito de instrucciones que hacen a la mente humana, sería en principio posible crear una mente en forma artificial, llevando el programa de la IA fuerte a término.
La habitación china
Searle es un conocido opositor de la IA fuerte. Formuló un conocido argumento en contra, que también presentó en forma de un divertido experimento mental, que reproduzco a continuación.
Imagínese que usted está dentro de una habitación y, así como yo, no entiende una palabra de chino mandarín. Afuera hay un equipo de programadores. Por una rendija, le van pasando cadenas de caracteres chinos, que ellos llaman “preguntas”. Usted cuenta con un montón de hojas, cada una con un carácter chino diferente, y un enorme libro (escrito en castellano) con instrucciones acerca de cómo combinar esos caracteres entre sí de acuerdo a las preguntas que van entrando a la habitación. Con el tiempo, usted se vuelve tan bueno siguiendo las reglas que un hablante nativo del mandarín es incapaz de darse cuenta de que no entiende una palabra de la lengua. En otras palabras, si usted fuese una máquina, pasaría el test de Turing.
Resulta que, en cierta forma, el sistema descrito en la habitación china es una computadora. Y, al igual que usted, una computadora se limita a la mera manipulación de símbolos de acuerdo a un conjunto de reglas, un aspecto del lenguaje que se conoce como sintaxis.
Pero una mente, aparte de manipular símbolos, es capaz también de conocer su significado. Aunque una computadora manipule símbolos como “CASA”, “TELÉFONO”, “GATO”, etc., de acuerdo a reglas, todavía queda el hecho de que la computadora no sabe lo que es una casa, un teléfono o un gato. El término técnico para describir lo que, según Searle, le falta a las computadoras es “intencionalidad”. Se trata de un concepto del filósofo alemán Franz Brentano que fue retomado luego por la fenomenología de Husserl. Se refiere a la cualidad que tienen los estados mentales de referirse siempre a algo que está fuera de ellos, de representar objetos. Brentano estaba convencido de que solo las entidades mentales poseen intencionalidad.
El argumento de Searle tiene la implicación de que la intencionalidad no es reducible a las propiedades computacionales del cerebro. Debe haber, por consiguiente, otras propiedades cerebrales (biológicas, físicas, etc.) que expliquen ese fenómeno. De esta forma, se puede aceptar que en la mente hay computación (a nivel de sintaxis), pero que no todo en ella es reducible a operaciones computacionales (al nivel semántico).
Ruth Milikan, en la misma línea, argumenta que la intencionalidad es una propiedad biológica que aparece por selección natural y se encuentra también en animales no humanos. A esta idea la llama biosemántica. La intencionalidad sería un fenómeno natural, no un objeto abstracto como sí lo es la organización funcional de Putnam y Aristóteles.
Roger Penrose, por su parte, argumenta que ciertas propiedades físicas (a nivel cuántico) del cerebro son necesarias para el surgimiento de una mente, y que éstas no son computables[3].
Hubo varias críticas al argumento de Searle. Se objeta, por ejemplo, que si bien el individuo que manipula los símbolos no sabe el significado de los caracteres chinos, el sistema como un todo sí lo conoce. También se objeta que, si la computadora tuviese un contacto causal directo con los objetos a los que los símbolos se refiere (mediante sensores, por ejemplo), comprendería los significados de los mismos. Ésta es la famosa objeción “robot” y se basa en la teoría causal de la referencia de Kripke y el externalismo semántico de Putnam.
También se habla de que el argumento de Searle se aplica a un paradigma simbólico de inteligencia artificial, pero que sus objeciones no tienen lugar bajo un paradigma conexionista (basado en redes neuronales).
Esta última respuesta, particularmente, parece muy prometedora. En el paradigma clásico, la computación consiste en manipular símbolos, como lo hace la persona en la habitación china. Dentro de una visión conexionista, en cambio, la computación ocurre al nivel de unidades que se comportan de forma análoga a las neuronas y que están conectadas formando una red. Los símbolos no se toman como dados, sino que son el resultado de esta computación. La computación ocurre a un nivel subsimbólico. De modo que, en este caso, la computación no se reduce a una mera manipulación sintáctica de símbolos, y el argumento de Searle no se aplica. Pero ojo: esto no prueba per se que una red conexionista sea capaz de tener verdadero entendimiento, sencillamente muestra que la irreductibilidad de la semántica a la sintaxis no es un problema para el conexionista.
El cerebro humano a la luz de la IA
A la luz de esta discusión debemos preguntarnos cómo queda nuestra pregunta inicial: ¿Es la mente una computadora digital?
Si se descubre un algoritmo tal que, al ser implementado en una máquina x, ésta logre entender símbolos, además de manipularlos sintácticamente, estaremos autorizados a concluir que se trata de una mente, pues cumple con todas las características que están contenidas en nuestra noción intuitiva de lo que es una mente.
Ahora bien, lo que entendemos por “la mente” puede interpretarse como “la mente humana”. En éste caso se puede lanzar un argumento por analogía. Supongamos que la máquina M posee una mente:
- El cerebro y la máquina M son similares en la propiedad de poseer una mente (Premisa 1)
- La máquina M implementa el algoritmo A (Premisa 2)
- Por lo tanto, el cerebro también implementa el algoritmo A (Conclusión)
Por el momento, todavía no hay evidencia empírica de que la primera premisa sea verdadera para alguna máquina M. Pero si el argumento de Searle falla (al menos en el caso del conexionismo), no hay en principio ningún obstáculo para que la premisa se haga verdadera en el futuro.
Ahora bien, el argumento anterior, al ser no deductivo, es falible: cabe todavía la posibilidad de que lo que la máquina logra mediante la implementación de algoritmos, podría estar realizándolo el cerebro en virtud de propiedades puramente biológicas o físicas no computables. Puede que la implementación de un algoritmo sea causalmente suficiente para dar lugar a una mente pero también es posible que, al mismo tiempo, haya propiedades puramente biológicas o físicas en el cerebro que, sin ser computables, tengan también el poder causal suficiente para generar una mente por sí solas. Del hecho de que una máquina implemente un algoritmo para generar fenómenos mentales no se sigue deductivamente que el cerebro haga lo mismo, a menos que se asuma que todas las leyes de la naturaleza son computables, algo que no es por completo obvio. Dicho de otro modo, la creación de auténtica IA no demostraría que nuestra mente es una computadora digital.
A lo sumo, mostraría que puede haber mentes digitales, y que nuestra mente podría ser una de ellas. Lamentablemente, las partes del debate no parecen darse cuenta de este sutil pero importante punto.
Aunque niego que la mente (la mente en general, sin invocar ninguna mente en particular) sea necesariamente una computadora digital, sigo manteniendo la tesis del funcionalismo: la mente no es más que un conjunto de papeles funcionales. Mi punto es sencillamente que las funciones ejecutadas no necesariamente deben ser algoritmos, aunque bien podrían serlo (y el hecho de crear una IA conferiría, por razonamiento analógico, un alto grado de probabilidad a la hipótesis de que en verdad lo son).
[1] Aunque no es la única forma de formalizar la idea de algoritmo. Está, por ejemplo, la clase de las funciones μ-recursivas.
[2] Yo mismo logré programar una máquina sencilla que recibe números binarios como entrada, dando como salida “verdadero” si el número de dígitos es menor o igual a 2, y falso si ocurre lo contrario. Adjunto el link de mi pequeño experimento: http://turingmachinesimulator.com/shared/xbjkwzjkub
[3] Tenga en cuenta que no todas las funciones son computables. De hecho, el conjunto de funciones no computables es mayor (infinito e innumerable) que el conjunto de funciones computables (infinito pero numerable).
¿Qué te pareció este artículo?
Licenciado en filosofía por el Instituto Superior de Estudios Humanísticos y Filosóficos (ISEHF) en 2015. Fue profesor de filosofía del lenguaje en el ISEHF e investigador independiente. Directivo de la Sociedad Paraguaya de Filosofía. Es columnista de Ciencia del Sur, donde también es editor de ciencias humanas y sociales. Su trabajo está incluido en el libro "La ciencia desde Paraguay" (Servilibro).