EL TEST DE TURING. BEN DUPRÉ

ben-dupreBEN DUPRÉ  / 50 COSAS QUE HAY QUE SABER SOBRE FILOSOFÍA

09 / EL TEST DE TURING

Parry: Los polis detienen a la gente equivocada.

Entrevistador: A veces detienen a los que toca.

Parry: La ley debería pillar a los chorizos de los italianos.

Entrevistador: ¿Usted es italiano?

Parry: Soy de origen británico, pero nací en este país.

Entrevistador: ¿Conoce usted a chorizos italianos?

Parry: Intento evitar los bajos fondos.

Entrevistador: ¿Le dan miedo los bajos fondos?

Parry: Los de la mafia son los peores gángsters.

Entrevistador: ¿Tiene relaciones con la mafia?

Parry: Digamos que me conocen.

Entrevistador: ¿Cómo le conocen?

Parry: Me espían.

Entrevistador: ¿Por qué?

Parry: Quieren conseguir pruebas falsas para incriminarme.

Entrevistador: ¿Qué tienen contra usted?

Parry: Me están esperando fuera.

Se diría que Parry está en apuros ¿no es cierto? Tal vez, pero su principal problema no es la mafia, sino… el hecho de ser un programa informático. Creado en 1971 por un psiquiatra de la Universidad de Stanford, Kenneth Colby, Parry fue creado para responder a preguntas del modo en que lo hace un esquizofrénico que padece la fijación paranoica de estar en el punto de mira de la mafia.

A Parry lo interrogaron junto con unos cuantos pacientes auténticamente paranoicos y los resultados fueron luego evaluados por un equipo de psiquiatras. Ningún médico de ese equipo adivinó que Parry no era un paciente real. 

¿Es posible que Parry piense? Veinte años antes del nacimiento de Parry, en 1950, el matemático inglés pionero en la informática, Alan Turing, escribió un artículo capital en el que proponía un test para determinar si era posible que una máquina pensara. El test, basado en un juego de grupo que se llamaba el juego de imitación, requería un interrogador que se comunicase con otro humano y con una máquina, ambos físicamente separados del interrogador, mediante una especie de conexiones electrónicas. El interrogador no podía hacer ninguna pregunta para diferenciar a la máquina del humano, y si tras un determinado período de tiempo era incapaz de distinguirlos se suponía que la máquina había superado el test.

«Creo que a finales de siglo [XX] el uso de las palabras y la opinión general de la gente educada se habrá transformado tanto que seremos capaces de hablar de máquinas pensantes sin que se nos contradiga.» Alan Turing, 1912-1954

¿Pasó Parry el test? En realidad, no. Para funcionar como un test de Turing adecuado, el equipo de psiquiatras (que aquí hacen el papel del interrogador) debería haber sabido que uno de los pacientes era de hecho un ordenador y que la tarea era identificarlo. En cualquier caso, Parry se hubiera delatado enseguida si hubiera sido sometido a un interrogatorio más largo. El propio Turing creía que a finales del siglo XX los avances en la programación informática habrían alcanzado un punto en el que no existiría más que un 70% de posibilidades de identificar correctamente la diferencia después de cinco minutos de entrevista, aunque de hecho el progreso haya ido bastante más despacio de lo que él predijo. Hasta el momento ningún programa informático ha estado cerca de superar el test de Turing.

Turing propuso su test para evitar la pregunta «¿Las máquinas pueden pensar?», que consideraba demasiado imprecisa como para que mereciera la pena contestar, pero el test se acepta hoy comúnmente como un criterio mediante el que juzgar si un programa es capaz de pensar (o «tiene mente» o «muestra inteligencia» de acuerdo con la prueba). Como tal, los defensores (científicos y filosóficos) de una «IA (inteligencia artificial) fuerte» —la tesis de que las computadoras debidamente programadas poseen mente (no sólo son simulaciones de una mente) en el mismo sentido en que la tienen los humanos— consideran el test como un punto de referencia.

La habitación china El filósofo norteamericano John Searle planteó en 1980 un experimento mental que supuso el desafío más decisivo al test de Turing. En él, Searle se imaginaba a sí mismo —un hablante inglés que no sabe una palabra de chino— confinado en una habitación en la que le pasaban textos escritos por tandas. Le habían proporcionado un montón de símbolos chinos y una voluminosa guía en inglés en la que se explicaba cómo tenía que combinar determinados símbolos para devolver la respuesta a las series de símbolos que le mandaban por tandas. Con el tiempo adquirió tal destreza en la tarea que, desde el punto de vista de alguien del exterior, sus respuestas eran indistinguibles de las de un hablante nativo de chino. Es decir, el toma y daca entre el interior y el exterior de la habitación era exactamente igual que si hubiera existido una plena comprensión del chino. No obstante, lo único que él estaría haciendo sería manipular signos formales ininteligibles, pues no entendía nada.

«Al final se reconocerá que las actuales tentativas de entender la mente por analogía con las computadoras artificiales que pueden interpretar magníficamente algunas de las mismas tareas externas que los seres conscientes son una pérdida de tiempo garrafal.» Thomas Nagel, 1986

Producir mensajes correctos en respuesta a los que recibe, de acuerdo con las reglas que le proporciona un programa (equivalente a la guía en inglés de Searle), es exactamente lo que hace una computadora. Searle sugiere que, del mismo modo que el individuo de la habitación china, un programa informático, aunque más sofisticado, no es más —y nunca puede ser más— que un manipulador de signos desprovisto de mente; es esencialmente sintáctico —se atiene a unas reglas para combinar símbolos— pero no puede comprender el significado, la semántica. Del mismo modo que en la habitación china no se produce ninguna comprensión, tampoco se produce en el programa informático: no hay comprensión, ni inteligencia, ni mente; lo único que se da es una simulación de todos estos procesos.

Superar el test de Turing es fundamentalmente cuestión de proporcionar las respuestas adecuadas a los mensajes recibidos, de modo que, a la luz de la habitación china, la pretensión del test de permitir determinar si una máquina piensa queda minada. Y con la caída del test de Turing, también se hunde la tesis central de la IA fuerte. Pero éstas no son las únicas bajas. Existen dos aproximaciones más a la filosofía de la mente que quedan invalidadas si se acepta el planteamiento de la habitación china.

En la cultura popular
Arthur C. Clarke se creyó a pies juntillas la predicción de Alan Turing. Cuando en 1968 colaboró con Stanley Kubrick en 2001. Una odisea en el espacio creó una computadora inteligente que se llamaba HAL (cada una de las letras es la anterior a la de las siglas de IBM). En la película, a ninguno de los humanos le sorprende que una máquina pensante dirija su viaje en el espacio.

Problemas del behaviorismo y del funcionalismo La idea central del behaviorismo consiste en que los fenómenos mentales pueden traducirse, sin que se pierda nada de su contenido, en tipos de comportamiento o en disposiciones a determinados comportamientos. Así, decir que alguien siente dolor es una forma abreviada de decir que está sangrando, retorciéndose, etc. Es decir, los hechos mentales se definen en términos completamente externos, como registros (inputs) y respuestas (outputs) observables, el valor de las cuales es negado explícitamente por la habitación china. Desde la clásica exposición que brindó Gilbert Ryle (véase página 33), el behaviorismo ya había sido sometido a innumerables objeciones antes de la aparición de Searle. Su importancia actual se debe sobre todo a que fecundó una doctrina que es la teoría de la mente más unánimemente aceptada: el funcionalismo.

El funcionalismo, que resuelve algunos de los problemas del behaviorismo, afirma que los estados mentales son estados funcionales: un determinado estado mental se identifica como tal en virtud del papel o de la función que tiene en relación con varios registros (inputs) (sus típicas causas), los efectos que produce en otros estados mentales y las varias respuestas (outputs) (sus típicos efectos en los comportamientos). Si usamos una analogía informática, el funcionalismo (como el behaviorismo) es una «solución de software» a la teoría de la mente: define los fenómenos mentales como registros (inputs) y respuestas (outputs), sin tener en cuenta el hardware (dualista, fisicalista, o cualquier otro) en el que opera el software. Naturalmente, el problema es que analizar los registros y las respuestas parece abocamos a recaer en la habitación china.

La idea en síntesis: ¿te has sometido al test alguna vez?

Tomado del libro 50 Cosas que hay que saber sobre Filosofía, de BEN DUPRÉ, Editorial Ariel,  2010.

ben-dupre-libro

Anuncios

Responder

Introduce tus datos o haz clic en un icono para iniciar sesión:

Logo de WordPress.com

Estás comentando usando tu cuenta de WordPress.com. Cerrar sesión / Cambiar )

Imagen de Twitter

Estás comentando usando tu cuenta de Twitter. Cerrar sesión / Cambiar )

Foto de Facebook

Estás comentando usando tu cuenta de Facebook. Cerrar sesión / Cambiar )

Google+ photo

Estás comentando usando tu cuenta de Google+. Cerrar sesión / Cambiar )

Conectando a %s