Prueba de Turing, Sala China y Modelos de Lenguaje Grandes

'Turing Test, Chinese Room, and Large Language Models'

Imagen generada por IA (craiyon)

La Prueba de Turing es una idea clásica dentro del campo de la IA. Originalmente llamada el juego de la imitación, Alan Turing propuso esta prueba en 1950, en su artículo “Computing Machinery and Intelligence”. El objetivo de la prueba es determinar si una máquina muestra un comportamiento inteligente al mismo nivel (y quizás indistinguible) que el de un ser humano.

Configuración de la Prueba de Turing.

La prueba se desarrolla de la siguiente manera: Un interrogador (jugador C) se encuentra solo en una habitación con una computadora, que está conectada a otras dos habitaciones, donde se encuentran otros dos jugadores. El jugador A es una computadora y el jugador B es un humano. La tarea del interrogador es determinar cuál de los dos jugadores, A o B, es una computadora y cuál es un humano. El interrogador está limitado a escribir preguntas en su computadora y recibir respuestas escritas.

La prueba no profundiza en los detalles del hardware o el cerebro de los jugadores, sino que busca evaluar el comportamiento inteligente. Supuestamente, una computadora lo suficientemente inteligente podrá hacerse pasar por un humano.

La Prueba de Turing ha generado mucho debate y controversia a lo largo de los años, y con los modelos de lenguaje grandes (LLM) actuales, como ChatGPT, puede ser conveniente darle un lugar destacado a esta prueba.

¿Los LLM pasan la Prueba de Turing?

Antes de abordar esta pregunta, me gustaría señalar que somos criaturas de la Naturaleza (algo que a veces olvidamos), que llegamos aquí mediante la evolución a través de la selección natural. Esto implica una serie de peculiaridades que se deben a nuestra historia evolutiva.

Una de estas peculiaridades es nuestra tendencia a atribuir agencia a objetos inanimados. ¿Alguna vez le has dado una patada a tu auto y le has gritado: “¡¿Arrancarás de una vez?!”? Y considera cuántos usuarios de ChatGPT comienzan su solicitud con “Por favor”. ¿Por qué? Después de todo, es un programa y me importa poco si escribes: “Por favor, dime quién es Alan Turing” o “Dime quién es Alan Turing”.

Pero eso somos nosotros. Recorremos el mundo asignando todo tipo de propiedades a los diferentes objetos que encontramos. ¿Por qué? Básicamente, esto probablemente tenía una ventaja de supervivencia, ayudándonos a lidiar con la naturaleza.

En 1980, el filósofo John Searle presentó un argumento ingenioso en contra de la viabilidad de la Prueba de Turing como medida de la inteligencia. El argumento de la habitación china (Mentes, cerebros y programas) sostiene que una computadora que ejecuta un programa en realidad no puede tener una mente o una comprensión, sin importar cuán inteligente o similar a un humano sea su comportamiento.

Así es como funciona el argumento: Supongamos que alguien crea una IA que se ejecuta en una computadora y se comporta como si entendiera el chino (¿tal vez un LLM?).

(generado por craiyon)

El programa recibe caracteres chinos como entrada, sigue el código de la computadora y produce caracteres chinos como salida. Y la computadora lo hace de manera tan convincente que pasa la Prueba de Turing con gran éxito: la gente está convencida de que la computadora es un hablante nativo de chino. Tiene una respuesta para todo, en chino.

Searle preguntó: ¿La máquina realmente entiende chino o está simulando la capacidad de entender chino?

Hmm…

Ahora supongamos que entro en la habitación y reemplazo la computadora.

(generado por craiyon)

Te aseguro que no hablo chino (lamentablemente). Pero me dan un libro, que es básicamente la versión en inglés del programa de la computadora (sí, es un libro grande). También me dan mucho papel y muchos lápices. Hay una ranura en la puerta por donde la gente puede enviarme sus preguntas, en hojas de papel y escritas en chino.

Proceso esos caracteres chinos de acuerdo al libro de instrucciones que tengo; esto tomará un tiempo, pero finalmente, a través de una muestra de absoluta paciencia, proporciono una respuesta en chino, escrita en un trozo de papel. Luego envío la respuesta por la ranura.

Las personas que están afuera de la habitación están pensando: “Oye, el tipo de allí habla chino”. Nuevamente, definitivamente no lo hago.

Searle argumentó que realmente no hay diferencia entre yo y la computadora. Ambos simplemente estamos siguiendo un manual paso a paso, produciendo un comportamiento que se interpreta como una conversación inteligente en chino. Pero ni yo ni la computadora realmente hablamos chino, y mucho menos entendemos chino.

Y sin comprensión, argumentó Searle, no hay pensamiento. Su ingenioso argumento dio lugar a un acalorado debate: “Bueno, todo el sistema – yo, libro, lápices – entiende chino”; “No estoy de acuerdo, el sistema es simplemente un tipo y un montón de objetos”; “Pero…”; y así sucesivamente.

Los LLM actuales, como ChatGPT, son extremadamente buenos para mantener una conversación. ¿Pasaron la Prueba de Turing? Eso es cuestión de opinión, y sospecho que dichas opiniones van desde “ni loco” hasta “Por supuesto, obvio”. Mi propia experiencia limitada con los LLM sugiere que están cerca, pero no son perfectos. En algún momento de la conversación, generalmente me doy cuenta de que es una IA, no un humano.

Pero incluso si los LLM han pasado la Prueba de Turing, no puedo evitar pensar en la habitación de Searle.

Dudo de que lo que estamos viendo ahora sea una mente real.

En cuanto al futuro, me inclino por el consultor de gestión Peter Drucker, quien bromeó: “Intentar predecir el futuro es como tratar de conducir por un camino rural de noche sin luces mientras miras por la ventana trasera”.

(generado por craiyon)

(y si algún día tienen una mente real, no será como la nuestra…)

Veo Gente Muerta, o Es Inteligencia, Jim, Pero No Como la Conocemos

Echa un vistazo a esta imagen, el conocido cuadro “American Gothic” de Grant Wood:

VoAGI.com