El curso de filosofía para ChatGPT Esta investigación de IA explora el comportamiento de LLMs en agentes de diálogo.

Curso de filosofía para ChatGPT explora comportamiento de LLMs en agentes de diálogo de IA.

2023 es el año de los LLMs. ChatGPT, GPT-4, LLaMA y más. Un nuevo modelo de LLM está tomando el centro de atención uno tras otro. Estos modelos han revolucionado el campo del procesamiento del lenguaje natural y se están utilizando cada vez más en varios dominios.

Los LLMs poseen la notable capacidad de exhibir una amplia gama de comportamientos, incluyendo el diálogo, lo que puede llevar a una ilusión convincente de conversar con un interlocutor humano. Sin embargo, es importante reconocer que los agentes de diálogo basados en LLM difieren significativamente de los seres humanos en varios aspectos.

Nuestras habilidades lingüísticas se desarrollan a través de la interacción encarnada con el mundo. Nosotros, como individuos, adquirimos capacidades cognitivas y habilidades lingüísticas a través de la socialización y la inmersión en una comunidad de usuarios del lenguaje. Esta parte sucede más rápido en los bebés, y a medida que envejecemos, nuestro proceso de aprendizaje se ralentiza; pero los fundamentos siguen siendo los mismos.

En contraste, los LLMs son redes neuronales desencarnadas entrenadas en vastas cantidades de texto generado por humanos, con el objetivo principal de predecir la siguiente palabra o token en función de un contexto dado. Su entrenamiento gira en torno a aprender patrones estadísticos de los datos del lenguaje en lugar de a través de la experiencia directa del mundo físico.

A pesar de estas diferencias, tendemos a usar LLMs para imitar a los humanos. Hacemos esto en chatbots, asistentes, etc. Sin embargo, este enfoque plantea un dilema desafiante. ¿Cómo describimos y entendemos el comportamiento de los LLMs?

Es natural emplear un lenguaje psicológico popular familiar, utilizando términos como “sabe”, “entiende” y “piensa” para describir a los agentes de diálogo, como lo haríamos con los seres humanos. Sin embargo, cuando se toma demasiado literalmente, dicho lenguaje promueve el antropomorfismo, exagerando las similitudes entre los sistemas de inteligencia artificial y los humanos mientras oscurece sus profundas diferencias.

Entonces, ¿cómo abordamos este dilema? ¿Cómo podemos describir los términos “comprensión” y “conocimiento” para los modelos de inteligencia artificial? Sumergámonos en el papel de Role Play.

En este papel, los autores proponen adoptar marcos conceptuales y metáforas alternativos para pensar y hablar sobre los agentes de diálogo basados en LLM de manera efectiva. Abogan por dos metáforas principales: ver al agente de diálogo como interpretando un personaje único o como una superposición de simulacros dentro de un multiverso de personajes posibles. Estas metáforas ofrecen diferentes perspectivas sobre la comprensión del comportamiento de los agentes de diálogo y tienen sus propias ventajas distintas.

Ejemplo de muestreo autoregresivo. Fuente: https://arxiv.org/pdf/2305.16367.pdf

La primera metáfora describe al agente de diálogo como interpretando un personaje específico. Cuando se le da un mensaje, el agente intenta continuar la conversación de manera que coincida con el papel o persona asignada. Su objetivo es responder de acuerdo con las expectativas asociadas con ese papel.

La segunda metáfora ve al agente de diálogo como una colección de diferentes personajes de varias fuentes. Estos agentes han sido entrenados en una amplia gama de materiales como libros, guiones, entrevistas y artículos, lo que les da mucho conocimiento sobre diferentes tipos de personajes y tramas. A medida que la conversación avanza, el agente ajusta su papel y persona en función de los datos de entrenamiento que tiene, lo que le permite adaptarse y responder en su personaje.

Ejemplo de toma de turnos en agentes de diálogo. Fuente: https://arxiv.org/pdf/2305.16367.pdf

Al adoptar este marco de trabajo, los investigadores y usuarios pueden explorar aspectos importantes de los agentes de diálogo, como el engaño y la autoconciencia, sin atribuir erróneamente estos conceptos a los humanos. En cambio, el enfoque se desplaza hacia la comprensión de cómo se comportan los agentes de diálogo en escenarios de juego de roles y los diferentes personajes que pueden imitar.

En conclusión, los agentes de diálogo basados en LLM poseen la capacidad de simular conversaciones similares a las humanas, pero difieren significativamente de los usuarios de lenguaje humano reales. Al utilizar metáforas alternativas, como ver a los agentes de diálogo como jugadores de roles o combinaciones de simulaciones, podemos comprender mejor y discutir su comportamiento. Estas metáforas proporcionan información sobre la dinámica compleja de los sistemas de diálogo basados en LLM, lo que nos permite apreciar su potencial creativo al mismo tiempo que reconocemos su distinción fundamental de los seres humanos.