Este documento prueba el sentido del humor de ChatGPT Más del 90% de las bromas generadas por ChatGPT fueron las mismas 25 bromas.

El documento prueba que ChatGPT tiene sentido del humor y que el 90% de sus bromas son las mismas 25.

El humor puede mejorar el rendimiento y la motivación humanos y es crucial en el desarrollo de relaciones. Es una herramienta efectiva para influir en el estado de ánimo y dirigir la atención. Por lo tanto, un sentido del humor que sea computacional tiene el potencial de mejorar en gran medida la interacción humano-computadora (HCI). Lamentablemente, aunque el humor computacional es un área de estudio de larga data, las computadoras creadas están lejos de ser “graciosas”. Este problema incluso se considera AI-completo. Sin embargo, las mejoras continuas y los descubrimientos recientes de aprendizaje automático (ML) crean una amplia gama de nuevas aplicaciones y presentan nuevas oportunidades para el procesamiento del lenguaje natural (NLP).

Los modelos de lenguaje grande basados en transformadores (LLM) reflejan y capturan cada vez más conocimientos implícitos, incluida la moralidad, el humor y los estereotipos. El humor a menudo es subliminal y está impulsado por matices minuciosos. Por lo tanto, hay motivos para el optimismo en cuanto a los futuros desarrollos en el humor artificial, dadas estas nuevas propiedades de los LLM. ChatGPT de OpenAI atrajo recientemente mucha atención por sus capacidades innovadoras. Los usuarios pueden tener intercambios de conversaciones con el modelo a través de la API de chat pública. El sistema puede responder a una amplia gama de consultas mientras considera el diálogo contextual previo. Como se ve en la Fig. 1, incluso puede contar chistes. Divertido de usar, ChatGPT se involucra a nivel humano.

Figura 1: Un excelente ejemplo de un diálogo entre un usuario humano y un chatbot. El chiste es una respuesta real a la pregunta que hizo ChatGPT.

Sin embargo, los consumidores pueden ver de inmediato las deficiencias del modelo mientras interactúan con él. A pesar de producir texto en inglés casi sin errores, ChatGPT ocasionalmente tiene errores gramaticales y relacionados con el contenido. Descubrieron que ChatGPT probablemente repetirá los mismos chistes con regularidad a lo largo de la investigación anterior. Los chistes que se ofrecieron también fueron bastante precisos y matizados. Estos hallazgos respaldaron que el modelo no creó los chistes producidos. En su lugar, se copiaron de los datos de entrenamiento o incluso se codificaron en una lista. Realizaron varios experimentos estructurados basados en indicaciones para aprender sobre el comportamiento del sistema y permitir la inferencia sobre el proceso de generación de la salida de ChatGPT debido a que el funcionamiento interno del sistema no se divulga.

Investigadores del Centro Aeroespacial Alemán (DLR), la Universidad Técnica de Darmstadt y el Centro Hesiano de AI quieren saber específicamente, a través de una investigación sistemática basada en indicaciones, qué tan bien puede capturar el humor humano ChatGPT. Las tres condiciones experimentales de invención de chistes, explicación de chistes y detección de chistes se ensamblan como la principal contribución. El vocabulario de la inteligencia artificial a menudo utiliza comparaciones con rasgos humanos, como redes neuronales o la frase inteligencia artificial en sí misma. Además, utilizan palabras relacionadas con los humanos al discutir agentes conversacionales, que tienen como objetivo emular el comportamiento humano lo más posible. Por ejemplo, ChatGPT “comprende” o “explica”.

Aunque creen que estas comparaciones capturan con precisión el comportamiento y el funcionamiento interno del sistema, pueden ser engañosas. Quieren aclarar que los modelos de IA en discusión no están en un nivel humano y, como mucho, son simulaciones de la mente humana. Este estudio no intenta responder a la pregunta filosófica de si la IA puede pensar o entender conscientemente.