Impulsar a la Ingeniería a aprovechar el aprendizaje en contexto en modelos de lenguaje grandes

Promover el uso del aprendizaje en contexto en modelos de lenguaje grandes en Ingeniería

Cómo modificar tu texto de referencia para obtener lo mejor de un LLM sin entrenamiento

Foto de Steven Lelham en Unsplash

Los Modelos de Lenguaje Grandes (LLM) se utilizan cada vez más y sus habilidades son sorprendentes. Parte de su éxito radica en su capacidad para aprender a partir de unos pocos ejemplos, un fenómeno conocido como aprendizaje en contexto; en el artículo anterior, discutimos en detalle qué es y de dónde proviene, ahora aprenderemos cómo aprovechar su verdadero poder.

Todo lo que necesitas saber sobre el aprendizaje en contexto

Qué es y cómo funciona lo que hace que los Modelos de Lenguaje Grandes sean tan poderosos

towardsdatascience.com

Este artículo se divide en diferentes secciones, y para cada sección responderemos a estas preguntas:

  • Un breve resumen sobre el aprendizaje en contexto
  • ¿Cómo interactúas con un modelo? ¿Qué elemento debe ser insertado? ¿Puede cambiar la referencia afectar la respuesta?
  • ¿Cómo podemos aumentar la capacidad de un modelo en el aprendizaje en contexto? ¿Qué es el prompting de cero disparo o de pocos disparos? ¿Qué es el Chain-of-thought (COT) o el COT de cero disparo? ¿Cómo obtienes lo mejor de tu COT? ¿Por qué los LLM pueden realizar razonamiento CoT?
  • ¿Qué es el árbol de pensamientos?
  • ¿Podemos automatizar este proceso?

Consulta la lista de referencias al final del artículo, también proporciono algunas sugerencias para profundizar en los temas.

LLM, aprendizaje en contexto y la magia detrás de ellos

Foto de Muhammad Haikal Sjukri en Unsplash

Los Modelos de Lenguaje Grandes han sido el tema del momento en los últimos meses. Chat-GPT sorprendió al mundo y el mundo quedó asombrado por sus capacidades. Su éxito se basa en uno de los comportamientos más sorprendentes: el aprendizaje en contexto (ICL).

Pero, ¿qué es?

El aprendizaje en contexto es un paradigma que permite que los modelos de lenguaje aprendan tareas dadas solo unos pocos ejemplos en forma de demostración. (fuente)