Una guía simple de Hugging Face para chatear con el modelo Llama-2 7B en un cuaderno de Colab

Guía Hugging Face para chatear con modelo Llama-2 7B en Colab

¡Es más fácil de lo que piensas!

Foto de Glib Albovsky en Unsplash

Si te gustan los LLM de código abierto, ves Llamas en todas partes.

Al menos yo sí 🙂

Así que finalmente decidí jugar con Llama 2 de Meta, el modelo de lenguaje de código abierto más popular (en el momento de escribir esto).

Y encontré la forma más sencilla de chatear con Llama 2 en Colab.

Gracias a los pipelines de Hugging Face, solo necesitas unas pocas líneas de código.

En esta guía para principiantes, te guiaré a través de cada paso necesario para usar Llama 2 7B. Y aprenderás: • Cómo usar la GPU en Colab • Cómo acceder a Llama 2 de Meta • Cómo crear un pipeline de Hugging Face • Cómo cargar y tokenizar Llama 2 con Hugging Face • Y finalmente, aprenderás cómo chatear con Llamas 🙂

Meta creó 8 versiones de los modelos de Llama 2:

  • en 4 tamaños diferentes: 7B, 13B, 34B o 70B de parámetros.
  • en 2 variaciones: estándar y afinado para chatear.

En este proyecto, usaremos el más pequeño, para que quepa en una sola GPU. Y usaremos la versión de chat.

Tu opinión importa

Estoy abierto a tus sugerencias sobre qué debería escribir próximamente (siempre y cuando estén relacionadas con los Modelos de Lenguaje de Gran Tamaño)

Ve a la sección de comentarios de este artículo y déjame saber: • ¿Qué te emociona más? • ¿Qué te gustaría leer/aprender? • ¿Con qué estás teniendo dificultades para entender? • ¿Qué te gustaría implementar/construir/crear?

¡Me ayudarás a descubrir lo que realmente buscan mis lectores!

O simplemente di ¡Hola! 🙂 Sabré que tenemos intereses similares.

Nota: Al final de este artículo, encontrarás todos los enlaces útiles, incluyendo un notebook de Colab listo para usar con el proyecto descrito en este artículo (y una versión en video de esta guía). Consulta “Referencias”