Una guía simple de Hugging Face para chatear con el modelo Llama-2 7B en un cuaderno de Colab
Guía Hugging Face para chatear con modelo Llama-2 7B en Colab
¡Es más fácil de lo que piensas!
Si te gustan los LLM de código abierto, ves Llamas en todas partes.
Al menos yo sí 🙂
Así que finalmente decidí jugar con Llama 2 de Meta, el modelo de lenguaje de código abierto más popular (en el momento de escribir esto).
Y encontré la forma más sencilla de chatear con Llama 2 en Colab.
Gracias a los pipelines de Hugging Face, solo necesitas unas pocas líneas de código.
- Aumenta tu tasa de respuesta con un perfil de LinkedIn
- Creciente preocupación pública sobre el papel de la inteligencia ar...
- Los deepfakes de voz están llegando a tu saldo bancario
En esta guía para principiantes, te guiaré a través de cada paso necesario para usar Llama 2 7B. Y aprenderás: • Cómo usar la GPU en Colab • Cómo acceder a Llama 2 de Meta • Cómo crear un pipeline de Hugging Face • Cómo cargar y tokenizar Llama 2 con Hugging Face • Y finalmente, aprenderás cómo chatear con Llamas 🙂
Meta creó 8 versiones de los modelos de Llama 2:
- en 4 tamaños diferentes: 7B, 13B, 34B o 70B de parámetros.
- en 2 variaciones: estándar y afinado para chatear.
En este proyecto, usaremos el más pequeño, para que quepa en una sola GPU. Y usaremos la versión de chat.
Tu opinión importa
Estoy abierto a tus sugerencias sobre qué debería escribir próximamente (siempre y cuando estén relacionadas con los Modelos de Lenguaje de Gran Tamaño)
Ve a la sección de comentarios de este artículo y déjame saber: • ¿Qué te emociona más? • ¿Qué te gustaría leer/aprender? • ¿Con qué estás teniendo dificultades para entender? • ¿Qué te gustaría implementar/construir/crear?
¡Me ayudarás a descubrir lo que realmente buscan mis lectores!
O simplemente di ¡Hola! 🙂 Sabré que tenemos intereses similares.
Nota: Al final de este artículo, encontrarás todos los enlaces útiles, incluyendo un notebook de Colab listo para usar con el proyecto descrito en este artículo (y una versión en video de esta guía). Consulta “Referencias”