Conoce LoraHub Un marco estratégico de IA para componer módulos de adaptaciones de baja clasificación (LoRA) entrenados en diversas tareas con el fin de lograr un rendimiento adaptable en nuevas tareas.
LoraHub es un marco de IA para componer módulos de adaptaciones de baja clasificación (LoRA) entrenados en diversas tareas para lograr un rendimiento adaptable en nuevas tareas.
Los modelos de lenguaje preentrenados a gran escala (LLMs) como OpenAI GPT, Flan-T5 y LLaMA han sido sustancialmente responsables del rápido avance del procesamiento del lenguaje natural (NLP, por sus siglas en inglés). Estos modelos tienen un rendimiento excepcional en una variedad de aplicaciones de NLP. Sin embargo, surgen problemas de eficiencia computacional y utilización de memoria durante el ajuste fino debido a su enorme tamaño de parámetros.
En los últimos años, ha surgido la adaptación de bajo rango (LoRA) como una herramienta poderosa para el ajuste. Acelera el entrenamiento de LLM al disminuir la cantidad de memoria y computación requerida. LoRA logra esto al fijar los parámetros del modelo principal (un LLM) y aprender un módulo pequeño y complementario que funciona de manera confiable en las tareas designadas.
Las ganancias de eficiencia posibles gracias a LoRA han sido el foco de investigaciones anteriores, pero la modularidad y la componibilidad de los módulos LoRA han recibido muy poca atención. Es necesario investigar si los módulos LoRA pueden escribirse para generalizar eficientemente hacia problemas desconocidos.
Un grupo de investigadores de Sea AI Lab, la Universidad de Washington y el Allen Institute for AI decidió utilizar la modularidad de LoRA para permitir un rendimiento flexible en desafíos novedosos en lugar de limitarse a entrenar en una tarea específica. El beneficio clave de su enfoque es que permite ensamblar los módulos LoRA automáticamente sin intervención humana ni conocimientos especializados.
- Reconocimiento del lenguaje hablado en Mozilla Common Voice –...
- ¿Aprovechar los paneles de control de gestión para contar historias...
- Una investigación de IA sobre la incorporación de interpolación ent...
El método puede organizar automáticamente los módulos LoRA adecuados con solo unas pocas muestras de tareas previamente no reconocidas. Dado que los investigadores no hacen suposiciones sobre qué módulos LoRA entrenados en qué tareas pueden integrarse, todos los módulos que cumplen con los requisitos (por ejemplo, utilizando el mismo LLM) son candidatos para una fusión. Llaman a esta técnica de aprendizaje “LoraHub learning” ya que utiliza varios módulos LoRA diferentes que ya existen.
Para garantizar su eficacia, el equipo evaluó sus metodologías utilizando el benchmark estándar de la industria BBH y Flan-T5 como el LLM subyacente. Los resultados demuestran el valor de un proceso de aprendizaje LoraHub de pocos disparos para componer módulos LoRA para tareas novedosas. Sorprendentemente, la estrategia obtiene resultados muy cercanos al aprendizaje en contexto de pocos disparos. La eliminación de la necesidad de instancias como entradas para el LLM también reduce significativamente los costos de inferencia en comparación con el aprendizaje en contexto. La técnica de aprendizaje utiliza un enfoque libre de gradientes para generar los coeficientes de los módulos LoRA y solo requiere un pequeño número de pasos de inferencia. En menos de un minuto, con un solo A100, por ejemplo, el enfoque puede lograr un rendimiento de primer nivel en el BBH.
Aprender en LoraHub solo requiere el conocimiento de cómo procesar la inferencia del LLM. Por lo tanto, se puede hacer en una computadora con solo CPU. La flexibilidad y el alto rendimiento de este trabajo abren el camino para crear una plataforma donde los módulos LoRA entrenados se puedan compartir, acceder y aplicar fácilmente a nuevos trabajos en este campo. El equipo espera que dicho sistema permita el desarrollo de una biblioteca de módulos LoRA reutilizables con una amplia gama de características. El grupo está trabajando en la composición dinámica de nodos LoRA para mejorar las capacidades del LLM para todos.