Conozca Verba una herramienta de código abierto para construir su propia tubería de generación aumentada de recuperación RAG y utilizar LLMs para salidas basadas en internos.
Conozca Verba, una herramienta de código abierto para construir su propia tubería de generación aumentada de recuperación RAG y utilizar LLMs para salidas internas.
Verba es un proyecto de código abierto para proporcionar aplicaciones RAG con una interfaz simplificada y fácil de usar. Uno puede adentrarse en los datos y comenzar a tener conversaciones relevantes rápidamente.
Verba es más que una simple herramienta para consultar y manipular datos. La elaboración de informes, la comparación y el contraste entre varios conjuntos de números y el análisis de datos, a través de Weaviate y los Modelos de Lenguaje Grande (LLMs), Verba hace posible todo esto.
Basado en el motor de búsqueda generativo de vanguardia de Weaviate, Verba extrae automáticamente la información de antecedentes necesaria de los documentos cada vez que se realiza una búsqueda. Utiliza la potencia de procesamiento de LLMs para proporcionar soluciones exhaustivas y contextuales. El diseño sencillo de Verba facilita la recuperación de toda esta información. Las sencillas funciones de importación de datos de Verba admiten formatos de archivo tan variados como .txt, .md y otros. La tecnología realiza automáticamente el fragmentado y la vectorización de los datos antes de alimentarlos a Weaviate, lo que lo hace más adecuado para la búsqueda y recuperación.
Utilice el módulo de creación y las opciones de búsqueda híbrida disponibles en Weaviate a su favor al trabajar con Verba. Estos sofisticados métodos de búsqueda escanean los documentos en busca de piezas de contexto importantes, que los Modelos de Lenguaje Grande luego utilizan para proporcionar respuestas detalladas a las consultas.
- RLHF para la toma de decisiones de alto rendimiento estrategias y o...
- Guíame a través del tiempo SceNeRFlow es un método de IA que genera...
- Retos en la Generación de Paradas dentro de Llama 2
Para mejorar la velocidad de las búsquedas futuras, Verba incrusta tanto los resultados generados como las consultas en la Caché Semántica de Weaviate. Antes de responder a la pregunta, Verba buscará en su Caché Semántica para determinar si ya se ha respondido una pregunta similar.
Se requiere una clave de API de OpenAI independientemente del método de implementación para habilitar las capacidades de entrada y consulta de datos. Agregue la clave de API a las variables de entorno del sistema o cree un archivo .env al clonar el proyecto.
Verba permite conectarse a instancias de Weaviate de varias formas, dependiendo del caso de uso específico. Si las variables de entorno VERBA_URL y VERBA_API_KEY no están presentes, Verba utilizará Weaviate Embedded en su lugar. El método más sencillo para lanzar la base de datos de Weaviate para prototipado y pruebas es a través de esta implementación local.
Verba proporciona instrucciones sencillas para importar los datos para su posterior procesamiento. Tenga en cuenta que importar datos tendrá un costo basado en la configuración de la clave de acceso a OpenAI antes de continuar. Los modelos de OpenAI solo son utilizados por Verba. Tenga en cuenta que se cobrará la clave de API por el costo de uso de estos modelos. La incrustación de datos y la generación de respuestas son los principales impulsores del costo.
Puede probar https://verba.weaviate.io/.
Verba se compone de tres partes principales:
- Uno puede alojar su base de datos Weaviate en el Servicio de Nube Weaviate (WCS) o en su propio servidor.
- Este punto de conexión FastAPI actúa como intermediario entre el proveedor del Modelo de Lenguaje Grande y el almacén de datos Weaviate.
- La interfaz de usuario React Frontend (entregada estáticamente a través de FastAPI) proporciona una interfaz de usuario dinámica para la exploración y manipulación de datos. Desarrollo.