LLMs y Grafos de Conocimiento

LLMs y Grafos de Conocimiento' can be condensed to 'LLMs and Knowledge Graphs'.

¿Qué son los LLMs?

Los Modelos de Lenguaje Grande (LLMs, por sus siglas en inglés) son herramientas de IA que pueden entender y generar lenguaje humano. Son potentes redes neuronales con miles de millones de parámetros entrenados con una gran cantidad de datos de texto. El extenso entrenamiento de estos modelos les da una comprensión profunda de la estructura y el significado del lenguaje humano.

Los LLMs pueden realizar diversas tareas de lenguaje como traducción, análisis de sentimientos, conversación con chatbots, etc. Los LLMs pueden comprender información textual compleja, reconocer entidades y sus conexiones, y producir texto que mantiene coherencia y corrección gramatical.

¿Qué son los Grafos de Conocimiento?

Un Grafo de Conocimiento es una base de datos que representa y conecta datos e información sobre diferentes entidades. Está compuesto por nodos que representan cualquier objeto, persona o lugar, y aristas que definen las relaciones entre los nodos. Esto permite a las máquinas entender cómo se relacionan las entidades entre sí, compartir atributos y establecer conexiones entre diferentes cosas en el mundo que nos rodea.

Los grafos de conocimiento se pueden utilizar en diversas aplicaciones, como recomendación de videos en YouTube, detección de fraudes en seguros, recomendaciones de productos en el comercio minorista y modelado predictivo.

Fuente: https://arxiv.org/pdf/2306.08302.pdf | Ejemplo de un Grafo de Conocimiento.

LLMs y Grafos de Conocimiento

Una de las principales limitaciones de los LLMs es que son “cajas negras”, es decir, es difícil entender cómo llegan a una conclusión. Además, a menudo tienen dificultades para comprender y recuperar información factual, lo que puede dar lugar a errores e imprecisiones conocidos como alucinaciones.

Aquí es donde los grafos de conocimiento pueden ayudar a los LLMs al proporcionarles conocimiento externo para la inferencia. Sin embargo, los grafos de conocimiento son difíciles de construir y están en constante evolución. Por lo tanto, es una buena idea utilizar los LLMs y los grafos de conocimiento juntos para aprovechar al máximo sus fortalezas.

Los LLMs se pueden combinar con los Grafos de Conocimiento (KGs, por sus siglas en inglés) utilizando tres enfoques:

  1. LLMs mejorados con KGs: Estos integran los KGs en los LLMs durante el entrenamiento y los utilizan para una mejor comprensión.
  2. KGs mejorados con LLMs: Los LLMs pueden mejorar diversas tareas de KG como la incorporación, la completitud y la respuesta a preguntas.
  3. LLMs + KGs en sinergia: Los LLMs y los KGs trabajan juntos, mejorándose mutuamente para el razonamiento bidireccional basado en datos y conocimiento.

LLMs Mejorados con KGs

Los LLMs son conocidos por su capacidad para sobresalir en diversas tareas de lenguaje al aprender de una gran cantidad de datos de texto. Sin embargo, se les critica por generar información incorrecta (alucinaciones) y por carecer de interpretabilidad. Los investigadores proponen mejorar los LLMs con grafos de conocimiento (KGs) para abordar estos problemas.

Los KGs almacenan conocimiento estructurado, que se puede utilizar para mejorar la comprensión de los LLMs. Algunos métodos integran los KGs durante el pre-entrenamiento de los LLMs, ayudando a la adquisición de conocimiento, mientras que otros utilizan los KGs durante la inferencia para mejorar el acceso a conocimiento específico de dominio. Los KGs también se utilizan para interpretar el razonamiento y los hechos de los LLMs para mejorar la transparencia.

Fuente: https://arxiv.org/pdf/2306.08302.pdf

KGs mejorados por LLMs

Los grafos de conocimiento (KGs) almacenan información estructurada crucial para aplicaciones del mundo real. Sin embargo, los métodos actuales de KG enfrentan desafíos con datos incompletos y procesamiento de texto para la construcción de KGs. Los investigadores están explorando cómo aprovechar la versatilidad de los LLMs para abordar tareas relacionadas con KGs.

Un enfoque común implica utilizar LLMs como procesadores de texto para KGs. Los LLMs analizan datos textuales dentro de los KGs y mejoran las representaciones de los KGs. Algunos estudios también utilizan LLMs para procesar datos de texto originales, extrayendo relaciones y entidades para construir KGs. Los esfuerzos recientes buscan crear indicaciones de KG que hagan que los KGs estructurales sean comprensibles para los LLMs. Esto permite la aplicación directa de los LLMs a tareas como la completación y el razonamiento de KGs.

Fuente: https://arxiv.org/pdf/2306.08302.pdf
Fuente: https://arxiv.org/pdf/2306.08302.pdf

LLMs + KGs sinérgicos

Los investigadores están cada vez más interesados en combinar LLMs y KGs debido a su naturaleza complementaria. Para explorar esta integración, se propone un marco unificado llamado “LLMs + KGs sinérgicos”, que consta de cuatro capas: Datos, Modelo sinérgico, Técnica y Aplicación.

Los LLMs manejan datos textuales, los KGs manejan datos estructurales y, con LLMs y KGs multimodales, este marco puede extenderse a otros tipos de datos como video y audio. Estas capas colaboran para mejorar las capacidades y mejorar el rendimiento en diversas aplicaciones como motores de búsqueda, sistemas de recomendación y asistentes de inteligencia artificial.

Fuente: https://arxiv.org/pdf/2306.08302.pdf

Algunas aplicaciones de LLMs y Grafos de Conocimiento

Respuesta a preguntas de múltiples pasos

Normalmente, cuando usamos LLMs para recuperar información de documentos, los dividimos en fragmentos y luego los convertimos en vectores de incrustación. Con este enfoque, es posible que no podamos encontrar información que abarque varios documentos. Esto se conoce como el problema de la respuesta a preguntas de múltiples pasos.

Este problema se puede resolver utilizando un grafo de conocimiento. Podemos construir una representación estructurada de la información procesando cada documento por separado y conectándolos en un grafo de conocimiento. Esto facilita moverse y explorar documentos conectados, lo que permite responder preguntas complejas que requieren múltiples pasos.

Fuente: https://neo4j.com/developer-blog/knowledge-graphs-llms-multi-hop-question-answering/

En el ejemplo anterior, si queremos que el LLM responda a la pregunta “¿Alguno de los antiguos empleados de OpenAI comenzó su propia empresa?”, el LLM podría devolver información duplicada o ignorar otra información relevante. Extraer entidades y relaciones del texto para construir un grafo de conocimiento facilita que el LLM responda preguntas que abarcan varios documentos.

Combinando datos textuales con un grafo de conocimiento

Otra ventaja de utilizar un grafo de conocimiento con un LLM es que, al utilizar el primero, podemos almacenar tanto datos estructurados como no estructurados y conectarlos con relaciones. Esto facilita la recuperación de información.

Fuente: https://neo4j.com/developer-blog/knowledge-graphs-llms-multi-hop-question-answering/

En el ejemplo anterior, se ha utilizado un grafo de conocimiento para almacenar:

  • Datos estructurados: Antiguos empleados de OpenAI y las empresas que comenzaron.
  • Datos no estructurados: Artículos de noticias que mencionan a OpenAI y a sus empleados.

Con esta configuración, podemos responder preguntas como “¿Cuáles son las últimas noticias sobre los fundadores de Prosper Robotics?” comenzando desde el nodo de Prosper Robotics, pasando a sus fundadores y luego recuperando artículos recientes sobre ellos.

Esta adaptabilidad lo hace adecuado para una amplia gama de aplicaciones de LLM, ya que puede manejar varios tipos de datos y relaciones entre entidades. La estructura del grafo proporciona una representación visual clara del conocimiento, lo que facilita tanto a los desarrolladores como a los usuarios entender y trabajar con él.

Conclusión

Los investigadores están explorando cada vez más la sinergia entre LLM y KG, con tres enfoques principales: LLM mejorados por KG, KG aumentados por LLM y LLM + KG sinergizados. Estos enfoques tienen como objetivo aprovechar las fortalezas de ambas tecnologías para abordar diversas tareas relacionadas con el lenguaje y el conocimiento.

La integración de LLM y KG ofrece posibilidades prometedoras para aplicaciones como respuestas a preguntas de varios saltos, combinación de datos textuales y estructurados, y mejora de la transparencia y la interpretabilidad. A medida que avanza la tecnología, esta colaboración entre LLM y KG tiene el potencial de impulsar la innovación en campos como los motores de búsqueda, los sistemas de recomendación y los asistentes de inteligencia artificial, lo que en última instancia beneficia tanto a los usuarios como a los desarrolladores.