La empresa inteligente preparando la IA generativa para la empresa
Empresa preparando IA generativa para empresa
Comencemos aquí: Sí, las oportunidades para la Inteligencia Artificial Generativa (GenAI) son inmensas. Sí, está transformando el mundo tal como lo conocemos (y más rápido de lo que la mayoría de nosotros predijo). Y sí, la tecnología se está volviendo más inteligente. Sin embargo, las implicaciones de GenAI, con su capacidad para generar texto, imágenes y narrativas, en las empresas y los negocios son muy diferentes al impacto en el público en general, después de todo, la mayoría de las empresas no escriben poemas o historias (que es popular entre los usuarios de ChatGPT), ellos sirven a sus clientes.
Muchas empresas tienen experiencia con el procesamiento del lenguaje natural (NLP) y los chatbots de bajo nivel, pero GenAI está acelerando la forma en que los datos pueden integrarse, interpretarse y convertirse en resultados empresariales. Por lo tanto, necesitan determinar rápidamente qué casos de uso de GenAI resolverán sus desafíos empresariales más urgentes y impulsarán el crecimiento. Para comprender cómo las empresas pueden hacer que GenAI esté listo para empresas con sus datos, es importante revisar cómo llegamos a este punto.
El Viaje desde NLP hasta el Modelo de Lenguaje Grande (LLM)
La tecnología ha estado tratando de entender los lenguajes naturales durante décadas. Si bien el lenguaje humano en sí mismo es una forma evolucionada de expresión humana, el hecho de que los humanos se hayan desarrollado en tantos dialectos en todo el mundo, desde símbolos y sonidos hasta sílabas, fonética e idiomas, ha llevado a la tecnología a depender de métodos de comunicación digital más simples con bits y bytes, etc., hasta relativamente recientemente.
Comencé a trabajar en programas de NLP hace casi una década. En aquel entonces, todo se trataba de taxonomía y ontología del lenguaje, extracción de entidades y una forma primitiva de una base de datos de gráficos (en gran parte en XML) para tratar de mantener relaciones y contexto complejos entre varias entidades, dar sentido a las consultas de búsqueda, generar una nube de palabras y entregar resultados. No había nada matemático al respecto. Había mucha intervención humana para construir bases de datos taxonómicas, mucho análisis de XML y, lo más importante, mucha computación y memoria en juego. No hace falta decir que algunos programas tuvieron éxito y la mayoría no. Luego llegó el aprendizaje automático con múltiples enfoques para el aprendizaje profundo y las redes neuronales, etc., acelerando la comprensión del lenguaje natural (NLU) y la inferencia del lenguaje natural (NLI). Sin embargo, hubo tres factores limitantes: el poder de cálculo para procesar modelos complejos, el acceso a volúmenes de datos que puedan enseñar a las máquinas y, principalmente, un modelo que pueda aprender y corregirse por sí mismo formando relaciones temporales entre frases.
Avancemos dos décadas más tarde y las GPUs ofrecen un enorme poder de cálculo, las redes neuronales autoaprendizaje y evolutivas son la norma, existen modelos de aprendizaje supervisado/no supervisado/semisupervisado y, sobre todo, hay un mayor acceso a cantidades masivas de datos en varios idiomas, incluidas diversas plataformas de redes sociales, en las que estos modelos pueden entrenar. El resultado son motores de IA que pueden conectarse contigo en tu lenguaje natural, entender la emoción y el significado detrás de tus consultas, sonar como un ser humano y responder como uno.
- Resolviendo un problema de Leetcode utilizando el aprendizaje por r...
- Ajuste automático para la implementación de redes neuronales profundas
- Modelado de datos para simples mortales – Parte 2 Fundamentos...
Todos, a través de nuestra presencia en las redes sociales, hemos sido inconscientemente un ‘Humano’ en el ‘Loop’ para entrenar estos motores. Ahora tenemos motores que afirman haber sido entrenados en billones de parámetros, capaces de tomar cientos y miles de parámetros de entrada, que son multimodales y nos responden en nuestro idioma. Ya sea GPT4/5, PaLM2, Llama o cualquier otro LLM que se haya publicado hasta ahora, están emergiendo como solucionadores de problemas más contextualizados y verticalizados.
Sistemas de Compromiso y Sistemas de Registro
Aunque el viaje desde NLP hasta LLM ha sido excelente gracias a la Evolución del Silicio, los modelos de datos y la disponibilidad de grandes cantidades de datos de entrenamiento que todos hemos generado, las empresas, como proveedores minoristas, fabricantes, bancos, etc., cada una necesita aplicaciones muy diferentes de esta tecnología. En primer lugar, las empresas no pueden permitirse la alucinación de la IA: necesitan un 0% de alucinación y un 100% de precisión para los usuarios que interactúan con la IA. Hay una variedad de consultas que exigen una precisión absoluta para ser de algún uso empresarial, por ejemplo: ¿Cuántas habitaciones están disponibles en su hotel? ¿Tiene un boleto de primera clase disponible?
Para contrarrestar la alucinación de la IA, entra en juego el concepto antiguo de Sistemas de Compromiso y Sistemas de Registro. Los Sistemas de Compromiso, ya sea con sus clientes, proveedores o empleados, pueden aprovechar una plataforma de conversación basada en GenAI directamente, después de ser entrenados para indicaciones específicas del negocio, esa es la parte “más fácil”. El desafío es incorporar los Sistemas de Registro en la cadena de valor. Muchos negocios todavía se encuentran en un mundo estático basado en tablas y entidades y seguirán así porque la mayoría de las empresas son estáticas a nivel organizacional o corporativo, mientras que los eventos y flujos de trabajo los hacen dinámicos a nivel transaccional.
Este es el lugar donde hablamos sobre las plataformas conversacionales de próxima generación que no solo abordan conversaciones, interfaces y consultas, sino que también llevan los recorridos del cliente hasta el cumplimiento. Hay diferentes enfoques arquitectónicos para este tipo de plataformas conversacionales. Una opción inmediata es utilizar middleware híbrido que actúa como un consolidador entre datos empresariales vectorizados y etiquetados y las indicaciones conversacionales impulsadas por LLM, y ofrece un resultado sin alucinaciones al consumidor.
Las empresas requieren un trabajo masivo de preparación de datos para que sean comprensibles para un motor LLM. Lo llamamos aplanamiento de los modelos de datos tradicionales basados en tablas y entidades. Las bases de datos de grafos, que representan y almacenan datos de una manera que las bases de datos relacionales no pueden, están encontrando un nuevo propósito en este viaje. El objetivo es convertir las bases de datos empresariales en bases de datos de grafos más comprensibles con relaciones que definen el contexto y el significado, lo que facilita que los motores LLM aprendan y, por lo tanto, respondan a las indicaciones de los clientes finales a través de una combinación de conversaciones y consultas en tiempo real. Esta tarea de permitir que los datos empresariales estén listos para LLM es clave para proporcionar una experiencia de extremo a extremo desde los sistemas de interacción hasta los sistemas de registro y llevar las experiencias de los usuarios hasta el cumplimiento.
Lo Que Viene a Continuación
En este punto, con estos avances en datos e IA, el impacto más inmediato se produce en el área de la generación de código de software, como lo demuestra el aumento de Microsoft Copilot, Amazone CodeWhisperer y otras herramientas entre los desarrolladores. Estas herramientas están acelerando los programas de modernización heredados, muchos de los cuales a menudo se detienen debido a preocupaciones de tiempo y costos. Con las herramientas de generación de código impulsadas por GenAI, estamos viendo que los proyectos de modernización aceleran sus cronogramas en un 20-40%. En proyectos de desarrollo de código nuevo, estas herramientas permitirán a los desarrolladores destinar ahorros de tiempo y productividad a la reflexión de diseño y proyectos más innovadores.
Más allá del desarrollo de código de software, las herramientas de GenAI están llevando a la creación de nuevos casos de uso y escenarios verticales que tienen como objetivo resolver los desafíos más urgentes de las empresas, y apenas estamos empezando a rascar la superficie de lo que se debe hacer para aprovechar al máximo esta tendencia. No obstante, ya estamos resolviendo varios problemas y preguntas en el sector minorista y logístico aprovechando GenAI:
¿Cuánto inventario tengo en el almacén y cuándo debo activar el reabastecimiento? ¿Es rentable tener stock por adelantado? ¿Es correcto mi precio de aterrizaje o va a aumentar? ¿Qué artículos puedo agrupar o qué tipo de personalización puedo ofrecer para aumentar mis ganancias?
Responder a este tipo de preguntas requiere una combinación de interfaces conversacionales, consultas impulsadas por datos de alta precisión en el backend y un modelo de aprendizaje automático con conocimientos del dominio que brinde predicciones y orientación futura. Por lo tanto, mi consejo para las empresas sería que, ya sea que sean exploradoras de IA o disruptores de IA generativa, se asocien con proveedores de servicios que tengan experiencia comprobada en IA y sólidas capacidades de datos y análisis que puedan equiparlos para aprovechar los modelos de GenAI adaptados a sus necesidades comerciales y ayudarlos a mantenerse un paso adelante.