Google Cloud y NVIDIA llevan la colaboración al siguiente nivel
Google Cloud y NVIDIA colaboran en un nivel superior
A medida que la inteligencia artificial generativa y los modelos de lenguaje grandes (LLMs, por sus siglas en inglés) continúan impulsando innovaciones, los requisitos de procesamiento para entrenamiento e inferencia han crecido a un ritmo asombroso.
Para satisfacer esa necesidad, Google Cloud anunció hoy la disponibilidad general de sus nuevas instancias A3, alimentadas por las unidades de procesamiento gráfico (GPU, por sus siglas en inglés) NVIDIA H100 Tensor Core. Estas GPU ofrecen un rendimiento sin precedentes en todo tipo de aplicaciones de inteligencia artificial gracias a su Motor Transformer, diseñado específicamente para acelerar los LLMs.
La disponibilidad de las instancias A3 llega poco después de que NVIDIA fuera nombrado Socio de IA Generativa del Año de Google Cloud, un premio que reconoce la profunda y continua colaboración entre las empresas para acelerar la IA generativa en Google Cloud.
El esfuerzo conjunto adopta múltiples formas, desde el diseño de infraestructura hasta la habilitación de software extensiva, para facilitar la construcción e implementación de aplicaciones de inteligencia artificial en la plataforma de Google Cloud.
En la conferencia Google Cloud Next, el fundador y CEO de NVIDIA, Jensen Huang, se unió al CEO de Google Cloud, Thomas Kurian, para el discurso de apertura del evento y celebrar la disponibilidad general de las instancias A3 con GPU NVIDIA H100 y hablar sobre cómo Google está utilizando las GPU NVIDIA H100 y A100 para investigación interna e inferencia en DeepMind y otras divisiones.
- Conectando la IA y la ética Soluciones integrales en la implementac...
- Dominando el arte de la optimización de precios – Una solució...
- Cómo potenciar tu LLM con agentes de LangChain
En la discusión, Huang señaló los niveles más profundos de colaboración que permitieron la aceleración de las GPU de NVIDIA para el marco PaxML para la creación de LLMs masivos. Este marco de aprendizaje automático basado en Jax está diseñado específicamente para entrenar modelos a gran escala, lo que permite una experimentación y paralelización avanzadas y totalmente configurables.
PaxML ha sido utilizado por Google para construir modelos internos, incluido DeepMind, así como proyectos de investigación, y utilizará GPU NVIDIA. Las empresas también anunciaron que PaxML está disponible de inmediato en el registro de contenedores NVIDIA NGC.
Abundan las empresas emergentes de IA generativa
Hoy en día, hay más de mil empresas emergentes de IA generativa que están desarrollando aplicaciones de próxima generación, muchas de las cuales utilizan tecnología de NVIDIA en Google Cloud. Algunas destacadas incluyen Writer y Runway.
Writer utiliza los LLMs basados en transformadores para permitir a los equipos de marketing crear rápidamente copias para páginas web, blogs, anuncios y más. Para hacer esto, la empresa utiliza NVIDIA NeMo, un marco de aplicación de NVIDIA AI Enterprise que ayuda a las empresas a seleccionar sus conjuntos de datos de entrenamiento, construir y personalizar LLMs, y ejecutarlos en producción a gran escala.
Gracias a las optimizaciones de NeMo, los desarrolladores de Writer han pasado de trabajar con modelos con cientos de millones de parámetros a modelos con 40 mil millones de parámetros. La lista de clientes de esta empresa incluye nombres conocidos como Deloitte, L’Oréal, Intuit, Uber y muchas otras empresas de la lista Fortune 500.
Runway utiliza IA para generar videos en cualquier estilo. El modelo de IA imita estilos específicos a partir de imágenes proporcionadas o mediante una indicación de texto. Los usuarios también pueden utilizar el modelo para crear contenido de video nuevo utilizando imágenes existentes. Esta flexibilidad permite a los cineastas y creadores de contenido explorar y diseñar videos de una manera completamente nueva.
Google Cloud fue el primer proveedor de servicios en la nube en ofrecer la GPU NVIDIA L4. Además, las empresas han colaborado para permitir que el servicio Dataproc de Google aproveche el Acelerador RAPIDS para Apache Spark, lo que proporciona mejoras significativas de rendimiento para ETL y está disponible hoy con Dataproc en el Google Compute Engine y próximamente para Dataproc sin servidor.
Las empresas también han puesto a disposición NVIDIA AI Enterprise en Google Cloud Marketplace e integrado el software de aceleración de NVIDIA en el entorno de desarrollo Vertex AI.
Obtenga más detalles sobre las instancias de GPU NVIDIA en Google Cloud y cómo NVIDIA impulsa la IA generativa, y vea cómo las organizaciones están ejecutando sus aplicaciones empresariales críticas con NVIDIA NeMo en Google Cloud acelerado por GPU.
Regístrese para recibir noticias sobre IA generativa y manténgase actualizado sobre los últimos avances, desarrollos y tecnologías.