La IA de DeepMind potencia la exposición de YouTube Shorts al generar automáticamente descripciones para millones de videos

La IA de DeepMind potencia YouTube Shorts al describir automáticamente millones de videos.

DeepMind, en colaboración con YouTube, ha presentado un avanzado modelo de IA llamado Flamingo, diseñado para mejorar la búsqueda de videos de YouTube Shorts. Estos clips de video cortos, similares a la popular plataforma TikTok, a menudo necesitan más texto descriptivo y títulos significativos, lo que facilita a los usuarios encontrar contenido específico. Sin embargo, con la introducción de Flamingo, los usuarios ahora tendrán una forma más sencilla de descubrir estos videos.

Flamingo utiliza su avanzado modelo de lenguaje visual para generar texto explicativo analizando los fotogramas iniciales de los videos de YouTube Shorts. Por ejemplo, puede describir la escena como “un gato jugando con una bola de lana”. Este texto generado se almacena como metadatos, lo que permite una clasificación de video más eficiente y facilita el acceso al motor de búsqueda.

El impacto de Flamingo ya se ha sentido, ya que cientos de miles de videos Shorts recién subidos se han beneficiado de descripciones generadas por IA. YouTube tiene la intención de implementar gradualmente esta tecnología en todos los videos Shorts, facilitando su búsqueda para los espectadores de todo el mundo.

Flamingo representa la última colaboración entre DeepMind y YouTube, solidificando aún más la fusión de DeepMind y Google Brain en un grupo empresarial de IA unificado, según anunció Google en abril. Sus proyectos conjuntos anteriores incluyen la utilización del modelo de IA de DeepMind, MuZero, para mejorar el códec VP9 de YouTube para transmisión comprimida. Además, DeepMind y YouTube se asociaron en 2018 para educar a los creadores de video sobre cómo maximizar los ingresos al alinear los anuncios con las políticas de YouTube. Esta colaboración resultó en el desarrollo de un modelo de calidad de etiqueta (LQM), garantizando una etiquetado de contenido más preciso para una precisión publicitaria mejorada y fomentando la confianza entre los espectadores, los creadores y los anunciantes en la plataforma.

Continuando su fructífera colaboración, DeepMind y YouTube trabajaron en mejorar la experiencia del usuario mediante la introducción de capítulos de video. Este desarrollo llevó a la creación de un sistema de IA capaz de procesar de manera autónoma las transcripciones de contenido de video y audio, proporcionando sugerencias para la segmentación y los títulos de los capítulos. Esta función revolucionaria, conocida como AutoChapters, fue presentada por el CEO Sundar Pichai durante Google I/O 2022. Con AutoChapters, los usuarios ya no necesitan buscar minuciosamente a través de videos largos, ya que el sistema de IA identifica rápidamente las secciones clave. Esta función ya se utiliza en 8 millones de videos y DeepMind planea expandir su implementación a 80 millones de videos en el próximo año.

En cuanto a Flamingo, el equipo de producción de YouTube Shorts ha aclarado que los creadores no podrán ver los metadatos generados por el modelo de IA. El enfoque principal es mejorar significativamente la precisión de la búsqueda. Además, Google asegura que el texto producido por Flamingo cumple con sus estrictos estándares de responsabilidad, evitando cualquier representación negativa del contenido del video.

A medida que Flamingo comienza su viaje para revolucionar la búsqueda de videos de YouTube Shorts, se observará de cerca la precisión de sus capacidades de etiquetado de IA. En esta era de tecnologías de IA en constante avance, Flamingo es un testimonio de la colaboración entre DeepMind y YouTube. A través de sus esfuerzos conjuntos, continúan redefiniendo los límites de la innovación en IA, creando un entorno más atractivo y accesible tanto para los creadores como para los espectadores.