Este boletín de inteligencia artificial es todo lo que necesitas #63

Boletín IA #63, todo lo que necesitas.

Lo que sucedió esta semana en IA por Louie

Esta semana en IA, destacamos más evidencia de la adopción de Grandes Modelos de Lenguaje (LLMs) que impulsan un crecimiento significativo en los ingresos en el mercado occidental, así como la introducción de nuevos modelos de IA en China.

Según se informa, OpenAI ha logrado una tasa de ingresos de $1 mil millones, lo que marca un aumento sustancial y rápido desde los $28 millones registrados en 2022. También todas las miradas están puestas en los nuevos chips H100 de Nvidia, donde se informa que la tasa de ingresos ahora está en decenas de miles de millones. Los LLM ya no se limitan a áreas de investigación de nicho y ChatGPT ha generado un gran cambio en la demanda de productos e infraestructura de LLM, lo que está generando ingresos sustanciales. Esta ola de interés también ha provocado una importante afluencia de inversiones de capital de riesgo en el sector de IA. Sin embargo, aún queda por ver qué tan rápido esta ola de inversión en API de IA e infraestructura se traducirá en productos de consumo con una adopción duradera.

Las empresas tecnológicas y universidades chinas también han realizado inversiones sustanciales en IA en los últimos años y han realizado contribuciones significativas al aprendizaje automático. Sin embargo, a diferencia de otras naciones, China exige que las empresas se sometan a evaluaciones de seguridad y obtengan autorización para los modelos de IA. Esta política había retrasado anteriormente el lanzamiento público de chatbots de LLM en China. Sin embargo, esta semana marcó un desarrollo importante, ya que China aprobó el lanzamiento de nuevos modelos de 11 empresas. Estamos observando para ver la adopción de estos productos en China y cómo se compararán con los modelos de competidores occidentales.

Aunque los avances en IA en China son prometedores, el gobierno de Estados Unidos ha intensificado las sanciones sobre el suministro de chips de IA líderes a China. Esto plantea preguntas sobre el impacto potencial en el progreso. Aún no está claro qué tan extensas serán estas restricciones y cómo los proyectos de IA chinos podrán compensar con chips menos eficientes, diseños de chips internos o fabricación de chips chinos, pero esperamos que se convierta en un desafío cada vez mayor para entrenar los modelos de cálculo más intensivos en el futuro.

– Louie Peters — Co-fundador y CEO de Towards AI

Este número te lo ofrece gracias a invideo AI:

Convierte cualquier idea en video con una sola herramienta de IA

Imagina tener un copiloto para crear videos, eso es invideo AI.

Transforma tus ideas en visualizaciones impresionantes al instante. Instruye a la IA con comandos de texto y obtén un video listo para usar, que incluye guion, material multimedia, locución y subtítulos.

Haz ediciones y ajustes con simples indicaciones de texto. La creación ahora es 100 veces más fácil para creadores de contenido, YouTubers y profesionales del marketing.

¡Pruébalo ahora, sin cargo!

Noticias más destacadas

  1. La política de privacidad de X confirma que utilizará datos públicos para entrenar modelos de IA

La política de privacidad recientemente actualizada de X informó a sus usuarios que ahora recopilará datos biométricos, así como el historial laboral y educativo de los usuarios, para ayudar a entrenar modelos de IA y aprendizaje automático. Algunos informes especulan que Elon Musk podría haber adquirido Twitter parcialmente por su gran cantidad de datos de entrenamiento propietarios, que podrían ser utilizados para entrenar sistemas para su nueva empresa de IA.

2. Google apuesta por completo al AI Cloud

Google recientemente presentó un ecosistema ampliado que incluye tanto integradores de sistemas globales como proveedores de servicios en la nube más pequeños, promoviendo la adopción generalizada de las ofertas de Google en todo el mundo. Aunque Google sigue siendo un distante tercer lugar en la carrera de infraestructura como servicio/plataforma como servicio, Google está adoptando una estrategia a largo plazo e invirtiendo fuertemente en IA como un impulsor clave de su futuro en la computación en la nube.

3. WeatherBench 2: Un punto de referencia para la próxima generación de modelos meteorológicos basados en datos

Google ha lanzado el conjunto de datos WeatherBench 2, que está ganando atención en el campo de la predicción del tiempo con IA. Los métodos de aprendizaje automático están demostrando ser tan efectivos como los modelos basados en física, pero con la ventaja de pronósticos más rápidos utilizando hardware asequible. El conjunto de datos WeatherBench 2 tiene como objetivo mejorar la investigación de IA en la predicción del tiempo.

4. Ideogram lanza generador de imágenes de IA con una tipografía impresionante

Ideogram es una herramienta de IA alternativa que se destaca en la generación de imágenes con capacidades de tipografía sólidas. Ofrece una característica única de generar texto dentro de imágenes, abordando eficazmente el desafío común que enfrentan los generadores populares de imágenes de IA.

5. La IA podría ahogarse en su propio exceso de información a medida que llena la web

Los expertos predicen que el contenido generado por IA dominará pronto la web, pero esto plantea riesgos como la sobrecarga de información y la degradación. Una preocupación notable es el “Colapso del modelo”, en el que los modelos de IA dependen excesivamente de elecciones de palabras predecibles, lo que potencialmente lleva a una pérdida de su capacidad para producir contenido atractivo y matizado.

Cinco lecturas/videos de 5 minutos para mantenerte aprendiendo

  1. Los Transformers revolucionaron la IA. ¿Qué los reemplazará?

Si la inteligencia artificial moderna tuviera un documento fundacional, sería el artículo de investigación de Google de 2017 “Attention Is All You Need” (La atención es todo lo que necesitas). Este artículo profundiza en el concepto de los Transformers, describe sus limitaciones y discute posibles alternativas para superar estas deficiencias. Presenta alternativas convincentes respaldadas por una lógica sólida.

2. Glosario de ChatGPT: 41 términos de IA que todos deberían conocer

Con el ritmo de los avances en IA, puede ser difícil mantenerse al día con la terminología más reciente. Este glosario sirve como un recurso para aquellos que recién están siendo introducidos a la IA y para aquellos que buscan una referencia o un repaso de vocabulario.

3. Elige la estrategia adecuada de GPU para tu proyecto de IA

Esta guía analiza la decisión de alquilar o comprar una GPU para tu proyecto de IA. Poseer una GPU brinda estabilidad, mientras que el alquiler ofrece adaptabilidad. Los freelancers pueden encontrar beneficioso alquilar para proyectos a corto plazo, mientras que los investigadores a largo plazo pueden descubrir que la propiedad es más rentable.

4. Opciones para resolver las alucinaciones en la IA generativa

Este artículo aborda el problema de las alucinaciones en modelos generativos de IA e introduce una solución conocida como Generación con Recuperación Aumentada (RAG, por sus siglas en inglés). RAG mitiga eficazmente las alucinaciones al recuperar contexto pertinente durante la generación de datos, lo que lo convierte en la opción preferida para las empresas de IA.

5. Vertex AI LLM: Aprendizaje por Reforzamiento a partir de Retroalimentación Humana

Este artículo ofrece una guía completa para implementar el Aprendizaje por Reforzamiento con Retroalimentación Humana (RLHF, por sus siglas en inglés) en Google Cloud utilizando Vertex AI.

Artículos y Repositorios

  1. RLAIF: Escalando el Aprendizaje por Reforzamiento a partir de la Retroalimentación de la IA

Nuevos hallazgos de Google sugieren que el Aprendizaje por Reforzamiento a partir de la Retroalimentación de la IA (RLAIF) podría representar una alternativa viable al Aprendizaje por Reforzamiento con etiquetas de preferencia humana de alta calidad (RLHF). RLAIF utiliza un modelo de lenguaje listo para usar para etiquetar preferencias y tiene el potencial de abordar limitaciones de escalabilidad y mejorar la eficiencia de los LLM (Large Language Models, modelos de lenguaje grandes).

2. YaRN: Extensión eficiente de la ventana de contexto de los modelos de lenguaje grandes

Este artículo presenta YaRN, un método computacionalmente eficiente para extender la ventana de contexto de dichos modelos, que requiere 10 veces menos tokens y 2.5 veces menos pasos de entrenamiento que los métodos anteriores. Se ha utilizado con éxito para ajustar finamente los modelos LLaMa 2 7B y 13B con ventanas de contexto de 64k y 128k.

3. Qwen-VL: Un modelo fronterizo de gran visión-idioma con habilidades versátiles

Alibaba Cloud presenta Qwen-VL, un poderoso modelo de visión-idioma diseñado para aplicaciones de chat. Qwen-VL combina entradas de imagen y texto para generar texto preciso y salidas de cajas delimitadoras, mejorando tareas como la descripción de imágenes, la respuesta a preguntas, la localización y la comprensión texto-imagen.

4. MedAlign: Un conjunto de datos generado por clínicos para seguir instrucciones en registros médicos electrónicos

MedAlign es un valioso conjunto de datos que comprende 983 instrucciones para analizar datos de registros médicos electrónicos (EHR, por sus siglas en inglés). Los investigadores utilizaron este conjunto de datos para evaluar el rendimiento de seis modelos de lenguaje de dominio general. Identificaron tasas de error significativas, con GPT-4 exhibiendo una tasa de error del 35% y MPT-7B-Instruct con una tasa de error del 68%.

5. OpenBMB / ChatDev

ChatDev es una empresa de software virtual que opera a través de múltiples agentes inteligentes, cada uno asignado a diferentes roles, incluyendo Director Ejecutivo, Director de Tecnología, Programador, Tester y más. Estos agentes dentro de ChatDev colaboran participando en seminarios especializados de funciones, que abarcan tareas como diseño, codificación, pruebas y documentación.

¿Disfrutaste de estos artículos y resúmenes de noticias? ¡Recibe un resumen diario en tu bandeja de entrada!

¡La sección de la Comunidad Aprendiendo IA Juntos!

¡Meme de la semana!

Meme compartido por neuralink

Publicación destacada de la comunidad de Discord

Well.job ha presentado Multilingual Semantic Search, ofreciendo capacidades de búsqueda semántica con código abierto o OpenAI. Esta solución está diseñada para funcionar con cualquier idioma y ofrece una forma sencilla y eficiente de realizar búsquedas semánticas, utilizando la biblioteca FAISS en varios idiomas. Échale un vistazo en GitHub y apoya a un miembro de la comunidad. Comparte tus preguntas y comentarios en el hilo aquí.

¡Encuesta de IA de la semana!

Únete a la discusión en Discord.

Sección seleccionada de TAI

Artículo de la semana

¡10 cosas geniales que puedes hacer con embeddings! [Parte 1] por Zubia Mansoor

Alejándonos un poco del aprendizaje automático clásico (ML), los embeddings están en el núcleo de la mayoría de los casos de uso de aprendizaje profundo (DL). Tener un conocimiento sólido de este concepto te permite realizar tareas flexibles con el espacio de características y replantear problemas de ML/DL de manera diferente, especialmente con datos de alta dimensionalidad en Visión por Computadora y Procesamiento del Lenguaje Natural.

Nuestros artículos imprescindibles

Evolución en tu código: entendiendo y codificando algoritmos genéticos desde cero — Parte 1 por Francis Adrian Viernes

Aprendizaje por Reforzamiento: Programación Dinámica y Monte Carlo — Parte 2 por Tan Pengshi Alvin

Aprendizaje Automático a Escala: Paralelismo Modelo vs. Paralelismo de Datos por Shubham Saboo

Descenso más Pronunciado y Método de Newton en Python, desde cero: una comparación por Nicolo Cosimo Albanese

Si estás interesado en publicar con Towards AI, revisa nuestras pautas y regístrate. Publicaremos tu trabajo en nuestra red si cumple con nuestras políticas editoriales y estándares.

Ofertas de trabajo

Líder de Equipo, Ingeniería de Software @Persado (Remoto)

Consultor de Pruebas de Software QA — EE. UU. @ReVisionz (Remoto)

Ingeniero Principal de Software — Vue.JS @Creative Chaos (Remoto)

Ingeniero de Datos @Mercari (Remoto)

Becario de Investigación de Datos @Clarity AI (Madrid, España)

Ingeniero de Datos @Decathlon (Singapur)

Pasantías de Desarrollo de Software — Verano 2023/24 @Phocas Software (Christchurch, Nueva Zelanda)

¿Estás interesado en compartir una oportunidad de trabajo aquí? Contacta a [email protected].

Si te estás preparando para tu próxima entrevista de aprendizaje automático, ¡no dudes en visitar nuestro sitio web líder en preparación de entrevistas, confetti!

https://www.confetti.ai/