Este boletín de inteligencia artificial es todo lo que necesitas #55

Boletín IA #55, todo lo que necesitas

Lo que sucedió esta semana en IA por Louie

Esta semana nos emocionó finalmente poder probar el Intérprete de Código de Open AI, una nueva capacidad de GPT-4 dentro de ChatGPT. OpenAI también estuvo activo con otros anuncios, incluyendo revelar sus planes de establecer un equipo dedicado a lograr la superalineación en los próximos cuatro años.

Después de un lanzamiento alfa inicial, la función del Intérprete de Código, que incluye capacidades de codificación y visualización de datos, ahora está disponible en modo beta para todos los usuarios de ChatGPT Plus. El Intérprete de Código potencia a ChatGPT con una serie de funciones, incluyendo análisis de datos, creación de gráficos, carga y edición de archivos, operaciones matemáticas y ejecución de código.

Usar el Intérprete de Código es relativamente sencillo para la mayoría de los casos de uso, especialmente cuando se aborda como analista. Los datos, incluidos archivos comprimidos como archivos ZIP, se pueden cargar fácilmente haciendo clic en el botón de más. El comienzo inicial puede ser mínimo, ya que la IA sobresale en comprender el significado y la estructura de los datos solo a partir del contexto. Una vez cargados, la IA maneja automáticamente tareas como la fusión de datos y la limpieza sofisticada de datos. Ethan Mollick ha documentado muchos casos de uso interesantes del Intérprete de Código en su cuenta de Twitter y en este blog. Es especialmente poderosa la capacidad de reconocer errores (debido a la ejecución fallida del código) y de que el modelo itere para corregirlos.

La función se puede utilizar para muchas aplicaciones únicas y las personas han documentado usos que incluyen análisis y visualización de datos, identificación de tendencias, análisis de temas, examen de patrones de compromiso, optimización de SEO, análisis de KPI, creación de videos e incluso construcción de conjuntos de datos y modelos de aprendizaje automático. Las posibilidades son extensas y se expanden a medida que aumenta el acceso al Intérprete de Código. Ha habido algunos signos recientes de disminución del interés en ChatGPT (informes de disminución de visitantes al sitio web, aunque GPT-Turbo y GPT-4 se implementan más ampliamente en otros lugares a través de la API), por lo que esta nueva función llega en buen momento para OpenAI.

Pensamos que el Intérprete de Código desbloquea muchas más capacidades de LLM y puede ser increíblemente útil, reduciendo enormemente los costos y las barreras de entrada para el análisis básico de datos. Sin embargo, todavía se necesita supervisión humana e imaginación humana para hacer las preguntas correctas y obtener las ideas más relevantes. Esperamos muchos más avances en esta dirección en los próximos meses y años, a medida que se les brinden a los LLM herramientas más poderosas para trabajar.

En otras noticias de IA, Kinnu, la startup educativa impulsada por IA generativa que presentamos en octubre, ha recaudado con éxito una ronda de financiación de $6.5 millones. Kinnu está dedicada principalmente a los aprendices entusiastas adultos y utiliza IA para optimizar el contenido para cada aprendiz individual. “Siempre nos pareció curioso que la mayoría de las ofertas de educación en línea simplemente ampliaran los peores aspectos de la educación tradicional”, afirma Christopher Kahler, cofundador y CEO de Kinnu. “Creemos que hay una oportunidad significativa para el aprendizaje impulsado por IA que se centre en acelerar el ritmo del propio aprendizaje humano”. Estamos entusiasmados con el progreso realizado por Kinnu y estamos de acuerdo en el potencial de la IA para contribuir a una educación mejorada.

– Louie Peters – Cofundador y CEO de Towards AI

Noticias más destacadas

  1. Presentación de la Superalineación

OpenAI ha introducido el concepto de Superalineación, enfatizando la necesidad de avances científicos y técnicos para asegurar que los sistemas de IA altamente inteligentes se alineen con las intenciones humanas. La organización destaca la importancia de establecer instituciones de gobernanza innovadoras y explorar enfoques novedosos para lograr esta alineación.

2. Miner redirige 38,000 GPUs de minería de criptomonedas a IA

La empresa minera de criptomonedas Hive Blockchain está cambiando su enfoque de la minería de Ethereum a las cargas de trabajo de IA. Con 38,000 GPUs a su disposición, tienen la intención de generar ingresos mientras siguen utilizando parte de la potencia de GPU para la minería de criptomonedas. Sin embargo, la transición a la informática de IA presenta desafíos, ya que las GPU de minería ETH más antiguas tienen un valor limitado en este mercado.

3. AWS lanza un Centro de Innovación de IA Generativa de $100 millones

AWS ha anunciado una inversión sustancial en el avance de la IA generativa. Con un compromiso de $100 millones, el recién establecido AWS Generative AI Innovation Center tiene como objetivo ayudar a los clientes y socios en todo el mundo a desbloquear el potencial de la IA generativa. El Centro de Innovación ya está colaborando con empresas como Highspot, Lonely Planet, Ryanair y Twilio en soluciones de IA generativa.

4. El chatbot de IA médica de Google ya se está probando en hospitales

La herramienta de IA de Google Med-PaLM 2, desarrollada para proporcionar respuestas sobre información médica, se ha sometido a pruebas en el hospital de investigación Mayo Clinic. Como variante del modelo de lenguaje PaLM 2, Med-PaLM 2 ha mostrado resultados prometedores en cuanto a razonamiento, entrega de respuestas respaldadas por consenso y comprensión, aunque persisten algunos problemas de precisión.

5. Alibaba lanza herramienta de inteligencia artificial para generar imágenes a partir de texto

El gigante tecnológico chino Alibaba ha lanzado Tongyi Wanxiang, una herramienta de inteligencia artificial capaz de generar imágenes a partir de indicaciones. La herramienta permite a los usuarios ingresar indicaciones tanto en mandarín como en inglés, y genera imágenes en varios estilos, incluyendo ilustraciones en 2D, bocetos y dibujos animados en 3D.

Cinco lecturas/videos de 5 minutos para seguir aprendiendo

  1. Propiedades intrigantes de la cuantización a gran escala

Investigaciones recientes revelan que la calidad de la cuantización posterior al entrenamiento (PTQ) de los modelos de lenguaje grandes está fuertemente influenciada por los hiperparámetros de preentrenamiento. El estudio indica que las elecciones de optimización, como la decaída de peso, la limitación de gradiente y la selección del tipo de datos, tienen un impacto significativo en el rendimiento de PTQ, con float16 y bfloat16 mostrando una influencia notable. La investigación enfatiza la importancia de las elecciones de optimización en el desarrollo de modelos de lenguaje robustos.

2. Mejores GPUs para el aprendizaje automático para tu próximo proyecto

Este artículo destaca el uso creciente de GPUs en el aprendizaje automático y proporciona una guía para elegir las mejores GPUs para aplicaciones de IA. Menciona factores clave a considerar, como la compatibilidad y la capacidad de memoria, e identifica las mejores opciones de GPU de NVIDIA, incluyendo la Titan RTX y la Tesla V100. También sugiere alternativas rentables como las GPUs EVGA GeForce GTX 1080 y AMD Radeon.

3. Los pesos de la IA no son “abiertos” en el “código fuente”

El artículo profundiza en el problema de los pesos del modelo de IA y su disponibilidad como código abierto. Argumenta que aunque el código fuente de los modelos de IA puede ser abierto, los pesos, que abarcan el conocimiento real aprendido, generalmente no se comparten abiertamente debido a diversas razones, como preocupaciones sobre propiedad intelectual, privacidad e intereses comerciales.

4. Glosario de inteligencia artificial: más de 60 términos que debes conocer

La inteligencia artificial ha crecido exponencialmente y existen diferentes niveles de conciencia al respecto. Este glosario tiene como objetivo servir como recurso para aquellos que recién se están introduciendo en la inteligencia artificial y para aquellos que buscan una referencia o una actualización de vocabulario.

5. Iniciando con Code Interpreter en ChatGPT

En este artículo, Ethan Mollick ha documentado numerosos casos de uso interesantes de Code Interpreter en su Twitter. También ha resaltado sus características, el proceso de uso y más.

Artículos y repositorios

  1. Una encuesta sobre la evaluación de modelos de lenguaje grandes

Este artículo proporciona una revisión exhaustiva de los métodos de evaluación de Modelos de Lenguaje. Se centra en qué evaluar (incluyendo diversas dimensiones como el razonamiento, la ética y las aplicaciones), dónde evaluar (tanto bancos de pruebas generales como específicos) y cómo evaluar (incluyendo evaluaciones humanas versus evaluaciones automáticas).

2. DreamDiffusion: Generación de imágenes de alta calidad a partir de señales cerebrales EEG

Este artículo presenta DreamDiffusion, un método novedoso para generar imágenes de alta calidad directamente a partir de señales de electroencefalograma (EEG) del cerebro, sin necesidad de traducir los pensamientos a texto. Mediante el uso de modelos pre-entrenados y técnicas avanzadas de modelado de señales, supera desafíos como la información limitada y el ruido.

3. LongNet: Escalando Transformers a 1,000,000,000 de tokens

Este trabajo presenta LongNet, una variante de Transformer que puede ampliar la longitud de la secuencia a más de 1,000,000,000 de tokens, sin sacrificar el rendimiento en secuencias más cortas. Utiliza atención dilatada para procesar eficientemente secuencias más largas manteniendo el rendimiento en secuencias más cortas. Uno de los beneficios clave de emplear esta técnica es su compatibilidad con enfoques de optimización existentes. Se integra perfectamente con cualquier otro método ya en uso, ampliando la gama de opciones disponibles para la optimización.

4. La maldición de la recursividad: entrenar con datos generados hace que los modelos olviden

Los investigadores exploran el “colapso del modelo”, la desaparición de la distribución de contenido original cuando los modelos se entrenan utilizando contenido de otros modelos. Este fenómeno afecta a los Modelos de Lenguaje Grandes, los Autoencoders Variacionales y los Modelos de Mezcla Gaussiana, enfatizando la necesidad de comprender y preservar los datos de interacciones humanas genuinas para mantener los beneficios de los datos recopilados en la web.

5. ChatLaw: Modelo de lenguaje legal de código abierto con bases de conocimiento externas integradas

ChatLaw es un modelo de lenguaje legal de código abierto diseñado específicamente para el ámbito legal chino. Utiliza una combinación de técnicas de recuperación de vectores y palabras clave para abordar las alucinaciones del modelo durante la recuperación de datos, lo que resulta en respuestas más precisas. Se emplea la autoatención para mejorar la precisión y confiabilidad en los datos de referencia.

¿Disfrutas de estos artículos y resúmenes de noticias? ¡Recibe un resumen diario en tu bandeja de entrada!

¡La sección de la Comunidad Aprendiendo IA Juntos!

Podcast Semanal de IA

En el episodio de esta semana del podcast “What’s AI”, Louis Bouchard entrevista a Petar Veličković, científico investigador en DeepMind y profesor afiliado en Cambridge. Petar comparte ideas sobre el valor de un doctorado, enfatizando su papel como puerta de entrada a la investigación y las oportunidades que brinda para establecer conexiones y adaptabilidad. También destaca el panorama en evolución de la investigación en IA, resaltando la importancia de antecedentes diversos y contribuciones. La entrevista ofrece perspectivas valiosas sobre academia versus industria, el papel de un científico investigador, trabajar en DeepMind, enseñar y la importancia de la curiosidad para impulsar la investigación de impacto. ¡Sintoniza en YouTube, Spotify o Apple Podcasts si estás interesado en la investigación en IA!

¡Meme de la semana!

Meme compartido por mrobino

Publicación destacada de la comunidad en Discord

weaver159#1651 ha presentado recientemente un nuevo proyecto llamado MetisFL, que es un marco de aprendizaje federado diseñado para permitir a los desarrolladores federar fácilmente sus flujos de trabajo de aprendizaje automático y entrenar modelos en silos de datos distribuidos, sin necesidad de centralizar los datos. El núcleo del marco está escrito en C++ y prioriza la escalabilidad, velocidad y resiliencia. Actualmente, el proyecto está en transición de una versión privada y experimental a una fase beta pública. Échale un vistazo en GitHub y apoya a un miembro de la comunidad. Comparte tus ideas sobre este proyecto en el hilo aquí.

¡Encuesta de IA de la semana!

Únete a la discusión en Discord.

Sección seleccionada por TAI

Artículo de la semana

Mejor que GPT-4 para consultas de SQL: NSQL (Totalmente de código abierto) por el Dr. Mandar Karhade, MD. PhD.

SQL sigue siendo el lenguaje más utilizado. ¿No sería genial si pudiéramos escribir consultas de SQL haciendo preguntas a un gran modelo de lenguaje? Ahorraría mucho trabajo y probablemente democratizaría el acceso a información para casi todos en la empresa que lo necesitan. En este artículo, el autor habla sobre NSQL, que es una nueva familia de modelos grandes de código abierto (FMs) diseñados específicamente para tareas de generación de SQL.

Nuestros artículos imprescindibles

Métricas de clasificación explicadas claramente por Jose D. Hernandez-Betancur

Desata la inteligencia de datos: Dominando la IA para un análisis poderoso por Amit Kumar

Conoce el modelo de código abierto completo Foundation Model de Salesforce XGen-7B por el Dr. Mandar Karhade, MD. PhD.

Si quieres publicar con Towards AI, consulta nuestras pautas y regístrate. Publicaremos tu trabajo en nuestra red si cumple con nuestras políticas editoriales y estándares.

Ofertas de trabajo

Arquitecto de datos @ShyftLabs (Toronto, Canadá)

Especialista en Aprendizaje Automático – Sistemas Legales @Uni Systems (Bruselas, Bélgica)

Desarrollador de Investigación en IA de Gráficos @Plain Concepts (Remoto)

Ingeniero de Datos @Tomorrow (Freelance/Rumania)

Gerente de Crecimiento, Datos y Análisis @WillowTree (Remoto)

Ingeniero de Plataforma de Cliente @Chainalysis (Remoto)

Prácticas – Prácticas de Ingeniería de Software – ACST @Activate Interactive Pte Ltd (Singapur)

¿Estás interesado en compartir una oportunidad de trabajo aquí? Contacta a [email protected].

Si te estás preparando para tu próxima entrevista de aprendizaje automático, no dudes en visitar nuestro sitio web líder en preparación de entrevistas, confetti!

https://www.confetti.ai/