La batalla por la IA de código abierto a raíz de la IA generativa

La lucha por la IA de código abierto debido a la IA generativa

La IA de código abierto está remodelando rápidamente el ecosistema del software al hacer que los modelos y herramientas de IA sean accesibles para las organizaciones. Esto está llevando a una serie de beneficios, incluyendo una innovación acelerada, una mayor calidad y costos más bajos.

Según el informe OpenLogic 2023, el 80% de las organizaciones están utilizando más software de código abierto en comparación con el 77% del año pasado, para acceder a las últimas innovaciones, mejorar la velocidad de desarrollo, reducir el bloqueo de proveedores y minimizar los costos de licencia.

El panorama actual de la IA de código abierto aún está evolucionando. Gigantes tecnológicos como Google (Meena, Bard y PaLM), Microsoft (Turing NLG) y Amazon Web Services (Amazon Lex) han sido más cautelosos al lanzar sus innovaciones en IA. Sin embargo, algunas organizaciones, como Meta y otras compañías de investigación basadas en IA, están abriendo sus modelos de IA de código fuente.

Además, existe un intenso debate sobre la IA de código abierto que gira en torno a su potencial para desafiar a las grandes empresas tecnológicas. Este artículo tiene como objetivo proporcionar un análisis detallado de los posibles beneficios de la IA de código abierto y resaltar los desafíos que se avecinan.

Avances Pioneros: El Potencial de la IA de Código Abierto

Muchos expertos consideran que el aumento de la IA de código abierto es un desarrollo positivo porque hace que la IA sea más transparente, flexible, responsable, asequible y accesible. Sin embargo, gigantes tecnológicos como OpenAI y Google son muy cautelosos al abrir sus modelos debido a preocupaciones comerciales, de privacidad y seguridad. Al hacerlo, pueden perder su ventaja competitiva o tendrían que revelar información sensible sobre sus datos y arquitectura de modelos, y actores malintencionados podrían utilizar los modelos para fines dañinos.

Sin embargo, la joya de la corona de la apertura de los modelos de IA es la aceleración de la innovación. Varios avances destacados en IA se han vuelto accesibles al público gracias a la colaboración de código abierto. Por ejemplo, Meta dio un paso innovador al abrir su modelo LLM llamado LLaMA.

A medida que la comunidad de investigación tuvo acceso a LLaMA, se aceleraron aún más los avances en IA, lo que llevó al desarrollo de modelos derivados como Alpaca y Vicuña. En julio, Stability AI construyó dos LLM llamados Beluga 1 y Beluga 2 aprovechando LLaMA y LLaMA 2, respectivamente. Mostraron mejores resultados en muchas tareas de lenguaje, como el razonamiento, la respuesta a preguntas específicas de dominio y la comprensión de sutilezas del lenguaje, en comparación con los modelos de vanguardia en ese momento. Recientemente, Meta ha presentado Code LLaMA, una herramienta de IA de código abierto para programación que ha superado a los modelos de última generación en tareas de programación, también basada en LLaMA 2.

Comparación de rendimiento de Code LLaMA

Investigadores y expertos también están mejorando las capacidades de LLaMA para competir con modelos propietarios. Por ejemplo, modelos de código abierto como Giraffe de Abacus AI y Llama-2-7B-32K-Instruct de Together AI ahora son capaces de manejar longitudes de contexto de entrada de 32K, una característica que solo estaba disponible en LLM propietarios como GPT-4. Además, iniciativas de la industria, como los modelos MPT 7B y 30B de MosaicML de código abierto, están capacitando a los investigadores para entrenar sus propios modelos de IA generativa desde cero.

En general, este esfuerzo colectivo ha transformado el panorama de la IA, fomentando la colaboración y el intercambio de conocimientos que continúan impulsando descubrimientos innovadores.

Beneficios de la IA de Código Abierto para las Empresas

La IA de código abierto ofrece numerosos beneficios, lo que la convierte en un enfoque convincente en inteligencia artificial. Al abrazar la transparencia y la colaboración impulsada por la comunidad, la IA de código abierto tiene el potencial de revolucionar la forma en que desarrollamos e implementamos soluciones de IA.

Aquí hay algunos beneficios de la IA de código abierto:

  • Desarrollo Rápido: Los modelos de IA de código abierto permiten a los desarrolladores construir sobre marcos y arquitecturas existentes, lo que permite un desarrollo rápido y una iteración de nuevos modelos. Con una base sólida, los desarrolladores pueden crear aplicaciones novedosas sin tener que reinventar la rueda.
  • Aumento de la Transparencia: La transparencia es una característica clave del código abierto, que proporciona una vista clara de los algoritmos y los datos subyacentes. Esta visibilidad reduce el sesgo y promueve la equidad, lo que lleva a un entorno de IA más justo.
  • Aumento de la Colaboración: La IA de código abierto democratizó el desarrollo de IA, lo que promueve la colaboración y fomenta una comunidad diversa de colaboradores con diferentes conocimientos.

Mientras que el código abierto ofrece numerosas ventajas, es importante ser consciente de los posibles riesgos que puede conllevar. Aquí están algunas de las principales preocupaciones asociadas con la inteligencia artificial de código abierto:

  • Desafíos regulatorios: El surgimiento de modelos de inteligencia artificial de código abierto ha llevado a un desarrollo desenfrenado con riesgos inherentes que requieren una regulación cuidadosa. La accesibilidad y democratización de la IA plantean preocupaciones sobre su posible uso malintencionado. Según un informe reciente de SiliconAngle, algunos proyectos de IA de código abierto utilizan IA generativa y LLMs con poca seguridad, poniendo en riesgo a organizaciones y consumidores.
  • Degradación de la calidad: Mientras que los modelos de IA de código abierto aportan transparencia y colaboración comunitaria, pueden sufrir una degradación de calidad con el tiempo. A diferencia de los modelos de código cerrado mantenidos por equipos dedicados, la carga de mantenimiento a menudo recae en la comunidad. Esto a menudo lleva a posibles negligencias y versiones de modelos obsoletas. Esta degradación podría obstaculizar aplicaciones críticas, poniendo en peligro la confianza del usuario y el progreso general de la IA.
  • Complejidad de la regulación de la IA: La liberación de modelos de IA de código abierto introduce un nuevo nivel de complejidad para los reguladores de IA. Hay varios factores a tener en cuenta, como cómo proteger datos sensibles, cómo evitar que los modelos se utilicen con fines maliciosos y cómo asegurarse de que los modelos estén bien mantenidos. Por lo tanto, es bastante desafiante para los reguladores de IA garantizar que los modelos de código abierto se utilicen para el bien y no para el daño.

La naturaleza en evolución del debate sobre la inteligencia artificial de código abierto

“El código abierto impulsa la innovación porque permite a muchos más desarrolladores construir con nuevas tecnologías. También mejora la seguridad porque cuando el software es abierto, más personas pueden examinarlo para identificar y solucionar posibles problemas”, dijo Mark Zuckerberg cuando anunció el modelo de lenguaje LLaMA 2 en julio de este año.

Por otro lado, actores importantes como OpenAI respaldada por Microsoft y Google mantienen sus sistemas de IA cerrados. Están buscando obtener una ventaja competitiva y minimizar el riesgo de uso indebido de la IA.

Ilya Sutskever, cofundador y científico jefe de OpenAI, dijo a The Verge, “Estos modelos son muy potentes y se están volviendo cada vez más potentes. En algún momento, será bastante fácil, si se desea, causar mucho daño con esos modelos. Y a medida que las capacidades aumentan, tiene sentido que no quieras divulgarlos.” Por lo tanto, existen riesgos potenciales relacionados con los modelos de IA de código abierto que los seres humanos no pueden ignorar.

Aunque las IA capaces de causar destrucción humana pueden estar décadas lejos, las herramientas de IA de código abierto ya han sido utilizadas de manera incorrecta. Por ejemplo, el primer modelo LLaMA se lanzó solo para avanzar en la investigación de IA. Pero agentes maliciosos lo utilizaron para crear chatbots que difunden contenido odioso como insultos raciales y estereotipos.

Mantener un equilibrio entre la colaboración abierta en IA y una gobernanza responsable es crucial. Esto garantiza que los avances en IA sigan siendo beneficiosos para la sociedad al tiempo que se protegen contra posibles daños. La comunidad tecnológica debe colaborar para establecer pautas y mecanismos que promuevan el desarrollo ético de IA. Más importante aún, deben tomar medidas para prevenir el uso indebido, permitiendo que las tecnologías de IA sean una fuerza para el cambio positivo.

¿Quieres aumentar tu inteligencia en IA? Navega por el extenso catálogo de recursos informativos sobre IA de Unite.ai para ampliar tus conocimientos.