Cómo los desarrolladores pueden trabajar de forma segura con la IA generativa

Cómo trabajar de forma segura con la IA generativa

Si trabajas en el desarrollo de software, o en cualquier sector de la industria tecnológica, sin duda has sido parte de discusiones sobre, leído titulares o incluso probado una plataforma de inteligencia artificial generativa (IA). En pocas palabras, esta tecnología nueva y de rápida evolución está en todas partes.

Sin embargo, junto con la emocionante promesa de una mayor productividad con herramientas de generación de código de IA, GitHub argumenta que el aumento en la productividad de los desarrolladores debido a la IA podría impulsar el PIB global en más de $1.5 billones, también existe un mayor riesgo. Estos riesgos incluyen preocupaciones sobre la calidad del código, ya que los modelos de IA pueden producir un código complejo que es difícil de entender y explicar.

También existe el riesgo de la complejidad en torno a la propiedad intelectual, ya que las conversaciones sobre los derechos de propiedad intelectual, la propiedad y los derechos de autor del código generado por IA aún están en curso. A medida que esta tecnología evolucione, la orientación será más clara, pero esto llevará tiempo. Actualmente, si se trabaja con código generado por IA que se entrena en software de código abierto, no cumplir con los requisitos de licencia de este software podría constituir una violación de los derechos de autor.

Finalmente, el código generado por IA puede contener una serie de vulnerabilidades, aunque de manera inadvertida. Si la IA ha sido entrenada con código inseguro, por ejemplo, creará código inseguro. En resumen: basura entra, basura sale.

Priorizando la Seguridad

Entonces, ¿qué pueden hacer los desarrolladores para asegurarse de aprovechar al máximo la IA generativa sin arriesgar la seguridad?

  1. Ver la IA generativa como un compañero de codificación junior: Los desarrolladores deben abordar el trabajo con herramientas de codificación de IA generativa con la expectativa de un código de menor calidad que contiene vulnerabilidades.
  2. Mantenerse alerta con las indicaciones de IA: Revelar información confidencial a través de una indicación de IA es un gran riesgo para la privacidad, y actualmente hay un entendimiento limitado sobre cómo los servicios realmente manejan los datos de sus clientes.
  3. Integrar más revisiones de código: Al igual que en la codificación tradicional, las revisiones de código son un proceso importante dentro del ciclo de vida del desarrollo de software (SDLC). Revisar la seguridad y calidad del código generado por IA es crucial, ya que puede parecer coherente en la superficie, pero no necesariamente correcto y seguro después de las pruebas.
  4. Aceptar la formación continua: Dado que es tan crucial revisar y probar el código generado por IA, es muy importante que los desarrolladores de software detrás de las indicaciones y la entrega del producto final, aplicación o servicio, tengan un buen conocimiento de la codificación segura. Estos profesionales necesitan formación sobre cómo reconocer y abordar vulnerabilidades, y dado que el panorama de amenazas evoluciona tan rápidamente, esta formación también debe impartirse de manera continua para capacitar mejor a todos en el SDLC.

Es ciertamente posible encontrar un equilibrio entre la mayor productividad que la IA generativa puede permitir y los riesgos que puede plantear para la seguridad y calidad del código con estas pautas. Sin embargo, en la base de este equilibrio tiene que haber una formación continua y programática en codificación segura para el desarrollador humano, de modo que la IA generativa se convierta en una herramienta útil en lugar de una fuente de código inseguro.