Presentando el Marco de IA Seguro de Google

Introducing Google's Secure AI Framework

El potencial de la IA, especialmente la IA generativa, es inmenso. Sin embargo, en la búsqueda del progreso dentro de estas nuevas fronteras de innovación, es necesario establecer estándares claros de seguridad en la industria para construir y desplegar esta tecnología de manera responsable. Es por eso que hoy estamos emocionados de presentar el Marco de Seguridad de la IA (SAIF), un marco conceptual para sistemas de IA seguros.

  • Para un resumen de SAIF, haga clic en este PDF.
  • Para ejemplos de cómo los profesionales pueden implementar SAIF, haga clic en este PDF.

Por qué estamos introduciendo SAIF ahora

SAIF está inspirado en las mejores prácticas de seguridad, como la revisión, prueba y control de la cadena de suministro, que hemos aplicado al desarrollo de software, al tiempo que incorporamos nuestra comprensión de las megatendencias de seguridad y los riesgos específicos de los sistemas de IA.

Un marco en los sectores público y privado es esencial para garantizar que los actores responsables protejan la tecnología que respalda los avances en IA, para que cuando se implementen modelos de IA, sean seguros por defecto. Hoy marca un importante primer paso.

A lo largo de los años en Google, hemos adoptado un enfoque abierto y colaborativo para la ciberseguridad. Esto incluye combinar la inteligencia, experiencia e innovación de primera línea con un compromiso de compartir información sobre amenazas con otros para ayudar a responder y prevenir ataques cibernéticos. Basándose en ese enfoque, SAIF está diseñado para ayudar a mitigar los riesgos específicos de los sistemas de IA, como el robo del modelo, la contaminación de los datos de entrenamiento, la inyección de entradas maliciosas a través de la inyección de comandos y la extracción de información confidencial en los datos de entrenamiento. A medida que las capacidades de IA se integran cada vez más en productos en todo el mundo, adherirse a un marco audaz y responsable será aún más crítico.

Y con eso, echemos un vistazo a SAIF y sus seis elementos principales:

1. Ampliar las bases sólidas de seguridad al ecosistema de la IA

Esto incluye aprovechar las protecciones de infraestructura seguras por defecto y la experiencia construida en las últimas dos décadas para proteger sistemas, aplicaciones y usuarios de IA. Al mismo tiempo, desarrollar la experiencia organizacional para mantener el ritmo de los avances en IA y comenzar a escalar y adaptar las protecciones de infraestructura en el contexto de la IA y los modelos de amenazas en evolución. Por ejemplo, técnicas de inyección como la inyección SQL han existido durante algún tiempo, y las organizaciones pueden adaptar las mitigaciones, como la sanitización y limitación de entrada, para ayudar a defenderse mejor contra ataques de inyección de comandos.

2. Extender la detección y respuesta para incluir la IA en el universo de amenazas de una organización

La oportunidad es crítica para detectar y responder a incidentes cibernéticos relacionados con la IA, y extender la inteligencia de amenazas y otras capacidades a una organización mejora ambas. Para las organizaciones, esto incluye monitorear las entradas y salidas de los sistemas de IA generativos para detectar anomalías y utilizar la inteligencia de amenazas para anticipar los ataques. Este esfuerzo generalmente requiere la colaboración con equipos de confianza y seguridad, inteligencia de amenazas y contra abuso.

3. Automatizar las defensas para mantener el ritmo de las amenazas existentes y nuevas

Las últimas innovaciones en IA pueden mejorar la escala y velocidad de los esfuerzos de respuesta a incidentes de seguridad. Los adversarios probablemente utilizarán la IA para aumentar su impacto, por lo que es importante usar la IA y sus capacidades actuales y emergentes para mantenerse ágil y rentable en la protección contra ellos.

4. Armonizar los controles a nivel de plataforma para garantizar una seguridad consistente en toda la organización

La consistencia en los marcos de control puede respaldar la mitigación de riesgos de IA y escalar las protecciones en diferentes plataformas y herramientas para garantizar que las mejores protecciones estén disponibles para todas las aplicaciones de IA de manera escalable y rentable. En Google, esto incluye extender las protecciones seguras por defecto a plataformas de IA como Vertex AI y Security AI Workbench, y construir controles y protecciones en el ciclo de desarrollo de software. Las capacidades que abordan casos de uso generales, como Perspective API, pueden ayudar a toda la organización a beneficiarse de protecciones de vanguardia.

5. Adaptar los controles para ajustar las mitigaciones y crear ciclos de retroalimentación más rápidos para la implementación de IA

La prueba constante de implementaciones a través del aprendizaje continuo puede garantizar que las capacidades de detección y protección aborden el entorno de amenazas en constante cambio. Esto incluye técnicas como el aprendizaje por refuerzo basado en incidentes y comentarios de usuarios y conlleva pasos como la actualización de conjuntos de datos de entrenamiento, la afinación de modelos para responder estratégicamente a los ataques y permitir que el software utilizado para construir modelos incorpore más seguridad en contexto (por ejemplo, detectar comportamiento anómalo). Las organizaciones también pueden realizar ejercicios regulares de equipo rojo para mejorar la seguridad de los productos y capacidades alimentados por IA.

6. Contextualizar los riesgos del sistema de IA en los procesos de negocio circundantes

Por último, la realización de evaluaciones de riesgos de extremo a extremo relacionadas con cómo las organizaciones implementarán la IA puede ayudar a tomar decisiones. Esto incluye una evaluación del riesgo empresarial de extremo a extremo, como la línea de datos, validación y monitoreo del comportamiento operativo para ciertos tipos de aplicaciones. Además, las organizaciones deben construir comprobaciones automatizadas para validar el rendimiento de la IA.

Por qué apoyamos una comunidad de IA segura para todos

Durante mucho tiempo hemos abogado por, y a menudo desarrollado, marcos de la industria para elevar el nivel de seguridad y reducir el riesgo general. Hemos colaborado con otros para lanzar el marco SLSA (Niveles de Cadena de Suministro para Artefactos de Software) para mejorar la integridad de la cadena de suministro de software, y nuestro trabajo pionero en nuestro modelo de acceso BeyondCorp condujo a los principios de confianza cero que son estándar en la industria hoy en día. Lo que aprendimos de estos y otros esfuerzos es que para tener éxito a largo plazo, debes construir una comunidad para apoyar y avanzar el trabajo. Es por eso que nos complace anunciar los primeros pasos en nuestro viaje para construir una comunidad SAIF para todos.

Cómo está implementando Google SAIF

Ya estamos dando cinco pasos para apoyar y avanzar un marco que funcione para todos.

  1. Fomentando el apoyo de la industria para SAIF con el anuncio de socios y contribuyentes clave en los próximos meses y un compromiso continuo con la industria para ayudar a desarrollar el Marco de Gestión de Riesgos de IA del NIST y la Norma del Sistema de Gestión de IA ISO/IEC 42001 (la primera norma de certificación de IA de la industria). Estos estándares se basan en gran medida en los principios de seguridad del Marco de Ciberseguridad del NIST y el Sistema de Gestión de Seguridad ISO/IEC 27001, en los que Google participará para garantizar que las actualizaciones planificadas sean aplicables a la tecnología emergente como la IA, y son consistentes con los elementos de SAIF.
  2. Trabajando directamente con organizaciones, incluidos clientes y gobiernos para ayudarles a comprender cómo evaluar los riesgos de seguridad de la IA y mitigarlos. Esto incluye la realización de talleres con profesionales y la publicación continua de las mejores prácticas para implementar sistemas de IA de manera segura.
  3. Compartiendo información de los principales equipos de inteligencia de amenazas de Google como Mandiant y TAG sobre la actividad cibernética que involucra sistemas de IA. Para obtener más información sobre algunas de las formas en que los profesionales de Google están utilizando la IA generativa para identificar amenazas más rápido, eliminar el trabajo y solucionar mejor las brechas de talento en seguridad, consulte aquí.
  4. Expandiendo nuestros programas de cazadores de errores (incluido nuestro Programa de Recompensas por Vulnerabilidades) para recompensar e incentivar la investigación en torno a la seguridad y la seguridad de la IA.
  5. Continuando entregando ofertas de IA seguras con socios como GitLab y Cohesity, y desarrollando aún más nuevas capacidades para ayudar a los clientes a construir sistemas seguros. Eso incluye nuestro compromiso con la comunidad de código abierto y pronto publicaremos varias herramientas de código abierto para ayudar a poner en práctica los elementos SAIF para la seguridad de la IA.

A medida que avanzamos en SAIF, seguiremos compartiendo investigaciones y explorando métodos que ayuden a utilizar la IA de manera segura. Estamos comprometidos a trabajar con gobiernos, la industria y la academia para compartir información y lograr objetivos comunes para garantizar que esta tecnología profundamente útil funcione para todos y que nosotros, como sociedad, lo hagamos bien.