Ser audaces en la IA significa ser responsables desde el principio.

Being bold in AI means being responsible from the start.

Creemos que nuestro enfoque en IA debe ser audaz y responsable. Para nosotros, eso significa desarrollar la IA de manera que maximice los beneficios positivos para la sociedad al tiempo que aborda los desafíos, guiados por nuestros Principios de IA. Si bien hay una tensión natural entre ambas cosas, creemos que es posible, e incluso crítico, abrazar esa tensión de manera productiva. La única forma de ser verdaderamente audaces a largo plazo es ser responsables desde el principio.

Estamos aplicando audazmente la IA en nuestros innovadores productos utilizados por personas en todo el mundo, en nuestras contribuciones a los avances científicos que benefician a las personas y en la ayuda para abordar los desafíos sociales.

En nuestros productos

La IA ya está presente en muchos productos que utilizan millones (y en algunos casos miles de millones) de personas, como Google Maps, Google Translate, Google Lens y más. Y ahora estamos llevando la IA para ayudar a las personas a encender y asistir en su creatividad con Bard, aumentar su productividad con las herramientas de Workspace y revolucionar la forma en que acceden al conocimiento con Search Generative Experience. Varios otros ejemplos y experimentos tempranos de aplicaciones útiles se pueden encontrar en Google Labs.

En la ayuda para abordar desafíos sociales

Estamos aplicando la IA para mitigar y adaptarnos al cambio climático: al proporcionar pronósticos críticos de inundaciones, ahora a más de 20 países, rastreando los límites de los incendios forestales en tiempo real y ayudando a reducir las emisiones de carbono mediante la reducción del tráfico parada y arranque. La estamos aplicando para mejorar la atención médica, incluida la atención materna, los tratamientos contra el cáncer y la detección de la tuberculosis. Y recientemente anunciamos un nuevo modelo de lenguaje grande que podría ser una herramienta útil para los clínicos: Med-PaLM. A finales de este año, Data Commons, un sistema que organiza datos de cientos de fuentes para informar enfoques a los principales desafíos sociales que van desde la sostenibilidad hasta la atención médica y la economía en muchos países, será accesible a través de Bard, lo que lo hará aún más útil.

En nuestra investigación para definir el campo

La IA está ayudando a los científicos a hacer avances audaces en muchos campos, desde la física, la ciencia de materiales y la atención médica que beneficiarán a la sociedad: tome, por ejemplo, el programa AlphaFold de Google DeepMind. AlphaFold puede predecir con precisión la forma 3D de 200 millones de proteínas, casi todas las proteínas catalogadas conocidas por la ciencia, un logro que nos dio el equivalente a casi 400 millones de años de progreso en investigación en solo semanas. La IA también está impulsando el progreso en la accesibilidad de la información del mundo a personas de todo el mundo. Por ejemplo, está permitiendo iniciativas ambiciosas como nuestra iniciativa de 1,000 idiomas: hemos logrado avances emocionantes hacia nuestro objetivo de respaldar los 1,000 idiomas más hablados con un modelo de habla universal entrenado en más de 400 idiomas.

Desafíos

Si bien es emocionante ver estos avances audaces, sabemos que la IA es una tecnología aún emergente y aún queda mucho por hacer. También es importante reconocer que la IA tiene el potencial de empeorar los desafíos sociales existentes, como el sesgo injusto, y plantear nuevos desafíos a medida que se vuelve más avanzada y surgen nuevos usos, como lo ha destacado nuestra propia investigación y la de otros. Por eso creemos que es imperativo adoptar un enfoque responsable para la IA, guiado por los Principios de IA que establecimos por primera vez en 2018. Cada año emitimos informes de progreso sobre cómo estamos poniendo en práctica nuestros Principios de IA que profundizan en ejemplos. Este trabajo continúa, a medida que la IA se vuelve más capaz y aprendemos de los usuarios y los nuevos usos de las tecnologías, y compartimos lo que aprendemos.

Evaluación de la información

Una área que está en la mente de muchos, incluyéndonos a nosotros, es la desinformación. La IA generativa hace que sea más fácil que nunca crear nuevo contenido, pero también plantea preguntas adicionales sobre la confiabilidad de la información en línea. Es por eso que seguimos desarrollando y brindando herramientas a las personas para evaluar la información en línea. En los próximos meses, agregaremos una nueva herramienta Acerca de esta imagen en Google Search. Acerca de esta imagen proporcionará un contexto útil, como cuándo y dónde podrían haber aparecido por primera vez imágenes similares y dónde más se han visto en línea, incluidos sitios de noticias, verificación de hechos y redes sociales. A finales de este año, Acerca de esta imagen estará disponible en Chrome y Google Lens.

Principios de IA en acción

A medida que aplicamos nuestros Principios de IA a nuestros productos, también comenzamos a ver tensiones potenciales cuando se trata de ser audaces y responsables. Por ejemplo, Universal Translator es un servicio experimental de doblaje de video con IA que ayuda a los expertos a traducir la voz de un orador y hacer coincidir sus movimientos de labios. Esto tiene un enorme potencial para aumentar la comprensión del aprendizaje; sin embargo, sabiendo los riesgos que podría plantear en manos de actores malintencionados, hemos construido el servicio con barreras de protección para limitar el mal uso y lo hemos puesto a disposición solo de socios autorizados.

Otra forma en que cumplimos con nuestros Principios de IA es con innovaciones para abordar los desafíos a medida que surgen. Por ejemplo, somos uno de los primeros en la industria en automatizar pruebas adversarias utilizando LLM, lo que ha mejorado significativamente la velocidad, calidad y cobertura de las pruebas, permitiendo que los expertos en seguridad se centren en casos más difíciles. Para ayudar a abordar la desinformación, pronto integraremos nuevas innovaciones en marcas de agua, metadatos y otras técnicas en nuestros últimos modelos generativos. También estamos avanzando en herramientas para detectar audio sintético; en nuestro trabajo AudioLM, entrenamos un clasificador que puede detectar audio sintético en nuestro propio modelo AudioLM con una precisión de casi el 99%.

Un esfuerzo colectivo

Sabemos que construir IA de manera responsable debe ser un esfuerzo colectivo que involucre a investigadores, científicos sociales, expertos de la industria, gobiernos, creadores, editores y personas que usen IA en su vida diaria.

Compartimos nuestras innovaciones con otros para aumentar el impacto, como en el caso de Perspective API, que fue desarrollado originalmente por nuestros investigadores en Jigsaw para mitigar la toxicidad que se encuentra en los comentarios en línea. Ahora lo aplicamos a nuestros grandes modelos de lenguaje (LLM), incluidos todos los modelos mencionados en I/O, y los investigadores académicos lo usaron para crear una evaluación estándar de la industria utilizada por todos los LLM significativos, incluidos los modelos de OpenAI y Anthropic.

Creemos que todos se benefician de un ecosistema web vibrante, hoy y en el futuro. Para apoyar eso, trabajaremos con la comunidad web en formas de brindar a los editores web la opción y el control sobre su contenido web.

Parte de lo que hace que la IA sea un área de enfoque tan emocionante es que el potencial para beneficiar a las personas y la sociedad en todas partes es inmenso y palpable, al igual que la necesidad de desarrollar y usarla de manera responsable. Mucho está cambiando y evolucionando a medida que avanza la IA, y más personas la experimentan, comparten, desarrollan y usan. Constantemente aprendemos de nuestra investigación, experiencias, usuarios y la comunidad en general, e incorporamos lo que aprendemos en nuestro enfoque. Mirando hacia el futuro, hay mucho que podemos lograr y mucho que debemos hacer bien, juntos.

Me gustaría agradecer y reconocer el inspirador y complejo trabajo de mis colegas en los equipos de IA Responsable, Innovación Responsable, Google.org, Labs, Jigsaw, Google Research y Google DeepMind.