Investigadores encuentran fallos en los controles de seguridad de ChatGPT y otros chatbots

Fallas de seguridad en ChatGPT y otros chatbots

Zico Kolter, de la Universidad Carnegie Mellon, a la derecha, y Andy Zou, fueron parte de los investigadores que encontraron una forma de eludir las medidas de seguridad en todas las plataformas principales de chatbots. ¶ Crédito: Marco Garcia/The New York Times

Cuando las empresas de inteligencia artificial construyen chatbots en línea, como ChatGPT, Claude y Google Bard, pasan meses añadiendo salvaguardas que se supone que evitan que sus sistemas generen discursos de odio, desinformación y otro material tóxico.

Ahora hay una forma de fácilmente encontrar vulnerabilidades en esos sistemas de seguridad.

En un informe publicado el jueves, investigadores de la Universidad Carnegie Mellon en Pittsburgh y el Centro para la Seguridad de la Inteligencia Artificial en San Francisco mostraron cómo cualquiera podría eludir las medidas de seguridad de la IA y usar cualquiera de los chatbots líderes para generar cantidades casi ilimitadas de información perjudicial.

Su investigación resaltó la creciente preocupación de que los nuevos chatbots podrían inundar Internet con información falsa y peligrosa a pesar de los intentos de sus creadores de evitar que eso suceda. También mostró cómo las discrepancias entre las principales empresas de IA estaban creando un entorno cada vez más impredecible para la tecnología.

Del artículo completo de The New York Times