Investigadores encuentran fallos en los controles de seguridad de ChatGPT y otros chatbots
Fallas de seguridad en ChatGPT y otros chatbots

Cuando las empresas de inteligencia artificial construyen chatbots en línea, como ChatGPT, Claude y Google Bard, pasan meses añadiendo salvaguardas que se supone que evitan que sus sistemas generen discursos de odio, desinformación y otro material tóxico.
Ahora hay una forma de fácilmente encontrar vulnerabilidades en esos sistemas de seguridad.
En un informe publicado el jueves, investigadores de la Universidad Carnegie Mellon en Pittsburgh y el Centro para la Seguridad de la Inteligencia Artificial en San Francisco mostraron cómo cualquiera podría eludir las medidas de seguridad de la IA y usar cualquiera de los chatbots líderes para generar cantidades casi ilimitadas de información perjudicial.
Su investigación resaltó la creciente preocupación de que los nuevos chatbots podrían inundar Internet con información falsa y peligrosa a pesar de los intentos de sus creadores de evitar que eso suceda. También mostró cómo las discrepancias entre las principales empresas de IA estaban creando un entorno cada vez más impredecible para la tecnología.
Del artículo completo de The New York Times
- Un nuevo amanecer en la robótica rotación de objetos mediante el tacto
- Avanzando en el reconocimiento de acciones humanas en realidad virt...
- Guía completa de funciones financieras en Excel