Los ciberdelincuentes utilizan WormGPT para violar la seguridad de correo electrónico
Ciberdelincuentes usan WormGPT para violar seguridad de correo electrónico.
El paisaje en constante evolución del cibercrimen ha dado lugar a herramientas nuevas y peligrosas. La inteligencia artificial generativa, incluyendo ChatGPT de OpenAI y la infame herramienta de cibercrimen WormGPT, están emergiendo como armas potentes en los ataques de compromiso de correo electrónico empresarial (BEC, por sus siglas en inglés). Estos modelos de inteligencia artificial sofisticados permiten a los cibercriminales crear correos electrónicos de phishing altamente convincentes y personalizados, aumentando la tasa de éxito de sus actividades maliciosas. Este artículo profundiza en los mecanismos de estos ataques, explora los riesgos inherentes del phishing impulsado por IA y examina las ventajas únicas de la inteligencia artificial generativa en la facilitación del cibercrimen.
También lee: Hackeo chino a Microsoft Cloud pasa desapercibido durante más de un mes
Ataques BEC impulsados por IA: La nueva amenaza en el horizonte
La proliferación de tecnologías de inteligencia artificial (IA), en particular ChatGPT de OpenAI, ha abierto nuevas oportunidades para que los cibercriminales aprovechen. ChatGPT, un potente modelo de IA, puede generar texto similar al de un ser humano en base a entradas dadas. Esta capacidad permite a los actores maliciosos automatizar la creación de correos electrónicos engañosos personalizados para el destinatario, aumentando así la probabilidad de un ataque exitoso.
También lee: Las 10 mejores herramientas de automatización de correo electrónico con IA para usar en 2023
Desvelando casos reales: El poder de la IA generativa en los foros de cibercrimen
En discusiones recientes en foros de cibercrimen, los cibercriminales han mostrado el potencial de aprovechar la IA generativa para perfeccionar los correos electrónicos de phishing. Un método consiste en componer el correo electrónico en el idioma nativo del atacante, traducirlo y alimentarlo en ChatGPT para mejorar su sofisticación y formalidad. Esta táctica permite a los atacantes fabricar correos electrónicos persuasivos, incluso si carecen de fluidez en un idioma en particular.
- Crea un lema memorable utilizando ChatGPT
- Conoce a FreedomGPT una tecnología de IA de código abierto construi...
- Algoritmos y Bibliotecas de Detección de Objetos Principales en Int...
También lee: La IA discrimina a los hablantes no nativos de inglés
“Jailbreaking” la IA: Manipulando interfaces con intenciones maliciosas
Una tendencia inquietante en los foros de cibercrimen implica la distribución de “jailbreaks” para interfaces de IA como ChatGPT. Estas promociones especializadas manipulan la IA para generar resultados que pueden revelar información sensible, producir contenido inapropiado o ejecutar código dañino. La creciente popularidad de tales prácticas resalta los desafíos en mantener la seguridad de la IA contra cibercriminales decididos.
También lee: PoisonGPT: Hugging Face LLM difunde noticias falsas
Ingresa WormGPT: La alternativa Blackhat a los modelos GPT
WormGPT, un módulo de IA descubierto recientemente, surge como una alternativa maliciosa a los modelos GPT diseñados específicamente para actividades nefastas. Construido sobre el modelo de lenguaje GPTJ, desarrollado en 2021, WormGPT cuenta con características como soporte ilimitado de caracteres, retención de memoria de chat y capacidades de formato de código.
También lee: ChatGPT investigado por la Comisión Federal de Comercio por posibles daños
Descubriendo el potencial oscuro de WormGPT: El experimento
Las pruebas de las capacidades de WormGPT en ataques BEC revelaron resultados alarmantes. El modelo de IA generó un correo electrónico altamente persuasivo y estratégicamente astuto, mostrando su potencial para sofisticados ataques de phishing y BEC. A diferencia de ChatGPT, WormGPT opera sin límites éticos o restricciones, representando una amenaza significativa en manos incluso de cibercriminales novatos.
También lee: Los criminales utilizan IA para hacerse pasar por seres queridos
Ventajas de la IA generativa en los ataques BEC
La IA generativa confiere varias ventajas a los cibercriminales al ejecutar ataques BEC:
- Gramática excepcional: Los correos electrónicos generados por IA poseen una gramática impecable, reduciendo la probabilidad de ser marcados como sospechosos.
- Umbral de entrada reducido: La accesibilidad de la IA generativa democratiza los sofisticados ataques BEC, permitiendo incluso a atacantes menos habilidosos emplear estas poderosas herramientas.
Estrategias preventivas: Protegiéndose contra los ataques BEC impulsados por IA
Para combatir la creciente amenaza de los ataques BEC impulsados por IA, las organizaciones pueden implementar las siguientes estrategias:
- Entrenamiento específico para BEC: Las empresas deben desarrollar programas de entrenamiento integrales y regularmente actualizados para contrarrestar los ataques BEC, enfatizando la incorporación de IA y las tácticas de los atacantes. Este entrenamiento debe ser una parte integral del desarrollo profesional de los empleados.
- Medidas mejoradas de verificación de correo electrónico: Se deben implementar estrictos procesos de verificación de correo electrónico, que automaticamente marquen los correos electrónicos que se hacen pasar por ejecutivos internos o proveedores y que identifiquen palabras clave asociadas con ataques BEC.
También lee: 6 pasos para proteger tu privacidad mientras usas herramientas de IA generativa
Nuestra opinión
La IA generativa, aunque revolucionaria, también ha abierto nuevas puertas para que los ciberdelincuentes aprovechen. La aparición de WormGPT como una herramienta de IA maliciosa ejemplifica la creciente necesidad de medidas de seguridad sólidas contra el cibercrimen impulsado por la IA. Las organizaciones deben mantenerse vigilantes y adaptarse continuamente a las amenazas en evolución para protegerse a sí mismas y a sus empleados de los peligros de los ataques BEC impulsados por la IA.