¡Hasta 17% de descuento por CYBER SAN JUAN WEEK!⏰ Solo hasta el 02/07/2025 ⏰
00 días
00 horas
00 minutos
00 segundos
Obtener Promo

Hackers usan IA sin ética para ciberataques

Ciberdelincuentes al ataque con IA sin ética

En el creciente y complejo panorama de la ciberseguridad, las herramientas de inteligencia artificial están comenzando a ser utilizadas con fines peligrosos. Uno de los casos más preocupantes es el de WormGPT, un chatbot basado en modelos de lenguaje avanzados, que fue creado para facilitar actividades delictivas como la creación de malware y páginas de phishing. Aunque inicialmente fue desactivado tras la identificación de su creador, nuevas variantes están emergiendo, ahora impulsadas por modelos legítimos como Grok (de xAI) y Mixtral (de Mistral AI), lo que plantea serias preocupaciones sobre el uso indebido de tecnologías potentes por parte de ciberdelincuentes.

Modelos legítimos replicados para ataques

IA modificadas para ciberataquesInvestigadores de Cato Networks y Europa Press descubrieron versiones maliciosas de WormGPT basadas en Grok (de xAI) y Mixtral (de Mistral AI). Gracias a técnicas de “jailbreak” en su system prompt, estos modelos ahora evitan filtros de seguridad y generan contenido criminal como malware, phishing y scripts de hacking.

Estas variantes se comercializan en foros como BreachForums y Telegram, con planes mensuales o anuales, además opciones privadas por un mayor precio. Los actores maliciosos incluso reclutan expertos en IA para crear estos modelos “uncensored”, facilitando su desarrollo y distribución en la DarkWeb.

WormGPT

WormGPT, el pionero de todoEl chatbot conocido como WormGPT fue creado a partir de GPT-J, un modelo de lenguaje de código abierto desarrollado por EleutherAI, con una estructura de 6 mil millones de parámetros y capacidades comparables a GPT-3 de OpenAI. Esta herramienta fue empleada para generar código malicioso. No obstante, su servicio fue cerrado por uno de sus desarrolladores, quien temía represalias luego de haber sido identificado en un artículo publicado por Krebs on Security.

A raíz de su clausura, comenzaron a emerger otros asistentes de IA con propósitos similares, como FraudGPT, DarkBERT o PoisonGPT. Estas herramientas ofrecían funciones sin restricciones de seguridad, permitiendo a los usuarios crear software malicioso, sitios de phishing e incluso explorar vulnerabilidades informáticas con simples instrucciones escritas.

Recientemente, un informe del laboratorio de ciberseguridad Cato CTRL, reveló la existencia de nuevas versiones de WormGPT. Estas variantes están basadas en modelos legítimos como Grok, desarrollado por xAI, y Mixtral, de Mistral AI.

IA vs WormGPT

🧠 Característica ✅ Modelos Éticos (Grok, Mixtral) ⚠️ Versiones Maliciosas (WormGPT-mod)
Restricciones Filtros de seguridad y límites integrados Filtros eliminados vía jailbreak + prompts
Función propósito Asistencia, productividad segura Generación de malware, phishing, hacking
Disponibilidad APIs oficiales con control Venta en foros underground y Telegram
Precio Gratuito o suscripción oficial €60–100/mes, €550–€5,000 según plan
Riesgo Bajo — uso profesional y legal Alto — uso criminal y sin trazabilidad

Impacto en ciberseguridad

Estas IA fueron diseñadas para generar ejemplos de malware como phishing, scripts PowerShell para robo de credenciales, páginas falsas, etc. Los actores de amenazas están usando APIs de Grok y Mixtral con caracteres maliciosos definidos en el ‘system prompt’ para habilitar contenido dañino. Esto hace que la ciberdelincuencia ahora sea mucho más ágil y masiva, teniendo así que adaptarnos a entornos más seguros. Este uso ya no es solo una amenaza teórica: estos modelos están operando en entornos reales.

Ciberseguridad URGENTE

Recomendaciones urgentes:

  1. Vigilar entornos de desarrollo en la nube o canales de distribución.

  2. Capacitar sobre detección y triado de prompt-jailkits.

  3. Invertir en soluciones de seguridad que detecten uso malicioso de IA.

  4. Difundir formación responsable sobre uso de IA.

En un mundo donde la línea entre IA y cibercrimen se difumina, la ciberseguridad debe aprender a pensar como código: blindada, escalable y siempre alerta.

Peligro Constante

Peligro inminenteLa evolución de estos modelos sin restricciones éticas pone en evidencia una brecha urgente en los sistemas de control sobre el uso de la inteligencia artificial. A medida que herramientas como WormGPT y sus derivados se vuelven más sofisticadas y accesibles, las organizaciones, gobiernos y desarrolladores deben actuar con rapidez para establecer marcos de regulación, monitoreo y seguridad que eviten que la IA se convierta en el arma perfecta de los cibercriminales. La carrera no es solo tecnológica, sino ética, y se está librando ahora mismo.

Añadir un comentario

Su dirección de correo electrónico no será publicada.