Hackers ya tienen una marca para sus IAs, se llama WormGPT y se venden en foros especializados
En el vertiginoso mundo de la inteligencia artificial, ha surgido un término que enciende las alarmas: WormGPT. Lo que alguna vez fue el nombre de un “gemelo malvado” del popular modelo de IA de OpenAI, diseñado específicamente para actividades delictivas, hoy se ha transformado.
Ahora, “WormGPT” es la etiqueta genérica que el cibercrimen utiliza para referirse a cualquier modelo de lenguaje grande (LLM) que ha sido “liberado” de sus restricciones éticas para fines maliciosos.
El origen, un gemelo malvado
Inicialmente, WormGPT era una sola herramienta, un software concreto cuyo código, tras filtrarse, ganó una enorme popularidad en los foros de ciberdelincuentes.
Esta notoriedad fue el caldo de cultivo para su evolución, pasando de ser un producto único a convertirse en una identidad de marca reconocida en el bajo mundo digital.
Investigadores de la firma de ciberseguridad Cato Networks advierten que los actores maliciosos no están perdiendo el tiempo.
Han aprendido a adaptar modelos de IA convencionales y muy populares, como Grok de xAI y Mixtral de Mistral AI, para crear sus propias variantes de “WormGPT”. El objetivo es claro: generar respuestas sin censura, incluso a peticiones con intenciones ilegales o poco éticas.
No son modelos nuevos, sino adaptaciones astutas
“WormGPT ahora funciona como una marca reconocible para una nueva clase de LLMs sin censura“, señala Vitaly Simonovich, investigador de Cato.
Es crucial entender que los ciberdelincuentes no están creando estas complejas inteligencias artificiales desde cero.
Más bien, como explica Simonovich, son el resultado de “actores maliciosos que adaptan hábilmente los LLMs existentes” mediante la manipulación de las instrucciones (prompts) y, en algunos casos, afinando los modelos con bases de datos de contenido ilícito.
El “efecto Kleenex” en el mundo del cibercrimen
La popularidad del nombre es tal que se ha convertido en un término genérico. Dave Tyson, directivo en Apollo Information Systems, lo compara con marcas que se vuelven sustantivos comunes.
“Muchos de estos modelos son etiquetados como WormGPT por pura conveniencia, así como en muchos lugares decimos ‘Kleenex’ para referirnos a un pañuelo desechable”, explicó Tyson. Aunque existen otras variantes con nombres propios como EvilGPT, la mayoría de las IAs criminales se agrupan bajo el paraguas de “WormGPT”.
La oferta de estas herramientas crece en los rincones más oscuros de la web. Nuevas versiones, como xzin0vich-WormGPT y keanu-WormGPT, ya han aparecido en foros como BreachForums. Su principal gancho publicitario es la promesa de libertad total, sin las barreras éticas que limitan a los modelos comerciales.
Las limitaciones de la seguridad actual
La persistencia de las variantes de WormGPT demuestra una realidad incómoda: las barreras de seguridad de los modelos de IA no son perfectas.
Margaret Cunningham, estratega de seguridad e IA en Darktrace, las describe de forma contundente como simples “topes” que pueden retrasar a los hackers, pero no detenerlos por completo.
Cunningham subraya una tendencia aún más preocupante: el auge de un mercado de “jailbreak como servicio”.
Esto abarata y facilita el acceso a estas herramientas para actores no técnicos, “reduciendo significativamente la barrera de entrada para los ciberdelincuentes”. La amenaza, por tanto, no solo es más sofisticada, sino también más accesible que nunca.
Fuente: BankinfoSecurity y Catonetworks