En publicaciones anteriores exploramos el auge de las amenazas potenciadas por inteligencia artificial en ámbitos como ransomware, phishing y operaciones de ciberespionaje. Hoy nos enfocamos en un aspecto más específico: cómo los ciberdelincuentes utilizan modelos de lenguaje a gran escala (LLMs) para escalar y automatizar sus ataques.
La IA en ciberseguridad ya no es un experimento. Está integrada en la gestión de alertas, el análisis de vulnerabilidades y la automatización de defensas. Pero al mismo tiempo, los atacantes han encontrado formas de aprovecharla y, en muchos casos, están avanzando a un ritmo más acelerado que los equipos defensivos.
La aparición de modelos creados o modificados con fines criminales —como WormGPT, FraudGPT o DarkBERT— demuestra hasta qué punto los actores de amenazas están dispuestos a profesionalizar sus operaciones. Estas herramientas se comercializan en foros de la dark web y permiten:
En esencia, eliminan la necesidad de infraestructura compleja o conocimientos avanzados, democratizando el acceso al cibercrimen como servicio.
Un reporte reciente de Cato Networks reveló que variantes modernas de WormGPT están siendo construidas sobre modelos comerciales como Grok (xAI) y Mixtral (Mistral). Los ciberdelincuentes simplemente aplican wrappers y técnicas de jailbreak para sortear los filtros de seguridad, ofreciendo suscripciones desde apenas 60 euros al mes.
En el Rapid7 Take Command Virtual Summit 2025, Shawnee Delaney (exoficial de contrainteligencia y CEO de Vaillance Group) lo expresó claramente:
“La IA ha transformado el cibercrimen de un juego de habilidad a un juego de escala. Automatiza la recolección de datos, genera perfiles de víctimas y lanza ataques más rápido de lo que cualquier humano podría”.
Casos reales lo demuestran. Un ejecutivo de Ferrari estuvo a punto de ser estafado por un deepfake de voz que imitaba al CEO de la compañía. Solo se descubrió el engaño porque el impostor no supo responder a una pregunta fuera de guion.
A esto se suma que, según Harvard Business Review, la IA ha reducido hasta en 95% el costo de las campañas de phishing y de ingeniería social, eliminando barreras de entrada y aumentando la precisión de los ataques.
Los LLM también se están utilizando para operaciones de influencia. Recientemente, autoridades israelíes reportaron el envío de mensajes SMS generados por IA y alertas de voz clonadas durante ataques con misiles, en lo que se sospecha fue una campaña de actores alineados con Irán.
Estos casos marcan un giro preocupante: el uso de la IA no solo para robar credenciales o infectar sistemas, sino para manipular percepciones y generar caos social.
El peligro no solo viene de fuera. Muchas empresas enfrentan riesgos internos derivados del uso no autorizado de IA generativa —lo que se conoce como Shadow AI—.
Ejemplos comunes incluyen empleados que comparten datos sensibles en chatbots públicos o que confían en resultados erróneos (“alucinaciones”). Estas prácticas, aunque bienintencionadas, pueden provocar incidentes de seguridad a gran escala.
Gartner advierte que:
“Para 2026, las empresas que combinen GenAI con plataformas integradas de seguridad reducirán en un 40% los incidentes de ciberseguridad provocados por empleados”.
Los líderes de ciberseguridad no necesitan abarcar todo de inmediato, pero sí deben entender cómo los LLM transforman el riesgo. Algunas acciones inmediatas incluyen:
En Rapid7, estas prácticas se han integrado a través de AI Attack Coverage, una funcionalidad añadida en junio de 2025 a Exposure Command que permite detectar rutas de ataque potenciadas por LLM y vulnerabilidades emergentes que suelen escapar a las herramientas tradicionales.
Los modelos de lenguaje no son buenos ni malos en sí mismos. Son poderosos, y su impacto depende del uso que se les dé.
Los atacantes ya los utilizan para automatizar, escalar y reducir la curva de aprendizaje del delito. Los defensores deben responder con gobernanza, visibilidad y colaboración, usando la IA para reforzar sus estrategias en lugar de quedar rezagados.
El futuro de la ciberseguridad no será una competencia de quién tiene mejor tecnología, sino de quién la aplica de manera más responsable y eficaz.