Cada día, millones de líneas de código se escriben, analizan y despliegan con la ayuda de inteligencia artificial. Lo que antes tomaba semanas, hoy se automatiza en minutos. Pero en medio de tanta eficiencia, también se están abriendo puertas inesperadas. Una de ellas tiene un nombre tan curioso como peligroso: Slopsquatting.
Esta amenaza emergente está acechando silenciosamente a desarrolladores y empresas por igual, y lo inquietante es que no se basa en errores humanos como el clásico typosquatting, sino en las “alucinaciones” de los propios modelos de IA como GPT-4, CodeLlama o DeepSeek. Estos sistemas, al generar recomendaciones de paquetes de software, a veces sugieren nombres que suenan perfectamente plausibles… pero que no existen.
Los ciberatacantes se adelantan y registran esos nombres inexistentes pero creíbles, transformándolos en canales para distribuir malware. De hecho, se estima que casi el 20% de los paquetes sugeridos por estas IA no son reales. Así, el simple acto de confiar en una sugerencia automatizada puede derivar en la incorporación de código malicioso en proyectos empresariales o de código abierto.
El término Slopsquatting fue acuñado por Seth Larson, experto en seguridad de la Python Software Foundation, y describe con precisión este nuevo vector de ataque: aprovechar los errores generados por la IA para infiltrar bibliotecas maliciosas directamente en la cadena de suministro del software. Es un recordatorio claro de que, en ciberseguridad, incluso la tecnología más avanzada puede convertirse en una vía de riesgo si no se usa con criterio.
La IA como cómplice (sin querer)
Aunque suene raro, la inteligencia artificial se está convirtiendo en una especie de cómplice involuntario de los ciberataques. Algunos de los modelos más populares, como WizardCoder o DeepSeek, tienen la costumbre de “alucinar” nombres de paquetes que no existen. Y no es un error menor: más del 21% de las veces, según un estudio publicado en arXiv.org, estos modelos sugieren cosas que simplemente no son reales.
En comparación, los modelos más pulidos y comerciales (como GPT-4 Turbo) fallan mucho menos, pero tampoco son perfectos. En las pruebas, cerca del 3,6% de las recomendaciones seguían siendo inventadas. Y si te preguntas quién es el peor en todo esto… el premio se lo lleva CodeLlama, con más de un tercio de sus respuestas proponiendo paquetes totalmente falsos.
Pero lo más preocupante no es solo cuántas veces se equivocan, sino que se equivocan en los mismos puntos una y otra vez. En un experimento con 500 solicitudes repetidas (que ya antes habían generado nombres falsos), casi la mitad volvieron a caer en el mismo error. Esto sugiere que no son fallos puntuales, sino patrones que los modelos están aprendiendo mal y repitiendo.
Y claro, esto abre una puerta enorme para el Slopsquatting. Porque el verdadero problema es que esos nombres inventados no suenan inventados. El estudio encontró que un 38% de los paquetes falsos eran tan convincentes como los reales, con nombres que podrían engañar incluso a desarrolladores con experiencia. Solo un pequeño porcentaje (13%) eran errores obvios o simples faltas de ortografía.
¿La táctica de los atacantes? Simple: registran uno de esos paquetes que la IA se inventa pero que suena real, lo llenan de malware, y esperan. En algún momento, un desarrollador confiado lo agregará a su proyecto sin saber que acaba de abrirle la puerta al enemigo. Desde ahí, el atacante puede hacer de todo: espiar, robar datos o incluso tomar control del sistema.
Asi opera Slopsquatting (Fuente: arXiv.org)
Podría interesarte leer: Cómo la IA Está Transformando el Malware y el Cibercrimen
Una llamada de atención para los desarrolladores
Todo este tema del Slopsquatting nos deja una advertencia bastante clara: no podemos confiar ciegamente en lo que nos dice la IA. Sí, estas herramientas son increíbles para acelerar el desarrollo, escribir código más rápido o incluso encontrar errores. Pero si no se revisa lo que hacen, también pueden convertirse en una puerta abierta a problemas de seguridad.
En un entorno donde lo que manda es la rapidez (lanzar productos, iterar, entregar a tiempo), es fácil dejar pasar esos pequeños detalles. El problema es que esas “pequeñas” omisiones pueden terminar siendo brechas enormes si alguien malintencionado las detecta antes que tú.
Lo que dicen los investigadores es contundente: estos paquetes inventados por la IA no son simples errores tontos. Son una oportunidad real para que los atacantes se infiltren, y lo preocupante es lo fácil que resulta hacerlo. Si vamos a seguir usando inteligencia artificial en el desarrollo (y todo apunta a que sí), entonces necesitamos acompañarla con filtros, validaciones humanas y buenas prácticas de seguridad. Porque al final del día, por más lista que sea la máquina, la responsabilidad sigue siendo nuestra.