
Ataques de "slopsquatting" utilizan nombres generados por IA similares a bibliotecas populares para difundir malware.
La inteligencia artificial no siempre genera errores al confundir paquetes de código abierto, y estos fallos pueden ser analizados y comprendidos.
Expertos han alertado sobre un nuevo método que podría ser utilizado para cometer cibercrímenes a través de la inteligencia artificial generativa (GenAI), conocido como 'slopsquatting'. Este fenómeno ocurre cuando herramientas de GenAI, como Chat-GPT o Copilot, generan información errónea, que en el mundo de la programación puede traducirse en nombres de paquetes de software de código abierto que nunca existieron.
Sarah Gooding, especialista de Socket, señala que muchos desarrolladores dependen de GenAI para escribir código. Esta tecnología puede crear líneas de código por sí sola o sugerir diferentes paquetes a los desarrolladores que deseen integrar en sus proyectos. Sin embargo, la IA no siempre genera nombres o paquetes originales. Un estudio reveló que, al repetir un mismo aviso que desencadena la "alucinación" diez veces, el 43% de los paquetes ficticios aparecieron de nuevo en cada ocasión, mientras que el 39% nunca volvió a aparecer. En general, el 58% de los paquetes alucinados se repitieron al menos una vez en diez intentos, lo que sugiere que estas alucinaciones no son simplemente ruido aleatorio, sino respuestas predecibles a ciertos estímulos.
A pesar de que esta posibilidad es teórica por ahora, se plantea que los cibercriminales podrían identificar los distintos paquetes que la IA genera y registrarlos en plataformas de código abierto. Así, cuando un desarrollador busca un paquete en plataformas como GitHub o PyPI, podría encontrar y descargar uno malicioso, sin darse cuenta de su peligrosidad.
Afortunadamente, no se han documentado casos confirmados de slopsquatting hasta el momento; sin embargo, los expertos sugieren que es solo cuestión de tiempo antes de que ocurran. Dado que los nombres alucinados son susceptibles de ser identificados, es probable que los investigadores de seguridad los descubran en un futuro cercano. La mejor forma de protegerse contra estos potenciales ataques es ser cauteloso al aceptar sugerencias, ya sean de humanos o de inteligencia artificial.