Actualité

C'est quoi le Slopsquatting, la nouvelle menace sur Internet à cause des IA ?

L’émergence de l’intelligence artificielle générative s’accompagne d’un nouveau type de risque informatique : le Slopsquatting. Il s’agit d’une manipulation construite grâce aux hallucinations d’une IA, qui permet à une personne malveillante d’injecter du code corrompu dans des logiciels.

Ce n’est un secret pour personne : les intelligences artificielles génératives hallucinent. Un phénomène qui s’explique par leur fonctionnement : les tokens (l’équivalent des mots) sont générés les uns après les autres. Dans certains cas, l’IA peut s’emballer et se mettre à raconter n’importe quoi.

Sur Slashdot, on apprend le 21 avril 2025 l’existence d’une conséquence inattendue de ces hallucinations : il y a de nouvelles attaques informatiques qui reposent sur la précipitation des développeurs. Le Slopsquatting (slop = bavure + squatting) désigne le fait d’enregistrer un package logiciel halluciné par une IA, mais qui n’existe pas vraiment. Il suffit qu’un hacker génère un malware du même nom pour que toute la chaîne logicielle soit empoisonnée.

Attention à ce que vous installez

De plus en plus de développeurs utilisent l’IA pour coder. Les outils spécialisés ne cessent d’émerger en ligne, ce qui pourrait complètement transformer ce métier.

Problème, l’IA hallucine souvent. Il leur arrive de générer du code inutile, pour lancer l’installation d’un logiciel fantôme. On peut, par exemple, imaginer une commande pip install super-logiciel, qui ne sert à rien dans le code, puisque super-logiciel n’existe pas.

La chaîne du Slopsquatting.
La chaîne du Slopsquatting. // Source : arXiv

Le Slopsquatting arrive si un hacker, pour des raisons malveillantes, décide de créer un super-logiciel et d’en faire un malware. L’exécution du code généré par l’IA, au lieu de ne rien faire sur cette commande, ajoutera alors un virus au reste de l’application. Un attaquant peut donc s’introduire facilement dans n’importe quel code, en repérant un code halluciné.

Dans un long rapport publié en mars 2025, plusieurs experts alertent sur ce nouveau risque. Premier constat : l’ampleur du phénomène. Dans une campagne de 576 000 générations de code, 19,7 % des noms de pakacgae sont hallucinés (5,2 % avec les modèles commerciaux, 21,7 % avec les modèles open source). Ça représente 205 000 noms inédits prêts à être détournés.

Autre problème, ces erreurs se répètent. Lorsqu’un LLM invente un package, il le ressort dans 58 % des réponses suivantes ; un attaquant peut donc compter sur cette persistance pour toucher progressivement de nouveaux projets, et donc potentiellement parasiter plusieurs logiciels simultanément. Les hallucinations des IA pourraient être moins inoffensives qu’initialement prévu, sauf si les développeurs apprennent à vérifier manuellement le code exécuté. Le rapport pointe la trop grande confiance accordée aux LLM comme principal problème.

Toute l'actu tech en un clien d'oeil

Toute l’actu tech en un clin d’œil

Ajoutez Numerama à votre écran d’accueil et restez connectés au futur !


Auteur :

Aller à la source

artia13

Depuis 1998, je poursuis une introspection constante qui m’a conduit à analyser les mécanismes de l’information, de la manipulation et du pouvoir symbolique. Mon engagement est clair : défendre la vérité, outiller les citoyens, et sécuriser les espaces numériques. Spécialiste en analyse des médias, en enquêtes sensibles et en cybersécurité, je mets mes compétences au service de projets éducatifs et sociaux, via l’association Artia13. On me décrit comme quelqu’un de méthodique, engagé, intuitif et lucide. Je crois profondément qu’une société informée est une société plus libre.

artia13 has 4874 posts and counting. See all posts by artia13