Réseaux de désinformation : OpenAI bloque des comptes ChatGPT pilotés par des puissances étrangères
OpenAI annonce avoir identifié et fermé les comptes ChatGPT de plusieurs groupes liés à des puissances étrangères. L’outil d’IA générative servait à orchestrer des opérations d’influence et de désinformation sur les réseaux sociaux.
Leur objectif est clair : polariser les débats publics, diffuser des contenus politiques biaisés et collecter des informations sensibles. Dans un rapport publié début juin, OpenAI détaille dix campagnes de désinformation, toutes dopées à ChatGPT, menées au cours des trois derniers mois.
Les acteurs étatiques à l’origine de ces campagnes sont directement pointés du doigt. On retrouve en tête d’affiche la Chine, mais également la Russie, l’Iran ou la Corée du Nord. Tous ont exploité ChatGPT pour générer automatiquement des publications, commentaires et faux profils sur TikTok, X (ex-Twitter), Reddit, Facebook et d’autres plateformes.
« Uncle Spam » , « Speer Review », les campagnes de la discorde
Reprendre l’actualité politique et réagir sans nuances, voilà dans les grandes lignes le mode opératoire.

Vos données méritent d’être mieux protégées.
Les escroqueries, les virus et les ransomwares ne sont plus une fatalité. Protégez votre vie privée et vos données personnelles avec Bitdefender et profitez de votre vie numérique en toute sérénité.
Côté chinois, le rapport identifie quatre campagnes distinctes particulièrement structurées. L’opération la plus aboutie, surnommée « Sneer Review », consistait à publier des messages contradictoires en anglais, chinois et ourdou sur des sujets sensibles comme la fermeture de l’USAID, la politique taïwanaise ou les tarifs douaniers américains. Tantôt critiques à l’égard d’une décision politique, les opérateurs en louaient les bénéfices quelques publications plus tard, générant eux-mêmes des réponses à leurs messages pour donner l’illusion d’un débat authentique. Une méthode simple mais efficace qui a permis, selon OpenAI, de générer des interactions organiques sur plusieurs plateformes.
Autre exemple, jouant cette fois sur la fibre patriotique américaine : l’opération « Uncle Spam ». Ici, les groupes chinois ont utilisé ChatGPT pour créer de faux comptes de vétérans, avec logos et avatars générés par IA. Les anciens combattants fictifs donnaient leurs avis (encore une fois contradictoires), sur des sujets politiques sensibles dans le pays.

Preuve d’une organisation professionnelle et planifiée, le rapport indique par ailleurs que ChatGPT a été utilisé par ces groupes pour rédiger des rapports internes, détailler les méthodes et automatiser les campagnes au quotidien.
De faux sites d’actualités venus de Téhéran et Moscou
Dans les tentatives de déstabilisation par IA générative, la Russie et l’Iran ne sont pas en reste. Moscou aurait notamment mené l’opération « Helgoland Bite », une campagne d’influence centrée sur les élections fédérales allemandes de 2025. Les acteurs derrière ce réseau utilisaient ChatGPT pour générer des contenus en allemand à charge contre l’OTAN, et promouvant le parti d’extrême droite Alternative für Deutschland (AfD). En usurpant l’identité de médias et d’agences gouvernementales, la campagne relayait de fausses alertes sur des menaces terroristes ou des scandales visant des candidats allemands. L’opération s’appuyait sur un vaste réseau de bots pour amplifier la portée des contenus.
Aussi, OpenAI annonce avoir démantelé une opération baptisée « Storm-2035 », menée par des groupes affiliés à Téhéran. Ils utilisaient ChatGPT pour générer des contenus de propagande sur une variété de sujets sensibles : élections présidentielles américaines, guerre à Gaza, présence d’Israël aux Jeux olympiques.
Une menace détectée mais encore limitée
Malgré la sophistication de ces campagnes, OpenAI souligne que leur portée est restée relativement faible. « Nous n’avons pas observé que ces opérations obtenaient plus d’engagement grâce à l’IA. La plupart du temps, les seuls à interagir avec le contenu sont les opérateurs eux-mêmes. », résume Ben Nimmo, responsable des enquêtes chez OpenAI.
Le rapport met cependant en garde contre la rapidité avec laquelle ces tactiques évoluent et la facilité croissante d’accès à des modèles d’IA, qui pourraient rendre la détection et la modération plus complexes à l’avenir.
Au-delà des campagnes de désinformation, le rapport alerte aussi sur des usages connexes de ChatGPT, comme la génération automatisée de faux CV par des groupes nord-coréens pour infiltrer des entreprises occidentales.

Toute l’actu tech en un clin d’œil
Ajoutez Numerama à votre écran d’accueil et restez connectés au futur !

Auteur :
Aller à la source