Actualité

Réseaux de désinformation : OpenAI bloque des comptes ChatGPT pilotés par des puissances étrangères

OpenAI annonce avoir identifié et fermé les comptes ChatGPT de plusieurs groupes liés à des puissances étrangères. L’outil d’IA générative servait à orchestrer des opérations d’influence et de désinformation sur les réseaux sociaux.

Leur objectif est clair : polariser les débats publics, diffuser des contenus politiques biaisés et collecter des informations sensibles. Dans un rapport publié début juin, OpenAI détaille dix campagnes de désinformation, toutes dopées à ChatGPT, menées au cours des trois derniers mois.

Les acteurs étatiques à l’origine de ces campagnes sont directement pointés du doigt. On retrouve en tête d’affiche la Chine, mais également la Russie, l’Iran ou la Corée du Nord. Tous ont exploité ChatGPT pour générer automatiquement des publications, commentaires et faux profils sur TikTok, X (ex-Twitter), Reddit, Facebook et d’autres plateformes.

Débat entièrement généré par IA via la campagne de désinformation « Sneer Review » // Source : OpenAi

« Uncle Spam » , « Speer Review », les campagnes de la discorde

Reprendre l’actualité politique et réagir sans nuances, voilà dans les grandes lignes le mode opératoire.

Côté chinois, le rapport identifie quatre campagnes distinctes particulièrement structurées. L’opération la plus aboutie, surnommée « Sneer Review », consistait à publier des messages contradictoires en anglais, chinois et ourdou sur des sujets sensibles comme la fermeture de l’USAID, la politique taïwanaise ou les tarifs douaniers américains. Tantôt critiques à l’égard d’une décision politique, les opérateurs en louaient les bénéfices quelques publications plus tard, générant eux-mêmes des réponses à leurs messages pour donner l’illusion d’un débat authentique. Une méthode simple mais efficace qui a permis, selon OpenAI, de générer des interactions organiques sur plusieurs plateformes.

Autre exemple, jouant cette fois sur la fibre patriotique américaine : l’opération « Uncle Spam ». Ici, les groupes chinois ont utilisé ChatGPT pour créer de faux comptes de vétérans, avec logos et avatars générés par IA. Les anciens combattants fictifs donnaient leurs avis (encore une fois contradictoires), sur des sujets politiques sensibles dans le pays.

Compte BlueSky créé dans le cadre de l'opération de désinformation chinoise "Uncle Spam" // Source : OpenAI
Compte BlueSky créé dans le cadre de l’opération de désinformation chinoise « Uncle Spam »

Preuve d’une organisation professionnelle et planifiée, le rapport indique par ailleurs que ChatGPT a été utilisé par ces groupes pour rédiger des rapports internes, détailler les méthodes et automatiser les campagnes au quotidien.

De faux sites d’actualités venus de Téhéran et Moscou

Dans les tentatives de déstabilisation par IA générative, la Russie et l’Iran ne sont pas en reste. Moscou aurait notamment mené l’opération « Helgoland Bite », une campagne d’influence centrée sur les élections fédérales allemandes de 2025. Les acteurs derrière ce réseau utilisaient ChatGPT pour générer des contenus en allemand à charge contre l’OTAN, et promouvant le parti d’extrême droite Alternative für Deutschland (AfD). En usurpant l’identité de médias et d’agences gouvernementales, la campagne relayait de fausses alertes sur des menaces terroristes ou des scandales visant des candidats allemands. L’opération s’appuyait sur un vaste réseau de bots pour amplifier la portée des contenus.

Aussi, OpenAI annonce avoir démantelé une opération baptisée « Storm-2035 », menée par des groupes affiliés à Téhéran. Ils utilisaient ChatGPT pour générer des contenus de propagande sur une variété de sujets  sensibles : élections présidentielles américaines, guerre à Gaza, présence d’Israël aux Jeux olympiques.

Une menace détectée mais encore limitée

Malgré la sophistication de ces campagnes, OpenAI souligne que leur portée est restée relativement faible. « Nous n’avons pas observé que ces opérations obtenaient plus d’engagement grâce à l’IA. La plupart du temps, les seuls à interagir avec le contenu sont les opérateurs eux-mêmes. », résume Ben Nimmo, responsable des enquêtes chez OpenAI.

Le rapport met cependant en garde contre la rapidité avec laquelle ces tactiques évoluent et la facilité croissante d’accès à des modèles d’IA, qui pourraient rendre la détection et la modération plus complexes à l’avenir.

Au-delà des campagnes de désinformation, le rapport alerte aussi sur des usages connexes de ChatGPT, comme la génération automatisée de faux CV par des groupes nord-coréens pour infiltrer des entreprises occidentales.

Toute l'actu tech en un clien d'oeil

Toute l’actu tech en un clin d’œil

Ajoutez Numerama à votre écran d’accueil et restez connectés au futur !


Auteur :

Aller à la source

artia13

Depuis 1998, je poursuis une introspection constante qui m’a conduit à analyser les mécanismes de l’information, de la manipulation et du pouvoir symbolique. Mon engagement est clair : défendre la vérité, outiller les citoyens, et sécuriser les espaces numériques. Spécialiste en analyse des médias, en enquêtes sensibles et en cybersécurité, je mets mes compétences au service de projets éducatifs et sociaux, via l’association Artia13. On me décrit comme quelqu’un de méthodique, engagé, intuitif et lucide. Je crois profondément qu’une société informée est une société plus libre.

artia13 has 4513 posts and counting. See all posts by artia13