Ce bug de Meta AI fait apparaître vos discussions ailleurs
Un bogue de Meta AI expose des conversations privées
Une nouvelle faille de sécurité a mis en lumière les problèmes actuels de confidentialité au sein des chatbots d’IA. Un expert en cybersécurité a découvert qu’un bogue permettait d’accéder à des discussions privées, qui auraient dû rester confidentielles.
Un accès non autorisé aux conversations
Ce problème a été révélé par Sandeep Hodkasia, un spécialiste en cybersécurité. Le bogue, signalé en décembre 2024, a permis à des utilisateurs d’accéder à des discussions privées tenues avec le chatbot Meta AI. Même pour les utilisateurs connectés, ces échanges n’étaient pas supposés être visibles.
La faille exploitait un identifiant unique généré pour chaque question. En surveillant le trafic réseau, Sandeep a découvert qu’il suffisait de modifier ce numéro pour accéder aux réponses d’autres utilisateurs. L’accès s’effectuait sans mot de passe ni restrictions, révélant une faille dans la gestion des autorisations serveur.
Réaction de l’entreprise et correction tardive
Meta a été informée du bogue le 26 décembre et a publié un correctif le 24 janvier. Cependant, aucune alerte n’a été émise pour prévenir les utilisateurs. Bien que l’entreprise ait déclaré ne pas avoir détecté d’abus, ce manque de communication soulève des questions.
Hodkasia a reçu une prime de 10 000 dollars pour sa découverte. Ce cas souligne une tendance inquiétante : les systèmes d’IA intégrés aux réseaux sociaux sont encore vulnérables à des erreurs de conception fondamentales.
Conseils pour protéger ses informations personnelles
Cette affaire met en lumière la nécessité de revoir l’utilisation des assistants IA sur des plateformes comme Meta, Google ou xAI. Il est conseillé de ne pas lier son compte personnel aux services d’IA. De plus, il est recommandé de :
- Utiliser des modes privés si disponibles, bien que leur efficacité dépend des contextes techniques.
- Ne jamais divulguer d’informations identifiables.
- Être prudent avec les questions posées, car même des informations partagées sans mauvaise intention peuvent devenir publiques.
La sécurité des IA face aux enjeux contemporains
Le bogue de Meta AI n’est pas un cas isolé. D’autres modèles d’IA, tels que Bard, Grok ou Gemini, ont également été confrontés à des problèmes similaires. Les politiques de confidentialité, souvent opaques, doivent être simplifiées pour l’utilisateur moyen. Elles contiennent parfois des informations cruciales sur l’utilisation des données.
Il est judicieux de résumer ces documents en interrogeant une autre IA, afin de mieux comprendre le sort des messages échangés. La vigilance demeure la meilleure défense contre les technologies en constante évolution.
L’article mentionné est apparu en premier sur CYBER-SECURITE.FR.
Date de publication : 2025-07-18 17:30:00
Auteur : Cédric Balcon-Hermand – Consulter sa biographie, ses projets et son travail. Cet article a été vérifié, recoupé, reformulé et enrichi selon la ligne éditoriale Artia13, sans reprise d’éléments protégés.
Application officielle :
Téléchargez Artia13 Actualité sur Google Play
Retrouvez également tous nos contenus sur artia13.city
Notre IA contre la désinformation :
Analyzer Fake News – GPT spécialisé conçu par Artia13
Article rédigé, reformulé et vérifié par Cédric Balcon-Hermand selon la ligne éditoriale de l’Association Artia13 : lutte contre la désinformation, respect du droit d’auteur, éthique de l’information et autonomie intellectuelle.