Une menace venue du web
OpenAI, dirigée par Sam Altman, a récemment dévoilé avoir mis en échec cinq opérations d’influence clandestines utilisant ses modèles d’intelligence artificielle à des fins “déceptives”. Ces tentatives visaient à manipuler l’opinion publique et à influencer les résultats politiques sur internet.
Des commentaires et articles trompeurs
Les acteurs derrière les tentatives
Les cybercriminels impliqués provenaient de divers pays, notamment la Russie, la Chine, l’Iran et Israël. Ils ont utilisé les modèles d’OpenAI pour générer des commentaires courts, des articles plus longs dans plusieurs langues, ainsi que des faux noms et biographies pour des comptes sur les réseaux sociaux.
Des sujets sensibles
Les campagnes se sont concentrées sur des sujets brûlants comme l’invasion de l’Ukraine par la Russie, le conflit à Gaza, les élections en Inde, et la politique en Europe et aux États-Unis. Le but ? Manipuler l’opinion publique et influencer les décisions politiques.
Une réponse implacable d’OpenAI
Le nouveau comité de sécurité
Face à ces menaces, OpenAI a formé un Comité de Sécurité et de Protection dirigé par des membres du conseil d’administration, incluant le PDG Sam Altman. Ce comité supervisera l’entraînement du prochain modèle d’IA d’OpenAI pour garantir une utilisation éthique et sécurisée.
Pas de gain pour les escrocs
Malgré les efforts des cybercriminels, OpenAI a affirmé que ces campagnes déceptives n’ont pas bénéficié d’un engagement ou d’une portée accrus grâce à leurs services. Les opérations comprenaient non seulement du contenu généré par l’IA, mais aussi des textes écrits manuellement et des mèmes copiés sur internet.
Facebook et Instagram aussi touchés
Le rapport de sécurité de Meta
Meta Platforms, dans son rapport de sécurité trimestriel, a également signalé la présence de contenus “probablement générés par l’IA” utilisés de manière trompeuse sur Facebook et Instagram. Parmi ces contenus, des commentaires louant la gestion de la guerre à Gaza par Israël publiés sous des posts de grands médias et de législateurs américains.
Tableau comparatif des acteurs impliqués
Pays | Sujet traité | Méthode utilisée |
---|---|---|
Russie | Invasion de l’Ukraine | Articles et commentaires générés par l’IA |
Chine | Politique en Europe et aux États-Unis | Faux comptes et biographies |
Iran | Conflit à Gaza | Mèmes et textes copiés |
Israël | Élections en Inde | Contenus trompeurs sur les réseaux sociaux |
Conclusion : la vigilance s’impose
Les récentes tentatives de manipulation par l’IA mettent en lumière la nécessité d’une vigilance accrue et de mesures de sécurité renforcées pour prévenir l’utilisation déceptive de ces technologies. OpenAI et Meta sont en première ligne de cette bataille pour protéger l’intégrité de l’information sur internet.