RSF - Reporters sans frontières

10/08/2025 | Press release | Distributed by Public on 10/08/2025 10:00

David Colon : 'L'IA générative a permis aux propagandistes russes de changer l'échelle d'un certain nombre de leurs campagnes'

L'intelligence artificielle (IA) générative, comme les réseaux sociaux à leur époque, a rapidement trouvé sa place dans l'arsenal des propagandistes russes. David Colon, chercheur au Centre national de la recherche scientifique (CNRS) et membre du Propaganda Monitor, revient pour Reporters sans frontières (RSF) sur l'évolution des techniques de désinformation mobilisées par la Russie pour imposer ses narratifs, ainsi que les enjeux associés à ces innovations.

RSF : Depuis le lancement du Propaganda Monitor, il y a un an, constatez-vous une intensification de la propagande russe ?

Depuis février 2022, le Kremlin double sa guerre d'invasion contre l'Ukraine d'une guerre d'information contre les États qui la soutiennent. C'est dans ce contexte que les efforts de propagande se sont intensifiés en direction des États et des sociétés civiles où le soutien à l'Ukraine est le plus fort. C'est particulièrement le cas en France et en Allemagne. Dans l'année écoulée, il y a eu des élections en Allemagne [marquées par des tentatives d'ingérences et de campagnes de désinformation russe] et la France est devenue une cible prioritaire du Kremlin depuis que le président de la République Emmanuel Macron, au début de l'année 2024, n'a pas exclu la présence française sur le terrain en Ukraine. La propagande russe mobilise largement les nouvelles technologies.

Comment se sert-elle des outils comme l'IA générative ou les chatbots par exemple ?

La propagande russe a pour particularité de reposer sur une démarche globale qui ne distingue pas les outils numériques des outils traditionnels. Elle cherche au contraire à accumuler ces différents outils. L'IA générative a permis aux propagandistes russes de changer l'échelle d'un certain nombre de leurs campagnes en automatisant certaines tâches, en particulier la traduction et la génération de contenus de fausses pages et de faux comptes. Depuis un an, on a identifié une tendance au recours à l'IA dans le but de fausser le résultat des chatbots et des moteurs de recherches, en inondant le web de faux sites et de faux contenus. Les modèles d'IA générative sont entraînés sur des données qui sont parfois polluées par la propagande et leur post-entraînement les conduit à exploiter des données sur Internet, qui sont elles aussi souvent polluées par la propagande. Cela conduit mécaniquement les chatbots à restituer cette propagande à grande échelle. Or, on a vu très récemment que Grok [le chatbot intégré à la plateforme X appartenant à Elon Musk], devient en soi un acteur de la menace informationnelle : beaucoup d'utilisateurs se tournent vers lui pour fact-checker des informations. C'est une tendance dangereuse qui peut renforcer les croyances dans des fausses informations. Il est dangereux d'utiliser des chatbots pour établir des faits. C'est un travail qui est par essence un travail humain, un travail de journaliste.

Les entreprises qui les développent sont-elles au courant de la situation ?

Une étude publiée le 5 septembre 2025 par des chercheurs d'OpenAI, l'entreprise qui développe et commercialise ChatGPT, montre bien que les concepteurs d'IA ont parfaitement conscience de cet état des limites de leurs modèles. En l'absence de données fiables, les modèles vont inventer des faits et, confrontés à des masses de données non fiables, vont restituer des informations non fiables. Les concepteurs d'IA savent également qu'il leur est impossible de faire autrement. En conséquence, ils manifestent la même forme d'indifférence à l'égard du vrai et du faux qui caractérise les plateformes des médias sociaux depuis une décennie.

Publié le08.10.2025
  • Europe - Asie centrale
  • Russie
  • Désinformation et propagande
  • Actualité
  • Espace numérique
  • Technologies
RSF - Reporters sans frontières published this content on October 08, 2025, and is solely responsible for the information contained herein. Distributed via Public Technologies (PUBT), unedited and unaltered, on October 08, 2025 at 16:00 UTC. If you believe the information included in the content is inaccurate or outdated and requires editing or removal, please contact us at [email protected]