[Janvier – juin 2025] : six mois de désinformation russe à l’encontre de la France
Depuis janvier 2025, la France fait face à une vague de désinformation russe. Les techniques utilisées sont diverses et leur objectif commun est de décrédibiliser le soutien à l'Ukraine et fragiliser la cohésion nationale. Entre ingérences numériques, opérations de désinformation et discours diplomatiques trompeurs, voici un retour sur six mois de désinformation russe en France.
Introduction
Depuis janvier 2025, la France fait face à une campagne de désinformation sans précédent, orchestrée par des sphères pro-russes. Ces opérations couvrent l’ensemble des techniques désormais bien identifiées : vidéos manipulées, faux sites d’actualité, articles sponsorisés à l’étranger, diffusions automatisées sur les réseaux sociaux…
Ces six derniers mois ont été marqués par la mise en lumière du mode opératoire informationnel Storm 15-16, ainsi que par l’activisme d'autres structures comme la Social Design Agency ou le réseau Portal Kombat. Ces entités, interconnectées, agissent de manière coordonnée pour atteindre un triple objectif :
- polariser la société française,
- affaiblir le soutien à l’Ukraine,
- et fracturer la cohésion nationale.
Au croisement des ingérences numériques, des campagnes de désinformation, du gavage d’IA avec de faux contenus et des discours diplomatiques trompeurs, ces opérations s’inscrivent dans une stratégie d’influence hostile visant à miner la résilience démocratique.
🔎 Retour sur six mois d’attaques informationnelles visant la France.
Storm 15-16
Le 6 mai 2025, le Service de vigilance et protection contre les ingérences numériques étrangères (VIGINUM) a révélé l’existence d’un mode opératoire informationnel (MOI) particulièrement virulent contre la France : Storm 15-16, orchestré directement par le renseignement militaire russe (GRU). Entre août 2023 et mars 2025, ce MOI a été responsable d’au moins 77 opérations de désinformation.
Parmi les actions marquantes, le 26 janvier 2025, une vidéo prétendument publiée par le groupe djihadiste Hayat Tahrir al-Cham menace d’incendier la cathédrale Notre-Dame si la France ne libère pas l’auteur de l’attentat de la basilique de Nice en 2020. Quelques jours plus tard, le 5 février, une autre vidéo, truquée, affirme que le président ukrainien Volodymyr Zelensky a racheté le Nid d’Aigle d’Hitler.
Le mois de mars voit la consolidation de ces récits mensongers avec la diffusion d’articles affirmant que le président ukrainien aurait pris le contrôle de la banque française Milleis.
Ces opérations suivent une stratégie répétitive et bien orchestrée, visant à manipuler l’opinion publique française par la diffusion continue de fausses informations.
Retrouvez l'ensemble de l'analyse du mode opératoire informationnel russe Storm 15-16
Storm 15-16D’abord surgit un compte jetable ou un influenceur familier des milieux complotistes chargé de mettre la vidéo en ligne. Dans les heures suivantes, un média africain ou moyen-oriental, payé pour l’occasion, relaie l’information afin de lui donner un vernis d’extériorité. Puis, des faux sites d’un réseau appelé CopyCop[1] reprennent l’article à la chaîne, tandis que des comptes X liés au projet Lakhta et une constellation de canaux Telegram russophones saturent les mots-clés essentiels (« Zelensky », « Notre-Dame », « Macron »). L’effet recherché de ces opérations réside moins dans la persuasion immédiate que dans la volonté de mettre en place un brouillard informationnel persistant pour in fine, corrompre la vérité.
1 CopyCop est un réseau d’influence piloté depuis la Russie qui s’appuie sur des modèles de langage génératifs pour plagier, traduire et réécrire massivement des articles de médias occidentaux, avant de les diffuser via de faux sites d’information afin de propager des récits pro-Kremlin et de déstabiliser les opinions publiques occidentales.
Portal Kombat
L’apport de Portal Kombat : l’infection progressive de l’intelligence artificielle
Au-delà des opérations menées par Storm 15-16, le début de l’année 2025 a également été marqué par la diffusion massive d’articles issus du dispositif de désinformation russe Portal Kombat, également connu sous le nom de Pravda.network. Identifié par VIGINUM dès février 2024, ce système d’édition automatique de contenus a généré plus de 3,4 millions d’articles.
Depuis janvier 2025, près d’un million d’articles ont été publiés, cumulant entre janvier et avril pas moins de 55 millions de vues sur cinq principales infox. Ce volume colossal illustre l’ampleur et la persistance des campagnes de désinformation ciblant la France et ses institutions.
Plus grave, ces textes, rédigés par IA puis traduits à la chaîne, ont été ingérés par les bases d’entraînement de plusieurs chat-bots de Large Language Model (LLM). L’intoxication des IA est ainsi telle que quatre modèle sur onze d’IA dite LLM, régurgitaient une ou plusieurs de ces fausses informations comme des faits établis, exposant leurs utilisateurs à une désinformation préoccupante.
Le procédé est simple : multiplier à l’infini un même article pour rendre statistiquement probable sa sélection par un aspirateur de données. Les plateformes d’IA, soucieuses de diversifier leurs corpus géographiques, intègrent alors sans filtre des pages d’information neuves, rédigées dans un niveau langue parfois très correct, mais sans référent éditorial. Le résultat est donc une forme de pollution lente : la fabrication de l’information se propage non plus seulement par la production de faux, mais par le raisonnement automatisé des machines.
Social Design Agency
La Social Design Agency : une agence de « communication » russe convertie en usine à infox
Parallèlement, opère la Social Design Agency (SDA), une prétendue agence de communication politique, dont les méthodes ont été révélées en avril 2025 à la suite de la fuite de plus de 3 000 documents internes. Connue depuis plusieurs années pour son rôle dans des campagnes de désinformation telles que « Doppelgänger », la SDA ne se limite pas à une activité de communication classique. Elle constitue en réalité un maillon central du dispositif informationnel russe, visant spécifiquement la France et les démocraties occidentales.
Hybride dans sa structure, la SDA associe la créativité d’une agence de marketing à la discipline d’un organe de renseignement. Entre janvier 2023 et avril 2024, elle a produit près de 140 000 contenus : articles générés par IA, mèmes, vidéos manipulées, deepfakes… Autant de formats diffusés massivement via des réseaux de bots, des groupes dormants sur les plateformes sociales ou des sites de presse clonés.
Les documents internes divulgués révèlent l’ampleur des actions menées par la Social Design Agency (SDA) : celle-ci se félicite d’avoir généré 10 milliards de points de contact avec l’audience mondiale et 57 millions de commentaires, qu’ils soient automatisés ou manuels. Sa logique n’est pas fondée sur la crédibilité des contenus produits, mais sur l’empreinte médiatique laissée. Ainsi, même un fact-checking est perçu comme une victoire, car il prolonge la visibilité du récit initial, quel qu’en soit le démenti.
Les rédacteurs, graphistes et techniciens de la SDA alimentent directement les opérations d’influence russes, en particulier à destination de l’audience française, selon des objectifs chiffrés. Pour la France et l’Allemagne, la production mensuelle attendue inclut :
- 50 articles rédigés,
- 180 mèmes,
- 500 commentaires ciblés,
- et une dizaine de vidéos d’actualité falsifiées.
Cette forme de sous-traitance de la propagande explique la régularité et la densité de la désinformation observée depuis janvier. Derrière une part significative des contenus hostiles circulant en France, on retrouve ainsi la SDA, structurée comme une agence de contenu classique, mais entièrement orientée vers un objectif : fracturer la cohésion nationale.
L’incident de l’OSCE
La désinformation s’adosse à la parole officielle : l’incident de l’OSCE
Loin de se limiter à la sphère numérique, la campagne russe de désinformation a franchi une nouvelle étape le 19 mars 2025, s’invitant dans la tribune diplomatique. Lors du Forum pour la coopération en matière de sécurité de l’OSCE à Vienne, la délégation russe a projeté trois « unes » prétendument issues des journaux La Croix, Hull Daily Mail et USA Today, afin de « démontrer » que l’offensive ukrainienne à Koursk s’était soldée par un échec, malgré le soutien occidental à Kiev.
Ces « unes » étaient en réalité des montages, déjà diffusés sur la plateforme X par un compte lié à la campagne numérique de manipulation RRN/Doppelgänger. Une semaine plus tard, la France puis le Danemark ont présenté les exemplaires authentiques, dénonçant fermement l’usage assumé du mensonge comme instrument diplomatique.
Cet épisode est inédit : des diplomates russes laissent cette fois une trace écrite facilement vérifiable, transformant un forum multilatéral en une scène de désinformation. Qu’il s’agisse d’une désinhibition assumée ou d’une négligence, cet incident illustre la cohérence d’une manœuvre globale : une même usine à fausses informations alimente réseaux sociaux, sites miroirs, et désormais déclarations officielles, brouillant encore davantage la frontière entre guerre de l’information et diplomatie traditionnelle.
Pour conclure
Ces six derniers mois démontrent que la désinformation n’est plus un simple bruit de fond mais une variable stratégique permanente. Elle combine outils privés, canaux officiels et manipulation des algorithmes pour garantir une visibilité constante. La question n’est plus celle de son apparition ponctuelle mais de notre capacité collective – institutions, médias, citoyens – à détecter et neutraliser ce flot organisé de fausses informations.
Retrouvez l'ensemble de nos analyses à froid
Nos décryptagesRetrouvez toutes les actualités des opérations
Nos actualitésA la une
Décryptage d'une fake news ciblant les armées françaises
Si les militaires français n’étaient pas initialement la première cible des attaques informationnelles dans...
18 juin 2025

Décryptage d’un ciblage informationnel – Instrumentalisation du soutien de la France à l’Ukraine
Depuis l’invasion de l’Ukraine par la Russie le 24 février 2022, la France assure un soutien militaire cons...
18 juin 2025

Décryptage d’une manœuvre de désinformation – nos armées prises à partie en Roumanie
Des vidéos montrant des mouvements de troupes françaises en Roumanie ont été sorties de leur contexte et ut...
17 juin 2025
