samedi 17 janvier 2026

Russie : de la guerre cognitive à une guerre ontologique

 

La Russie perfectionne ses stratégies d’influence et ses campagnes de désinformation en puisant à la fois dans l’héritage soviétique et dans les outils technologiques. Plusieurs objectifs sont poursuivis : instiller le doute, polariser les sociétés et façonner les perceptions à l’échelle mondiale.

La Fédération de Russie est connue pour mener des opérations informationnelles à large spectre. Si cet état de fait est devenu patent et a pris une ampleur inédite depuis 2022, la pratique est bien antérieure et s’appuie d’une part sur une connaissance de longue date — qui a connu quelques opérations historiques comme « Infektion » (1), relative aux origines du virus du VIH —, et d’autre part sur une conceptualisation des méthodes et effets qui s’est notamment matérialisée avec la célèbre « Makirovska » (ou l’art de la « désinformation » (2), de la tromperie) — soit le contrôle cognitif mis au service des « mesures actives » (3) et de la « guerre de nouvelle génération » (4). Enfin, l’invasion massive de l’Ukraine a été l’occasion d’une démonstration de l’agrégation des savoir-faire, d’une réorganisation des acteurs de l’influence russe et de leur gouvernance, mais aussi de l’adaptation aux nouvelles technologies, aux nouveaux territoires et populations ciblés.

Une accumulation des savoir-faire

Les opinions et pouvoirs publics ont pris progressivement conscience de la réalité et de l’ampleur des actions informationnelles russes au travers des tentatives d’ingérences dans les élections présidentielles de 2016 d’abord puis, plus violemment, avec les nombreuses actions menées depuis février 2022, dont plusieurs ont fait l’objet de rapports de l’agence VIGINUM (5), mais aussi de rapports de la Direction générale de la Sécurité intérieure (DGSI) et de la Direction générale de la Sécurité extérieure (DGSE) repris dans la presse. Cependant, l’exploration de ce champ de conflictualité qui se joue en dessous du seuil de déclenchement de la guerre, donc en temps de paix, capitalise sur une expérience et des travaux de conceptualisation de longue date. Ainsi, les mesures actives déployées par le KGB pendant la guerre froide ont permis d’acquérir des savoir-faire dont la transmission a néanmoins pu souffrir de l’effondrement de l’URSS. Mais ce volet applicatif s’est appuyé sur des travaux de conceptualisation, parmi lesquels la Makirovska qui, au lendemain de la Seconde Guerre mondiale, propose de concevoir l’influence comme un modèle à plusieurs dimensions comprenant les niveaux stratégique, opérationnel et tactique, et permettant de déployer ensuite la pensée du contrôle cognitif. Cette approche consiste à développer des canaux d’influence qui limitent la capacité d’un adversaire à traiter de nouvelles informations, inhibent la pensée créative et restreignent l’utilisation complète du potentiel de combat. Ces travaux ont connu un renouveau dans les années 2010-2012, à la veille de la guerre dans le Donbass, qui a permis au Kremlin de bénéficier d’un laboratoire à ciel ouvert pour tester des actions informationnelles qui ont ensuite été encore affinées avec l’invasion massive de l’Ukraine.

La stratégie du chaos comme objectif

Si les actions d’influence russe se conçoivent désormais sur l’entièreté du spectre touchant aux cognitions humaines, les objectifs poursuivis peuvent être multiples. La division, citée dans l’approche en 4D présentée par Mark Galeotti, reste valide (6). Elle peut s’observer à travers des actions qui visent à accroitre les débats pouvant semer la dissension, notamment entre les pays soutenant l’Ukraine. Cette même quête de division peut aussi s’observer au sein des populations de ces États, notamment dans les tentatives d’accentuer les polarisations, qu’elles soient idéologiques ou politiques, en usant notamment de contenus ciblant les émotions des individus. D’autres actions vont tenter de présenter la Russie comme une alternative crédible pour d’autres États. 

Ainsi, un pan des actions visera à semer le chaos en démultipliant les crises sur plusieurs niveaux : en interne en activant les troubles sociaux et les polarisations, entre alliés, et sur des territoires d’importance sur la scène internationale, comme cela a pu être observé concernant la France, souvent invitée dans des débats dont elle se serait passée sur le continent africain (7)(8). Cette démultiplication des crises participe à freiner, voire à geler la capacité de prise de décision d’États qui seront empêtrés dans la gestion de plusieurs sujets complexes, et pourront simultanément peiner à bénéficier d’un socle de soutien stable au sein de leur propre population, objet d’actions visant à les diviser et à les polariser.

Parallèlement, cette amplification du chaos permettra une capitalisation de la Russie sur d’autres territoires, auprès desquels elle se présente comme une alternative à la présence occidentale, qui peut d’ailleurs souffrir de perception négative du fait de l’histoire moderne. Dès lors, seront mis en perspective le « chaos » occidental versus « l’ordre » présenté par la Russie, faisant de Moscou une alternative crédible.

De la fast fashion de l’influence à la haute couture ?

Cette dichotomie entre ordre et chaos s’appuiera donc sur des déclinaisons du narratif général à même de s’adapter aux publics ciblés, passant en quelque sorte de la fast fashion ou du prêt-à-porter de l’influence, à la haute couture dessinée pour correspondre aux particularités. En ce sens, dès mars 2022, une campagne de mèmes déferlait sur l’Europe, mais surtout sur le continent africain et le Moyen-Orient en adaptant le discours, et les langues de diffusion. Si on parlait ici de double standard, on évoquait là la dispute du Cachemire, et ailleurs l’anticolonialisme et l’antimondialisme permettant de bénéficier d’une audience déjà sensible à ces sujets. Cette adaptation des narratifs est maintenant facilitée par les IA génératives, qui permettent de produire du texte très rapidement et à cout modique. Plus récemment, on a pu observer des actions menées simultanément dans le monde physique et numérique, notamment en utilisant des « agents jetables », personnes recrutées à peu de frais, pour réaliser des actions ne demandant pas un niveau de compétences élevé — comme réaliser des tags dans Paris —, actions qu’il sera alors aisé de médiatiser par l’intermédiaire de faux profils sur des réseaux sociaux, de faux articles de presse pouvant usurper l’identité de journaux — opération « Doppelgänger » — ou par l’entremise de sites dits « d’information » entièrement générés par IA.

Une adaptation aux technologies

On le voit, les méthodes se sont adaptées aux nouvelles technologies pour déployer des actions informationnelles à un niveau global et ontologique, car elles traversent les frontières géographiques d’une part et le monde numérique d’autre part, tout en jouant sur différentes lignes temporelles. Le travail sur le temps long se double d’une approche très opportuniste. En termes d’adaptations récentes, on peut noter la prise en compte de nouveaux terrains. À ce titre, les internautes ayant migré de X vers BlueSky ne se sont pas pour autant débarrassés des actions visant à les influencer : des opérations comme « Matriochka » se sont déployées simultanément sur X et BlueSky, même si le modèle de cette dernière plateforme a permis une rapide mise en lumière de l’action.

D’autres approches assez innovantes se font jour, comme l’usage de jeux vidéos pour conforter les perceptions des plus jeunes — quand ce sont Roblox et Minecraft qui sont utilisés (principalement à l’attention des population russophones) — ou des moins jeunes — quand on parle jeux de stratégie ou de survie comme African Dawn, déployé sur le continent africain l’été dernier (9), ou Hearts of Iron IV qui prenait place sur le territoire ukrainien.

Nous avons mentionné les sites générés par IA, qui peuvent rapidement être publiés en plus d’une quinzaine de langues en un temps très court (10). Il se trouve que ces sites, de même que les productions de contenus diffusés sur les réseaux sociaux, font partie des bases de données qui seront utilisées par les IA génératives (IAg) pour alimenter leur modèle. Cela participera à un processus d’autotrollling des technologies par leurs propres productions. Cet état de fait a bien été compris par des acteurs de désinformation comme la Russie, qui travaille à infiltrer les bases de données de ces outils utilisés par beaucoup d’entre nous comme moteurs de recherche, quand bien même ces modèles ne sont pas faits pour cet usage. 

L’empoisonnement des modèles d’IAg, comme les grands modèles de langage (LLM), augmente le risque d’exposer les internautes à des contenus trompeurs. Une étude a montré que lorsqu’on interroge les dix principales plateformes d’IAg sur un sujet lié à la guerre en Ukraine, dans 33 % des cas, les réponses contiennent des éléments de désinformation (11). Cette contamination peut être causée par l’introduction volontaire de fausses données dans les bases d’entrainement par des acteurs malveillants (comme des documents falsifiés), ou encore par la manipulation ciblée de certains ensembles de données utilisés pour affiner les modèles. Elle pourra aussi être frontale, les attaquants introduisant des informations ciblées dans les bases de données avant que les données légitimes n’arrivent, influençant le modèle qui donnera la priorité aux premiers arrivants. 

Dès lors, on observe que la Russie, qui n’encourt plus de risque réputationnel dans son usage d’opérations d’influence, a procédé à une agrégation des compétences et connaissances développées depuis plusieurs décennies, tout en s’appuyant sur une réflexion conceptuelle et une application globale et créative permettant de cibler les cognitions de tout un chacun, dans une approche ontologique de la conflictualité. En outre, cette adaptabilité — que l’on peut aussi lire à travers la restructuration du GRU [service du renseignement militaire russe] et les documents de cadrage produits par le SVR [service du renseignement extérieur russe] sur le sujet — prend en compte avec rapidité les évolutions techniques pour tenter d’en tirer parti. Ces évolutions, qui tendent à semer un chaos dont le Kremlin pourra tirer avantage, que ce soit sur son territoire national ou sur la scène internationale, invitent à aller au-delà de la prise de conscience et à adopter une approche anticipative des actions qui, à n’en pas douter, cibleront les populations demain.

Notes

(1) S. Bates, « Disinforming the world: Operation INFEKTION », The Wilson Quarterly, 34(2), 2010, p. 13-15. 

(2) Selon Ion Mihai Pacepa, chef des services de renseignement à l’étranger de Ceaucescu ayant fait défection en 1978, le terme « désinformation » aurait été forgé par Staline lui-même, qui aurait ainsi voulu faire croire à une origine française du concept (NdlR).

(3) Actions conduites par les services de sécurité en URSS puis en fédération de Russie (Tcheka, OGPU, NKVD, KGB, FSB et SVR) pour influencer le cours des évènements mondiaux, incluant la propagande et la désinformation (NdlR).

(4) Théorie russe de la guerre non conventionnelle donnant la priorité aux aspects psychologiques, et mettant l’accent sur une approche progressive de l’influence non militaire. Pour l’agresseur, le cout humain et économique serait ainsi nettement diminué. Cette théorie a été énoncée dans un document de doctrine en 2014 par le général Valeri Guerassimov, actuel chef des armées russes. Selon Thibault Fouillet (Fondation pour la recherche stratégique), cette doctrine « permet, en s’adaptant à la donne sociologique et technologique contemporaine, de rétablir une liberté d’action et de conduire avec succès une bataille malgré la menace du feu nucléaire, permettant une atteinte rapide des buts de guerre (tout en prévenant l’escalade). » (NdlR)

(5) Agence étatique française créée en 2021 chargée de la vigilance et de la protection contre les ingérences numériques étrangères (NdlR).

(6) Il s’agit des quatre actions poursuivies par la Russie, que Mark Galeotti définit comme étant : diviser (divide), distraire (distract), consterner (dismay) et dominer (dominate). Voir « Heavy Metal Diplomacy: Russia’s Political Use of its Military in Europe since 2014 », ECFR, décembre 2016 (https://​rebrand​.ly/​o​f​a​r​jvz).

(7) African Digital Democracy Observatory, « Burkina Faso: Pro-Russian campaigns before the coup », 27/09/2023 (https://​rebrand​.ly/​m​z​2​p​xbc).

(8) S. Malibeaux et G. Genevrier, « À Gossi, mise en scène d’un charnier pour discréditer l’armée française », RFI, 22/04/2022 (https://​rebrand​.ly/​e​n​p​3​jpn).

(9) C. Dugoin-Clément, « Jeux vidéo, films, réseaux sociaux : la propagande russe tout-terrain », The Conversation, 15/01/2025 (https://​rebrand​.ly/​8​p​r​8​bnr).

(10) S. McKenzie et al., « 1254 «sites d’actualité non fiables générés par l’IA» et les principales infox générées par les outils d’IA », NewsGuard, février 2025 (https://​rebrand​.ly/​z​w​u​w​68q).

(11) S. McKenzie et al., « A Well-funded Moscow-based Global ‘News’ Network has Infected Western Artificial Intelligence Tools Worldwide with Russian Propaganda », NewsGuard, mars 2025 (https://​rebrand​.ly/​g​u​0​j​ils).

Christine Dugoin-Clément

areion24.news