Des services secrets, nous ne savons que les échecs et rarement les succès. Si l'échec provoque l'anathème, l'ingratitude est fille de la victoire. Quand à la gloire, il faut l'oublier, elle est pour les autres...

mercredi 12 novembre 2025

Le rôle de l’IA dans les campagnes informationnelles

 

Manipuler l’information pour fragiliser le moral, semer le doute, déstructurer les sociétés, subvertir plutôt que combattre : voilà une grande partie de l’art de la guerre. Si cette pratique accompagne les affrontements depuis toujours, la technologie en augmente aujourd’hui exponentiellement l’impact.

Du bombardement de tracts aux réseaux sociaux, les vecteurs d’influence n’ont cessé d’évoluer, suivant les mutations technologiques des moyens de communication. L’intelligence artificielle (IA) (1) est la dernière révolution qui prolonge toujours plus la courbe exponentielle de la viralité informationnelle, où la création et la diffusion s’accélèrent au fur et à mesure qu’elle s’automatise. L’IA, surtout générative, contribue de manière inédite à la transformation numérique de la guerre des récits.

Elle accroit l’asymétrie des rapports de force : en démocratisant l’accès à des capacités offensives de pointe, elle abaisse les barrières technologiques pour des acteurs hostiles. L’IA générative (IAG) accentue aussi une asymétrie de combat plus structurelle : celle qui oppose des espaces informationnels ouverts, soumis à la transparence et au pluralisme, à des environnements fermés, strictement contrôlés par des régimes autoritaires.

L’IAG permet aux assaillants informationnels d’envahir les espaces numériques avec une création de contenus toujours plus rapide, crédible et coordonnée. En quelques minutes, des milliers d’articles sont écrits, des photos sont générées ou détournées. Sont également écrites les lignes de codes qui automatisent leur diffusion, puis leur amplification par des réseaux de robots virtuels (bots) (2). En clair : c’est toute la mécanique de l’influence qui change d’échelle.

Aujourd’hui, les acteurs étatiques hostiles, leurs proxies et les cybercriminels s’emparent de ces méthodes. Demain, elles seront omniprésentes. Pour la première fois, en 2024, la menace informationnelle avait pris la tête du classement du World Economic Forum. Cette première place était avant tout due à de multiples échéances électorales, liées à un alignement extraordinaire des calendriers au niveau mondial. Cette année, le risque est maintenu à la première position, car il transcende les élections, devenant une menace constante et protéiforme, en partie grâce à l’IA (3).

Face à cette menace croissante, l’IA elle-même peut constituer un levier de défense, à condition d’être maitrisée, encadrée et utilisée à bon escient. Car il convient de le rappeler : l’IA n’est qu’un outil, et peut aussi, à ce titre, constituer une nouvelle ligne de défense, au service de la résilience démocratique et de la lutte contre la manipulation de l’information.

L’IA, une formidable arme informationnelle

Dès 2016, l’affaire Cambridge Analytica révélait comment l’apprentissage automatique, une forme d’IA, avait servi à cibler des individus sur les réseaux sociaux en fonction de leurs publications, de leurs likes et de leurs réactions. Les mêmes procédés, qui consistaient à collecter et à analyser des données personnelles pour vendre des espaces de publicités — ce que la sociologue américaine Shoshana Zuboff appelle le « capitalisme de surveillance » (4) —, ont pour la première fois été appliqués à la sphère politique, permettant un microciblage électoral d’une efficacité inédite. L’IA avait alors servi à identifier des vulnérabilités psychosociales, à ajuster des messages individualisés, et à automatiser leur diffusion dans des environnements informationnels fragmentés. Ce tournant marqua l’émergence d’une nouvelle grammaire de l’influence numérique, fondée sur l’analyse prédictive et l’optimisation comportementale.

Fin 2022, OpenAI amorçait une seconde vague dans la révolution de l’IA en déployant son premier chatbot conversationnel grand public : ChatGPT. Contrairement aux approches antérieures centrées sur la recommandation et le ciblage, les modèles génératifs permettent la production automatisée et massive de contenus réalistes.

La vitesse et l’amplitude du contenu créé

Avec l’essor des modèles génératifs, la production d’articles, de textes et de publications sur les réseaux sociaux ou les forums en ligne connait une accélération sans précédent. Là où les campagnes d’influence traditionnelles nécessitaient d’importantes ressources, quelques instructions, ou prompts, suffisent désormais à générer automatiquement une multitude de messages, textuels ou visuels. Cette capacité à produire à la fois rapidement et massivement transforme l’échelle des opérations informationnelles : elle permet de saturer les espaces numériques en un temps réduit, de multiplier les angles d’attaque et de maintenir une pression constante sur les opinions publiques. Le réseau Pravda​.network (ou Portal Kombat) en est un parfait exemple. Il a permis de publier plus de 3,6 millions d’articles prorusses la même année (5). Souvent sans intérêt pour un lectorat humain, ces articles visaient à saturer les sources d’apprentissage des IA via une technique nommée LLM grooming, entrainant une contamination algorithmique à grande échelle. En deux mots : à biberonner nos outils quotidiens (ChatGPT, Gemini et autres IAG) de narratifs prorusses, jusqu’à ce que ces mêmes récits figurent dans leurs réponses à nos prompts.

La crédibilité des outils

L’un des effets les plus préoccupants de l’IAG réside dans sa capacité à produire des contenus dont la crédibilité visuelle ou sonore rend leur vérification extrêmement difficile. En quelques secondes, il est possible de générer des visuels ou des voix synthétiques fidèles à des figures publiques, rendant la frontière entre réel et artificiel de plus en plus floue.

Certains outils, comme Grok — le chatbot de xAI, une branche de X, ex-Twitter, dédiée au développement de l’IA —, permettent la création de deepfakes sans la moindre restriction, au détriment des enjeux de sécurité informationnelle. Cette dynamique s’étend désormais à la vidéo, avec des systèmes comme Veo, développé par Google. Dans ce contexte, la capacité à distinguer le vrai du faux devient une priorité stratégique. Si le contenu artificiel est voué à devenir la norme, la transparence quant à son caractère artificiel et à sa source devient un enjeu essentiel.

La coordination des bots : vers des campagnes autonomes ?

Les dernières avancées en matière d’IA permettent d’envisager des campagnes de manipulation de l’information menées non plus par des individus ou des équipes humaines, mais par des essaims (swarms) d’agents automatisés, agissant de manière coordonnée et autonome. Ces systèmes multi-agents reposent sur la collaboration entre différents modèles d’IA — génératifs, prédictifs, conversationnels — capables de produire, relayer, adapter et amplifier des contenus informationnels à grande échelle (6). Chaque agent peut cibler une audience spécifique, réagir en temps réel aux signaux comportementaux, ajuster le ton, le lexique ou le narratif en fonction du contexte, tout en maintenant une illusion de diversité et d’authenticité.

Ces essaims pourraient analyser en continu les effets de leurs actions et affinant leurs stratégies sans intervention humaine. Cette architecture distribuée annonce une transformation profonde du paysage informationnel, où l’autonomie algorithmique remplace progressivement la centralisation humaine dans la conduite des campagnes d’influence.

L’IA face à l’IA : détecter, qualifier, riposter

Face à cette menace, l’IA représente également une partie de la solution. De nombreux acteurs aussi bien publics que privés s’emploient à développer des outils capables de repérer les signaux faibles et de cartographier les narratifs émergents avant qu’ils n’impactent l’opinion publique. La détection de contenus falsifiés est ainsi également devenue une priorité. Grâce à ces outils, les décideurs civils et militaires peuvent bénéficier d’une lecture affinée de l’environnement informationnel.

La détection automatisée des campagnes d’influence progresse rapidement, incluant l’analyse émotionnelle, l’authentification des sources et le fact-checking algorithmique. L’un des défis actuels de la recherche réside dans la fusion multisource de données, combinant sources ouvertes, réseaux sociaux et bases spécialisées, ainsi que dans l’identification automatique des contenus générés par IA à travers le marquage ou la labellisation.

À terme, l’émergence de contre-narratifs automatisés pourrait compléter cet arsenal technologique. L’enjeu stratégique consiste ainsi à encadrer l’IA pour en faire un pilier de la résilience cognitive face aux menaces hybrides.

L’IA générative en pratique : une arme puissante

Alors que la Revue nationale stratégique, actualisée en juillet 2025, réaffirme la centralité de la lutte informationnelle dans les conflits hybrides contemporains (7), le chef d’état-major des armées, le général Burkhard, ainsi que le Service européen pour l’action extérieure, alertaient récemment sur la place singulière de la France comme cible prioritaire des campagnes russes en Europe. Dans un contexte de guerre cognitive exacerbée, les acteurs hostiles, étatiques ou non, cherchent à tirer parti des technologies les plus récentes pour affaiblir nos démocraties.

L’IAG constitue aujourd’hui un multiplicateur d’effet décisif, désormais intégré aux arsenaux informationnels de puissances telles que la Russie ou la Chine. Ces outils, loin d’être hypothétiques, sont d’ores et déjà à l’œuvre dans plusieurs campagnes documentées par des institutions telles que VIGINUM (8).

La désinformation visant les Jeux olympiques de Paris 2024, analysée par VIGINUM, a montré comment l’IAG a permis de créer à la chaine des messages mensongers sur la sécurité de l’événement ou sur la prétendue illégitimité de la France à l’accueillir, dans une logique de sabotage informationnel (9).

Autre cas emblématique : l’opération « Overload », analysée par CheckFirst (10), qui démontre l’usage massif d’IAG en vue d’inonder les réseaux sociaux de contenus falsifiés, souvent diffusés sous l’apparence de médias crédibles. Cette stratégie vise à saturer les circuits de vérification de l’information tout en exploitant la puissance mimétique des contenus synthétiques — voix, vidéos, images — pour semer la confusion.

Enfin, nous pouvons citer le cas de l’attaque menée contre l’image du Rafale à la suite d’un affrontement entre l’Inde et le Pakistan en mai 2025. Exploitant l’annonce d’un Rafale indien présumé abattu, des réseaux liés au Pakistan et à la Chine ont diffusé en ligne, grâce à l’IAG, des fausses vidéos, des déclarations synthétiques et des contenus exagérant les pertes (11). L’objectif : discréditer l’industriel français dans un contexte de compétition commerciale stratégique.

Ces campagnes montrent que l’IAG n’est pas un enjeu à venir, mais une réalité déjà opérationnelle, mobilisée par des acteurs hostiles dans un cadre géopolitique tendu, au service d’objectifs de déstabilisation ciblée.

L’IA comme outil du quotidien, ou une augmentation de la surface de la menace

Si cet article s’est d’abord attaché à décrire l’IAG comme une arme informationnelle, cette dimension n’en représente pourtant qu’un usage parmi d’autres. Ces technologies se sont immiscées dans nos usages quotidiens, devenant un canal privilégié d’accès à l’information. Comme le souligne BPI France, un demi-milliard de personnes pourraient utiliser des outils liés à l’IA d’ici 2027 (12). Cela ouvre cependant de nouvelles brèches : les LLMs peuvent eux-mêmes devenir des agents de déstabilisation.

Le phénomène de LLM Grooming, décrit plus tôt dans cet article, illustre bien ce risque. Or les géants du numérique qui produisent ces modèles semblent peu réceptifs à ces alertes. OpenAI a ainsi cessé d’évaluer ses modèles d’IA avant leur mise sur le marché face au risque d’ingérences électorales et politiques. Dans ce contexte, la question de la souveraineté des IA devient cruciale, comme le souligne la Revue nationale stratégique, en appelant à une réduction des dépendances technologiques.

Ces enjeux ne concernent pas uniquement les IAG. Plus largement, l’ensemble des IA embarquées dans nos interfaces numériques méritent une attention particulière. Les utilisateurs des réseaux sociaux sont ainsi exposés en permanence à une autre forme d’IA, plus diffuse mais tout aussi déterminante : les algorithmes de recommandation, qui pilotent ce que chacun voit, lit ou partage. À cette couche algorithmique déjà structurante s’ajoute une dimension géopolitique préoccupante : certains de ces réseaux sont sous l’influence directe d’États. C’est le cas de TikTok, parfois qualifié de « bras armé de Pékin » dans la guerre informationnelle. Son algorithme de recommandation oscille entre la censure silencieuse (le shadowbanning), qui sévit particulièrement lorsque les utilisateurs s’interrogent quant au sort des Ouïghours, et l’amplification de contenus avec un fort potentiel de fracturation (13).

L’intelligence artificielle a pénétré nos sociétés numérisées pour le meilleur et pour le pire. Elle a la capacité de perturber les perceptions des populations, la réputation des entreprises et les capacités cognitives des responsables politiques, économiques ou militaires. L’enjeu de la recherche et du progrès technologique autour de l’IA est donc critique pour permettre à la France et à l’Europe de reprendre l’avantage dans cet « affrontement numérique de nouvelle génération » entre l’IA éthique et l’IA corrompue.

Notes

(1) L’IA désigne l’ensemble des procédés logiques et automatisés, reposant généralement sur des algorithmes, destinés à reproduire, au moins partiellement, des comportements humains, tels que l’apprentissage, le raisonnement, la planification ou la création.

(2) Programme informatique automatisé pour simuler le comportement humain sur les réseaux sociaux. Un bot est capable de créer des publications, de laisser des commentaires, de partager ou d’aimer d’autres publications (définition de VIGINUM).

(3) Mark Elsner, Grace Atkinson, Saadia Zahidi, The Global Risks Report 2025, 20e édition, World Economic Forum, janvier 2025 (https://​www​.weforum​.org/​p​u​b​l​i​c​a​t​i​o​n​s​/​g​l​o​b​a​l​-​r​i​s​k​s​-​r​e​p​o​r​t​-​2​0​2​5​/​i​n​-​f​u​ll/).

(4) Shoshana Zuboff, The Age of Surveillance Capitalism: The Fight for a Human Future at the New Frontier of Power, PublicAffairs, 2019.

(5) McKenzie Sadeghi, Isis Blachez, « Un réseau “d’actualité” mondial richement doté, basé à Moscou, a contaminé les outils occidentaux d’intelligence artificielle… », NewsGuard, 6 mars 2025 (https://​www​.newsguardtech​.com/​f​r​/​s​p​e​c​i​a​l​-​r​e​p​o​r​t​s​/​r​e​s​e​a​u​-​g​l​o​b​a​l​-​d​e​s​i​n​f​o​r​m​a​t​i​o​n​-​c​o​n​t​a​m​i​n​a​t​i​o​n​-​i​n​t​e​l​l​i​g​e​n​c​e​-​a​r​t​i​f​i​c​i​e​l​l​e​-​p​r​o​p​a​g​a​n​d​e​-​r​u​sse).

(6) Daniel Thilo Schroeder, Meeyoung Cha, et al., « How Malicious AI Swarms Can Threaten Democracy », Center for Open Science, juin 2025 (https://​doi​.org/​1​0​.​3​1​2​1​9​/​o​s​f​.​i​o​/​q​m​9​y​k​_v1).

(7) Secrétariat général de la défense et de la sécurité nationale (SGDSN), Revue nationale stratégique 2025, juillet 2025 (http://​www​.sgdsn​.gouv​.fr/​p​u​b​l​i​c​a​t​i​o​n​s​/​r​e​v​u​e​-​n​a​t​i​o​n​a​l​e​-​s​t​r​a​t​e​g​i​q​u​e​-​2​025).

(8) SGDSN, VIGINUM, Défis et opportunités de l’intelligence artificielle dans la lutte contre les manipulations de l’information, 7 février 2025 (https://www.sgdsn.gouv.fr/files/files/Publications/20250207_NP_SGDSN_VIGINUM_Rapport%20menace%20informationnelle%20IA_VF.pdf).

(9) SGDSN, VIGINUM, Synthèse de la menace informationnelle ayant visé les Jeux Olympiques et Paralympiques de Paris 2024, 13 septembre 2024 (http://​www​.sgdsn​.gouv​.fr/​p​u​b​l​i​c​a​t​i​o​n​s​/​s​y​n​t​h​e​s​e​-​d​e​-​l​a​-​m​e​n​a​c​e​-​i​n​f​o​r​m​a​t​i​o​n​n​e​l​l​e​-​a​y​a​n​t​-​v​i​s​e​-​l​e​s​-​j​e​u​x​-​o​l​y​m​p​i​q​u​e​s​-​e​t​-​p​a​r​a​l​y​m​p​i​q​ues).

(10) Aleksandra Atanasova, Francesco Poldi, Guillaume Kuster, Operation Overload: More Platforms, New Techniques, Powered by AI, CheckFirst, juin 2025 (https://checkfirst.network/wp-content/uploads/2025/06/Overload%C2%A02_%20Main%20Draft%20Report_compressed.pdf).

(11) RFI, « French intel claims China launched disinformation campaign against Rafale jets », , 7 juillet 2025 (https://​www​.rfi​.fr/​e​n​/​f​r​a​n​c​e​/​2​0​2​5​0​7​0​7​-​f​r​e​n​c​h​-​i​n​t​e​l​-​c​l​a​i​m​s​-​c​h​i​n​a​-​l​a​u​n​c​h​e​d​-​d​i​s​i​n​f​o​r​m​a​t​i​o​n​-​c​a​m​p​a​i​g​n​-​a​g​a​i​n​s​t​-​r​a​f​a​l​e​-​j​ets).

(12) Sofia Ben Dhaya, « Marché de l’intelligence artificielle : où en sommes-nous ? », BIG média, BPI France, 4 juin 2024 (https://​bigmedia​.bpifrance​.fr/​n​o​s​-​a​c​t​u​a​l​i​t​e​s​/​m​a​r​c​h​e​-​d​e​-​l​i​n​t​e​l​l​i​g​e​n​c​e​-​a​r​t​i​f​i​c​i​e​l​l​e​-​o​u​-​e​n​-​s​o​m​m​e​s​-​n​ous) ; COMK, « Le marché de l’IA va doubler en 4 ans », 17 novembre 2023 (https://​comarketing​-news​.fr/​l​e​-​m​a​r​c​h​e​-​d​e​-​l​i​a​-​v​a​-​d​o​u​b​l​e​r​-​e​n​-​4​-​a​ns/).

(13) Arte, TikTok, un réseau sous influence, 2024 (deux épisodes de 45 minutes).

Thomas Delorme

Général Bruno Courtois

areion24.news