Des services secrets, nous ne savons que les échecs et rarement les succès. Si l'échec provoque l'anathème, l'ingratitude est fille de la victoire. Quand à la gloire, il faut l'oublier, elle est pour les autres...

vendredi 3 avril 2026

Penser le cyber : l’IA dans la conflictualité numérique

 

Depuis l’apparition de ChatGPT en novembre 2022, on ne cesse d’appréhender le moment où les technologies liées à l’intelligence artificielle – et notamment les grands modèles de langage (LLM : Large language models) – révolutionneront la conduite des cyberopérations offensives. Dans un rapport publié en novembre 2025, Anthropic semble annoncer son arrivée. Un acteur, parrainé par la Chine selon l’entreprise étasunienne, aurait utilisé le modèle Claude pour automatiser la chaîne opérationnelle, parvenant à compromettre une trentaine d’organisations (1).

Cette première ouvrirait la porte à des usages émergents, particulièrement en matière d’espionnage ou de campagnes de ransomwares, compliquant la tâche de la cybersécurité et de la cyberdéfense. Les LLM – une sous-classe de l’IA générative – constitueraient en effet un outil formidable pour opérer très rapidement et à l’échelle industrielle. Ce gain est évidemment à double tranchant : ces mêmes outils peuvent contribuer à réduire le nombre de vulnérabilités dans les programmes informatiques, augmenter les capacités de détection des attaques et aider à la prise de décision en cybersécurité. Plus largement, ils peuvent jouer un rôle clé dans la consolidation de la couche logicielle de l’infrastructure numérique globale, par exemple en réécrivant des programmes fondamentaux comme les logiciels de messagerie ou les suites bureautiques (2).

Cet épisode remet particulièrement en question les mesures de sécurité censées empêcher l’exploitation des modèles à des fins malveillantes (le jailbreaking). Comme d’autres opérateurs essentiels de l’infrastructure numérique contemporaine, les entreprises d’IA sont majoritairement étasuniennes. À ce titre, elles s’inscrivent dans un contexte politique particulièrement mouvant. La volonté du gouvernement Biden de « refondre le contrat social de cybersécurité », c’est-à‑dire d’inciter les fournisseurs de services et de logiciels numériques à intégrer la sécurité dès la conception, s’est élargie à l’IA en octobre 2023. L’un de ses derniers actes en janvier 2025 a encouragé l’application de ces technologies en matière de cyberdéfense. Moins d’une semaine plus tard, le nouveau gouvernement revenait sur les dispositions d’octobre 2023. En juin, l’administration Trump amendait en partie le dernier décret de Joe Biden. Néanmoins, des entreprises comme Anthropic (Claude), OpenAI (ChatGPT) ou Google (Gemini) continuent de développer des moyens de sauvegarde contre le jailbreaking, en collaboration avec les pouvoirs publics, aux États-Unis (National Institute of Standards and Technology) comme au Royaume – Uni (UK AI Security Institute) (3). Dans le cas évoqué par le rapport d’Anthropic, l’acteur mis en cause a créé un cadre d’attaque autonome : il a divisé les différentes phases de l’attaque (reconnaissance, exploitation de vulnérabilité, mouvements latéraux, collecte d’identifiants, etc.) en autant de sous – tâches distinctes qui ont ensuite été exécutées par Claude. Par conséquent, ce dernier n’a pas été capable de reconnaître l’intention malveillante d’ensemble. Par ailleurs, le modèle aurait été trompé en lui laissant croire qu’il assistait une mission d’audit de cybersécurité. Les mesures de sauvegarde auraient donc été contournées par ces méthodes.

Le cadre d’attaque autonome aurait permis d’automatiser une grande partie des tâches, en limitant ainsi l’intervention humaine. Celle-ci est cependant restée présente sous la forme d’une structure de travail composée d’un ensemble de fonctionnalités servant à orchestrer et à soutenir les opérations. Le modèle a donc régulièrement sollicité une validation de la part des opérateurs, par exemple après la phase de reconnaissance des systèmes ciblés. Ce point montre qu’il ne s’agit pas de créer un agent purement autonome, mais de répondre à une question à laquelle sont confrontées toutes les organisations face à l’IA générative : jusqu’à quel point automatiser les processus opérationnels et organisationnels ? Car le recours à ces outils n’est pas sans poser de problèmes, notamment du fait de leur propension à produire des résultats erronés et trompeurs.

La place des technologies d’IA dans la conflictualité numérique se décline dans deux dimensions. Comme l’illustre le cas précédent, les outils peuvent être exploités pour conduire des cyberopérations offensives. Les opérateurs soulignent ainsi la polyvalence des tâches remplies par les LLM : phishing à la fois précis et à grande échelle, fraudes massives, développement de malwares, etc. (4). Ils sont aussi des éléments de plus en plus importants dans les campagnes d’influence en ligne (5). Car l’IA générative permet non seulement de générer de fausses informations, mais aussi de le faire à l’échelle industrielle. Des campagnes liées à des opérateurs russes en Europe ou en Afrique ont largement fait appel à ces fonctionnalités pour singer des médias traditionnels, mais aussi pour inonder les réseaux sociaux de leurs productions (6). Les algorithmes de recommandation de ces derniers, qui valorisent généralement l’engagement et donc la production de contenus à forte charge émotionnelle, ont encore accéléré le phénomène. En outre, l’IA générative est utilisée pour créer de faux comptes très crédibles et en très grand nombre. Les LLM servent ici à des tâches diverses qui peuvent être automatisées et perfectionnées, à l’instar des traductions par exemple. Le contexte politique actuel au sujet de la lutte contre les manipulations de l’information aux États-Unis entraînera sans doute des conséquences sur la contribution des opérateurs et des fournisseurs de services d’IA en matière d’alerte, d’analyse et de renseignement des anciens et nouveaux modes opératoires. Le dernier rapport de Meta date ainsi de mai 2025.

Les technologies d’IA sont aussi des cibles et pas uniquement des leviers. En raison de leur importance croissante au cœur des infrastructures informationnelles et numériques, elles font l’objet de tentatives non seulement de les tromper, mais aussi de les subvertir, c’est-à‑dire d’en modifier le fonctionnement et les résultats. Bien qu’encore théoriques pour la plus grande part, les méthodes utilisées ciblent les bases de données sur lesquelles s’entraînent les modèles. Or celles-ci sont connectées à Internet depuis la fin de l’année 2024 et le début de 2025. Par conséquent, il est possible d’influencer indirectement leur comportement en modifiant une partie des données disponibles. Étant donné le volume très important que cela représente, il faut imaginer la production d’informations fausses ou erronées en très grand nombre. Néanmoins, il est possible que les réseaux informationnels que construisent les entrepreneurs d’influence (notamment russes) puissent s’approcher de ce résultat. En raison de leur développement et de leur croissance rapide, ils contribueraient à « teinter » les informations disponibles sur Internet. Notamment, le fait de dupliquer en masse les contenus pour des plateformes et des supports différents attirerait les agents qu’utilisent les moteurs de recherche (search engine web crawlers) et les LLM (algorithme de scrapping) pour prospecter Internet. Cette méthode dite de LLM-Grooming aurait d’importantes conséquences sur la qualité de l’espace informationnel et sur la confiance qui lui est accordée (7).

Néanmoins, l’émergence de nouveaux usages et de nouveaux modes opératoires instrumentalisant ou ciblant les technologies d’IA générative ne signifie pas nécessairement leur adoption par le plus grand nombre et encore moins leur généralisation. Ces technologies offrent de formidables opportunités pour automatiser certaines tâches ou pour assister l’humain, de la production à grande échelle à la prise de décision. En la matière pourtant, le mode de fonctionnement des LLM – entraînés sur des jeux de données – éclaire aussi leurs limites. Ils sont mal adaptés aux contextes incertains, particulièrement ceux de la conflictualité. Par ailleurs, leur propension à « halluciner », c’est-à‑dire à inventer des résultats erronés, reste élevée. De ce fait, leur utilisation à des fins offensives, particulièrement dans le cadre de cyberopérations, est risquée pour un acteur qui souhaite maîtriser les effets. Là comme ailleurs, le choix de procédures et de techniques dépend avant tout du cadre opérationnel et organisationnel, lequel inclut des paramètres politiques et juridiques. Sur le spectre allant de l’assistant à l’automate, il est fort probable que seuls certains acteurs glisseront vers le second pôle. À moins que la tentation de recourir à l’IA pour agir à l’échelle industrielle ne devienne pressante au fur et à mesure que les infrastructures numériques se transforment en espaces de conflictualité.

Notes

(1) Anthropic, « Disrupting the first reported AI-orchestrated cyber espionage campaign », 13 novembre 2025 (màj 17 novembre).

(2) Jen Easterly, « The End of Cybersecurity: America’s Defenses Are Failing – but AI can Save Them », Foreign Affairs, 16 octobre 2025.

(3) Derek B. Johnson, « Top AI companies have spent months working with US, UK governments on model safety », Cyberscoop, 15 septembre 2025.

(4) Anthropic, « Threat Intelligence Report », août 2025 ; OpenAI, « Disrupting malicious uses of AI: an update », octobre 2025 ; Google Threat Intelligence Group, « Advances in Threat Actors Usage of AI Tools », novembre 2025.

(5) OpenAI, « Influence and cyber operations: an update », octobre 2024.

(6) VIGINUM, « Analyse du mode opératoire informationnel russe Storm-1516 », SGDSN, 6 mai 2025. Voir aussi Kevin Limonier, « Entrepreneurs de la désinformation : plongée dans l’ombre de la guerre informationnelle russe », Propagations, 28 octobre 2025.

(7) American Sunlight Project, « A Pro-Russia Content Network Foreshadows the Automated Future of Info Ops », 26 février 2025.

Stéphane Taillat

areion24.news