L’arrivée des smartphones et des tablettes et l’émergence des réseaux sociaux tels que Facebook, Twitter, Snapchat ou Instagram font la consommation médiatique a « explosé » au cours de ces dix dernières années. Et cela a des conséquences sur les comportements de chacun. Ainsi, selon une étude réalisée par Microsoft en 2015, l’on accorde, en moyenne, 8 secondes à chaque nouvelle information apparaissant dans le flux s’affichant sur nos écrans. Et cela, alors la capacité d’un poisson rouge est de… 9 secondes. Une aubaine pour ceux qui cherchent à manipuler les esprits.
D’autant plus que, comme l’a souligné Jânis Sârts, le directeur du Centre d’excellence pour la communication stratégique de l’Otan, lors d’une récente audition au Sénat, des expériences ont « démontré que nous consommons davantage d’émotions, qui ont un impact plus puissant, particulièrement quand elles sont combinées à des images, que de faits. » Conclusion : Les faits ne jouent plus le même rôle qu’avant.
En outre, les humains sont ainsi faits que leur cerveau évalue toujours si les « autres » pensent la même chose. D’où le recours à des bots, c’est à dire des comptes automatisés sur les réseaux sociaux, par ceux qui cherchent à influencer une opinion publique. Ils « peuvent interagir et être programmés pour extraire massivement des informations. Ces botnets pourraient rassembler des centaines de milliers de comptes dans un même réseau », a expliqué M. Sârts.
« Lorsqu’on analyse les discussions sur la présence de l’Otan dans les pays baltes ou en Pologne, 80 % des conversations en ligne émanent de comptes automatisés, contre 20 % de comptes humains. Il est très facile de déployer ce type d’opérations, qui impactent les sociétés : les citoyens, qui ont un rapport émotionnel à l’information, peuvent être mobilisés par ces actes et transformer leur action. Dans ce marché noir de l’information, tout repose sur des logiciels développés en Russie – même si les opérations elles-mêmes sont réalisées ailleurs, comme au Brésil, au Mexique ou en France… », a-t-il ajouté.
L’objectif de ceux qui se livrent à de telles manipulations est de « saper les facteurs de cohésion d’une société ». Ce qui est désormais devenu beaucoup plus simple qu’il y a 15 ans… Mais pas seulement : les opérations militaires sont aussi susceptibles d’être influencées…
Parmi les acteurs qu’il a qualifiés de « néfastes » puisqu’ils ont recours à de telles pratiques, M. Sârts a cité les groupes terroristes, dont Daesh, qui été la première organisation à exploiter le phénomène de « chambres de résonance » sur les réseaux. Mais l’on en est qu’aux prémices.
« La prochaine grande opération qui surviendra sera le fait de groupes terroristes qui utiliseront une stratégie de communication encore plus sophistiquée, en se basant sur les réseaux pour disséminer l’information et en exploitant ce phénomène de chambre de résonance. Heureusement, en ce moment, les organisations terroristes sont les cibles des plateformes en ligne et ne sont plus aussi efficaces qu’avant ; elles utilisent des plateformes de discussion en ligne réservées à des groupes fermés, mais à une échelle moins importante qu’il y a 3 ou 4 ans », a-t-il dit.
Sans surprise, la Russie en fait aussi partie. Elle « utilise différents spectres d’action » et s’appuie sur des « concepts hérités de l’Union soviétique des années 1970 et 1980 », a relevé M. Sârts, à l’instar du récent rapport du Centre d’analyse, de prévision et de stratégie et de l’Institut de recherche stratégique de l’École militaire. « La Russie cherche à exploiter les vulnérabilités existantes au sein des sociétés en utilisant les outils à sa disposition : les médias financés par l’État, comme Sputnik et RT, et des opérations en ligne, telle l’ingérence dans le processus électoral américain », a-t-il rappelé.
Enfin, un troisième acteur s’annonce redoutable dans ce domaine : la Chine. Selon M. Sârts, ce pays a « développé une approche différente, beaucoup plus subtile, privilégiant des stratégies à long terme », ce qui fait, dans 5 à 7 ans, il sera « l’un des acteurs les plus performants dans notre environnement numérique. »
La stratégie chinoise repose sur des technologies qui combinent trois éléments : le captage de données, l’intelligence artificielle, et les technologies de surveillance. Et, bientôt, a prévenu le directeur Centre d’excellence pour la communication stratégique de l’Otan, la Chine pourrait disposer d’une « technologie de contrôle et d’influence des esprits humains à un niveau inconnu jusqu’alors. »
« La Chine a développé ces technologies d’abord pour des raisons de politique intérieure. La Russie avait fait de même, pour son usage interne, puis a ensuite découvert qu’elle pouvait utiliser ces outils à l’extérieur. Ce sera donc probablement la même chose en Chine », a prédit M. Sârts.
« L’environnement futur ne sera donc pas aussi simple qu’avant… Des éléments clefs vont polluer notre environnement, rendant toute activité sociale plus complexe, avec la possibilité d’altérer le contenu d’une vidéo ou d’une image, empêchant de voir si elle est vraie ou fausse. Dans une campagne électorale, cela aura un effet domino : un événement vrai ne sera plus cru! Cela ébranle aussi la croyance fondamentale dans la véracité de l’information », a-t-il prévenu.
L’intelligence artificielle [pour générer des deepfakes, comme la permutation « intelligente » de visages] et le big data seront aussi des technologies à utiliser avec prudence. « Cette année, nous avons mené un test avec un scénario particulier durant un exercice militaire. Nous voulions savoir si la quantité de big data pouvait révéler les manoeuvres en cours et influencer le comportement des soldats », a relaté M. Sârts. Résultat : « Associé à l’intelligence artificielle, le big data peut influencer la sphère militaire et la société dans son ensemble », a-t-il révélé.
Pour Christian Cambon, le président de la commission sénatoriale des Affaires étrangères et des Forces armées, il faudrait adopter une posture plus « offensive » pour contrer de telles pratiques. « Ces ces manipulations constituent une menace pour notre démocratie et nos valeurs. Une fois de plus, à force de tout accepter, de se plaindre sans répondre, nos régimes démocratiques risquent de subir des perturbations beaucoup plus fortes », a-t-il dit.
« Actuellement, nous faisons face à de fausses informations : si une partie de la population a exprimé de vraies difficultés, d’autres veulent modifier notre système institutionnel et menacent nos valeurs républicaines », a ajouté M. Cambon, en faisant référence au mouvement des « gilets jaunes ». Et de conclure : « Retrouvons les moyens de nous défendre et de porter des coups, pour neutraliser l’adversaire, et pas seulement verbalement. »