La nature hybride d’entreprises à la fois privées, d’entités idéologiques à part entière et d’acteurs géopolitiques des Big Tech pose deux questions politiques désormais centrales : celle de leur intention et celle de leur gouvernance.
Manipulations et ingérences sur Facebook des élections américaines de 2016 révélées par le scandale Cambridge Analytica, faux comptes franco-russes au Sahel détectés puis révélés par Meta (Facebook) en 2020, déplateformisation de Trump sur Twitter en 2020 suite à l’invasion du Capitole, permissivité de X (Twitter) lors des élections au Brésil puis en Turquie en 2023, guerre informationnelle russo-ukrainienne à partir de 2022 qui fait rage sur Facebook, Twitter, Instagram ou TikTok… ; cette liste non exhaustive démontre un fait saillant, nouveau, inédit : les Big Tech, qu’elles soient américaines, mais aussi chinoises (1), tiennent désormais un rôle géopolitique de premier plan.
Des acteurs géopolitiques hybrides
Les « luttes informationnelles » qui font rage ont mis en lumière la militarisation des réseaux sociaux devenus le théâtre d’opérations de cyber-déstabilisation. La guerre en Ukraine ou la confrontation franco-russe au Sahel pointent là encore le changement d’échelle, donc de nature, de ces nouveaux espaces de confrontation entre nations.
Les guerres de l’information qui s’y jouent sont désormais industrialisées, s’épanouissent à bas coût et à bas bruit sur des réseaux sociaux devenus partie intégrante de l’arsenal des guerres hybrides dont les trois matières premières et intangibles sont : les modèles artificiels de viralité, l’information (et son corollaire, la désinformation), nos schémas cognitifs et perceptifs. L’usage (para)étatique des réseaux aggrave la question de la modération pour l’emmener sur le champ sensible des stratégies militaires d’influence.
À l’instar de ChatGPT développée par OpenAI, les intelligences artificielles génératives de voix, d’images et de textes vont rapidement avoir la capacité à construire des univers de « faux » informationnel de bout en bout de la chaine. Les métavers de demain démultiplieront la capacité de manipulations cognitives et rendront pratiquement impossible la modération telle que nous l’entendons aujourd’hui. L’injection de narratifs à des fins de déstabilisation se fera demain par la parole, entre avatars. Comment contrôler alors ce qui se dit, et non ce qui s’écrit, sans tomber dans la paranoïa, la censure et, in fine, dans des pratiques techno-autoritaires que l’on rejette ? Vaste question que la seule modération ne permettra pas de résoudre.
Plus fondamentalement, les Big Tech ne sont pas simplement des « réseaux sociaux », des « outils d’IA » ou des plates-formes de streaming… Elles sont des infrastructures informationnelles en tant que telles et, de ce fait, ont rapidement muté d’espaces civils ludiques en acteurs (géo)politiques systémiques, des espaces d’influence et de puissance au cœur des dispositifs de pouvoir, incontournables dans le champ « cyber-hybride » mais aussi pour la redéfinition des contours de nos modèles démocratiques. Partant, quel rôle jouent-ils dans la lutte contre la désinformation ou, à l’inverse, son amplification ? La question, ainsi posée, est forcément complexe car elle suppose d’une part un traitement différencié de chacun de ces acteurs systémiques et, d’autre part, de dénouer ensuite leurs ambiguïtés idéologiques, économiques.
Comprendre l’ambigüité hybride des géants technologiques par le « triptyque des Big Tech » (2)
Pour saisir la question complexe de leur intentionnalité, il est nécessaire de comprendre les sous-jacents technopolitiques posés par les Big Tech. Nous avons formalisé pour cela le triptyque des Big Tech, fort aisé à comprendre. Chaque angle du triptyque est symbiotiquement imbriqué avec les deux autres pour que le système Big Tech fonctionne. Appliqué au cas particulier des réseaux sociaux, cela donne :
• un modèle économique, celui de la concentration capitalistique, de la gratuité et de la captation massive de données monétisables (en attendant de glisser vers des modèles payants actuellement en test) ;
• un modèle technologique, celui des algorithmes de modération et de recommandation, qui permet la viralité en temps réel des contenus et donc la captation cognitive des utilisateurs ;
• un modèle idéologique ou un agenda politique, permis par les deux premiers angles, qui se matérialise par la politique de modération choisie et qui renvoie souvent à « l’arbitraire » des décisions prises à la tête des réseaux.
Le cas de Meta est symptomatique de l’imbrication des trois angles. Les Facebook Files (3) ont mis en lumière une politique de modération qui coïncide entre arbitraire et géopolitique, un mélange détonant. Ils ont démontré une partialité dans la modération, à géométrie variable, de certains contenus pour des raisons politiques. Ces décisions seraient arbitrées par Mark Zuckerberg en personne. Lors des manifestations faisant suite à la mort de George Floyd, Mark Zuckerberg aurait personnellement décidé de maintenir en ligne les posts de Donald Trump — que Zuckerberg, par l’intermédiaire de Peter Thiel, alors actionnaire de Facebook, a fréquenté personnellement (4) — qui incitaient pourtant explicitement à la violence (5). Sous d’autres cieux, toujours en 2020, le Vietnam aurait demandé à Zuckerberg de modifier sa politique de modération locale conformément à une loi punissant les prises de position critiques à l’égard du gouvernement. Zuckerberg aurait alors décidé unilatéralement d’accéder à la demande (6). Par les révélations de la lanceuse d’alerte Frances Haugen, on apprend par exemple que Meta a mis en place un système de risque pays. Les pays « prioritaires » (selon quels critères ? Mystère) se sont vu attribuer des efforts de surveillance renforcée et des équipes de modération plus importantes. Les États-Unis, l’Inde ou le Brésil sont sur le niveau maximal de « monitoring ». Le deuxième échelon regrouperait quant à lui des pays comme l’Allemagne, l’Iran, l’Italie ou l’Indonésie. Le troisième niveau inclurait 22 pays sans plus de détail. Le quatrième et dernier échelon, autant dire totalement délaissé par les équipes de Meta, est un fourre-tout nommé « reste du monde » à l’instar de la Birmanie par exemple. Le massacre des Rohingya aurait sans doute bien eu besoin de renforts dans la maitrise de la montée virale des appels à la violence et à la haine, Facebook ayant joué un rôle central dans les exactions en tant que principale plate-forme politique. Début 2022, c’est le gouvernement ukrainien qui a interpellé Meta sur X-Twitter (7) pour exiger une censure active de certains comptes russes. Là encore, Meta a obtempéré. Un peu plus tard, le réseau a décidé d’opérer une modération très légère de publications ukrainiennes incitant à la violence contre les soldats russes (8), puis acté, sans concertation, en avril 2022, de limiter le rôle de son « Oversight Board », qui exprimait des « préoccupations constantes en matière de sûreté et de sécurité » dans le contexte complexe de la guerre en Ukraine (9). Sur le volet économique, le problème de gouvernance est encore plus tranché.
X (ex-Twitter) est l’autre cas emblématique. Depuis le rachat du média social, c’est bien sur les deux premiers angles du triptyque (économique, technologique) qu’Elon Musk a voulu jouer pour « nettoyer » X des faux comptes et des bots (10) afin de donner corps à sa vision de la liberté d’expression (angle idéologique). Sa proposition d’abonnement payant participait de la mise en application du triptyque. Démonstration : sur le plan idéologique, Musk souhaitait faire appliquer sur Twitter une liberté d’expression maximaliste. Cela s’est traduit en modèle technologique par le raisonnement suivant : la contrepartie d’une liberté d’expression maximale est une modération minimale ; ce qu’il a entrepris d’appliquer en organisant des coupes réglées dans les équipes de modérateurs (11) ou en testant, de façon plus ou moins erratique, diverses formules algorithmiques de recommandation (12). Pour résoudre « à la racine » le problème de la modération, il s’est appuyé sur le dernier angle du triptyque, le modèle économique. Pour assurer un débat « sain », il a proposé d’instaurer aux « frontières » du réseau un droit d’accès payant. Si en théorie le raisonnement se tenait, en pratique, le tarif était soit trop élevé, donc dissuasif pour la majorité de sa base d’utilisateurs actifs — ce qui aurait mis à risque la rentabilité du réseau déjà en difficulté — soit trop bas et donc, à l’inverse, pas assez désincitatif pour les fermes à trolls et autres fabriques de fake news qui y sévissent. En ce sens, ses difficultés sont identiques à celles des régulateurs européens qui se confrontent au même casse-tête de la modération. Si l’on revient à l’angle idéologique de notre triptyque, les partis pris de X ne s’arrêtent d’ailleurs pas à la seule acception du premier amendement de la Constitution américaine. Sous l’ère Musk, X a été accusé d’avoir participé au climat insurrectionnel qui a précédé les émeutes de Brasilia et l’invasion de la place des Trois Pouvoirs en janvier 2023 (13). Rebelote au printemps 2023, en Turquie, à la veille des élections. X annoncera officiellement le blocage de certains contenus sensibles pour préserver l’accès au réseau (14). La politique de X en matière de modération est relativement simple à comprendre : aux États-Unis, où le freedom of speech est maximaliste, Musk a instauré une modération minimale. Dans le reste du monde, le réseau accède relativement aveuglément aux demandes des gouvernements locaux. C’est, par exemple, ce qui fera dire à Musk qu’il respecterait les injonctions de la Commission européenne et le Digital Services Act (DSA) au moment où Thierry Breton s’en inquiétait ouvertement. Il est, enfin, intéressant de noter que son arrivée à la tête de Twitter a créé un appel d’air pour l’alt-right et des groupes conspirationnistes de tous bords, QAnon au premier chef qui se métamorphose progressivement en un mouvement politique à part entière (15). La réhabilitation de comptes extrémistes participe, dans la logique de Musk, à son acception totale du freedom of speech, mais avec des conséquences politiques immédiates, bien que légales du strict point de vue du droit américain, risquées du point de vue de la sécurité nationale des pays cibles. Les prises de position politiques de Musk, qu’elles concernent la politique intérieure américaine (proches de certaines mouvances de l’alt-right (16) anti-woke, probablement sous l’influence de ses ex-comparses de la mafia PayPal, Peter Thiel — qui a récemment investi dans Rumble, réseau fréquenté par l’alt-right et les QAnon (17) — ou encore David Sacks (18)) ou en matière de politique extérieure (le plan de paix qu’il a proposé sur Twitter pour l’Ukraine, ses déclarations sur le statut de Taïwan ou encore les récentes révélations par son biographe Walter Isaacson quant à sa décision de ne pas activer Starlink en aide aux armées ukrainiennes en Crimée par crainte d’une « escalade ») brouillent encore plus les frontières du légal, de l’arbitraire et du légitime.
Enfin, Google semble s’être positionné comme l’acteur technologique le plus mûr, collaborant peut-être le plus activement avec les gouvernements et cela, que les opérations soient perçues comme des menaces intérieures (durant la Covid-19 par exemple) ou face aux opérations d’ingérences extérieures, se positionnant comme un acteur systémique de premier plan, comme opérateur opérationnel d’États qui n’ont pas les moyens de mettre en œuvre leur politique de modération et répercutant sur les méta-plates-formes leurs propres manquements. Les récentes prudences de Google quant à la sortie retardée en Europe de Bard, IA générative concurrente de ChatGPT, atteste de son positionnement politique.
Urgence d’une alliance technologique
À partir de 2018, suite au scandale de Cambridge Analytica de 2016, les grandes plates-formes avaient alors pris officiellement des mesures drastiques en matière de modération, recruté massivement des équipes de modérateurs pour lutter contre les manipulations et les tentatives d’ingérences. Cinq ans plus tard, le vent de la modération a tourné : Meta et Twitter ont vidé les équipes de modération de leur substance pour des raisons à la fois économiques (recherche d’efficience purement financière et rationalisation des coûts en coupant dans les « fonctions support ») et/ou idéologiques (vision maximalisme de la démocratie comme un gigantesque « marché à idées »).
Par ailleurs, le modèle d’affaires des réseaux sociaux (gratuité, viralité) est un point bloquant à toute politique de modération extérieure réellement efficace. Un article de la MIT Technology Review a mis en évidence cette contradiction au cœur du problème (19). L’enquête révèle que Meta et Google ont versé des millions de dollars de publicité à des acteurs du clickbait, alimentant la détérioration des écosystèmes d’information. Partant de là, à quoi bon revendiquer des efforts en matière de modération d’un côté si de l’autre ces mêmes plates-formes financent certains sites de désinformation liés à la fachosphère ou aux groupes conspirationnistes ?
En réalité, le fond du problème est bien plus radical que la question de la modération. Il réside dans l’ambivalence de la nature même de ces acteurs hybrides, cet enchevêtrement entre rentabilité, idéologie et politique. L’enjeu de la gouvernance des Big Tech est central, suppose des réflexions de fond et non des mesures d’encadrement à la marge du système. Le cœur de la problématique tient en quelques mots : les modèles économiques des plates-formes, basés sur la recherche quasi exclusive de la rentabilité, structurent les nouveaux espaces publics et démocratiques. Dès lors, le modèle devient parfaitement « corruptible » car si la désinformation est rentable, et elle l’est, alors elle est nativement compatible avec les modèles d’affaires actuels des plates-formes, l’une alimentant l’autre. Couplée au microciblage politique, les dégâts politiques et sociaux peuvent alors être terribles, nous en avons eu un avant-goût avec le scandale de Cambridge Analytica. Les réglementations européennes, comme le DSA, bien que fort utiles, ne représentent que la partie défensive-normative d’une démarche qui doit être plus globale. Dans une approche plus offensive, plutôt qu’un repli souverainiste crispé, nous gagnerions à sortir de dogmes anachroniques pour dessiner les contours d’une forme nouvelle de souveraineté élargie et collaborative autour d’une alliance technologique transatlantique (20) qui redéfinirait les rôles et responsabilités de plates-formes transfrontalières devenues des infrastructures géopolitiques.
L’absence d’une gouvernance technologique coordonnée de part et d’autre de l’Atlantique est en train de nous faire perdre la première partie de la bataille normative et idéologique. Pour continuer à exister face aux nouvelles puissances, nous allons sans doute devoir renouveler rapidement nos modes de gouvernance, nous aligner et nous mettre en ordre de bataille autour d’une cogouvernance qui redéfinit les règles du jeu entre États et méta-plates-formes.
Notes
(1) Ce texte se concentrera uniquement sur le cas des Big Tech américaines.
(2) Cette partie est une version actualisée de l’article publié par l’auteur pour l’Institut Montaigne dont la version intégrale est accessible en ligne : Asma Mhalla, « Liberté d’expression et réseaux sociaux : l’impasse de la modération », Institut Montaigne, 11 janvier 2023 (https://rb.gy/ocx64).
(3) Mark Scott, « Facebook did little to moderate posts in the world’s most violent countries », Politico, 25 octobre 2021 (https://rb.gy/mm3wc).
(4) Andrew Solender, « Trump Says No Friendly Dinners With Zuckerberg “Next Time” He’s President », Forbes, 4 juin 2021 (https://rb.gy/edrcq).
(5) Elizabeth Dwoskin, Craig Timberg, Tony Romm, « Zuckerberg once wanted to sanction Trump. Then Facebook worte rules that accommodated him. », The Washington Times, 28 juin 2020 (https://rb.gy/ku7lq).
(6) David S. Cloud, Shashank Bengali, « Facebook touts free speech. In Vietnam, it’s aiding in censorship », Los Angeles Times, 22 octobre 2020 (https://rb.gy/31l71).
(7) Mykhailo Ferorov (@FedorovMykhailo), « Mark Zuckerberg, while you create Metaverse — Russia ruins real life in Ukraine ! We ask you to ban access to @facebookapp and @instagram from Russia — as long as tanks and missiles attack our kindergartens and hospitals ! @Meta », publié sur Twitter le 27 février 2022 (https://rb.gy/bwu78).
(8) Thomas Burgel, « Facebook autorise les appels au meurtre de soldats russes, ou de Vladimir Poutine », Korri., 11 mars 2022 (https://rb.gy/nka14). Article original : Munsif Vengattil, Elizabeth Culliford, « Facebook allows war posts urging violence against Russian invaders », Reuters, 11 mars 2022 (https://rb.gy/8d9ue).
(9) Casey Newton, « How Facebook undercut the Oversight Board », The Verge, 12 mai 2022 (https://rb.gy/j4kui).
(10) Sheera Frenkel, « What Are Spam Bots and Why They’re an Issue in Elon Musk’s Twitter Deal », The New York Times, 9 juillet 2022 (https://rb.gy/e7mjd).
(11) Vittoria Elliott, Chris Stokel-Walker, « Twitter’s Moderation System Is in Tatters », Wired, 17 novembre 2022 (https://rb.gy/gamse).
(12) Taylor Hatmaker, « Twitter is going to show you more tweets from people you don’t follow », TechCrunch, 1er décembre 2022 (https://rb.gy/8dc5n).
(13) Charlotte Peet, « Musk has made Twitter a right-wing safe space in Brazil », Rest of World, 2 janvier 2023 (https://rb.gy/9h9jh).
(14) Matt Novak, « Twitter Blocks Content In Turkey One Day Before National Election », Forbes, 13 mai 2023 (https://rb.gy/13u5v).
(15) Drew Harwell, « QAnon, adrift after Trumpt’s defeat, finds new life in Elon Musk’s Twitter », The Washington Post, 14 décembre 2022 (https://rb.gy/rnse5).
(16) Charlie Warzel, « Elon Musk Is a Far-Right Activist », The Atlantic, 11 décembre 2022 (https://rb.gy/hynag).
(17) Daniel Zuidijk, « Conspiracy-Filled Rumble Tests Market for “Free Speech” Video », Bloomberg, 29 septembre 2022 (https://rb.gy/3d7go).
(18) Jacob Silverman, « The Quiet Political Rise of David Sacks, Silicon Valley’s Prophet of Urban Doom », The Soapbox, 18 octobre 2022 (https://rb.gy/q3w6f).
(19) Karen Hao, « How Facebook and Google fund global misinformation », MIT Technology Review, 20 novembre 2021 (https://rb.gy/qkueo).
(20) Asma Mhalla, « Numérique : “Une cogouvernance transatlantique placée en dehors des institutions étatiques constituerait une avancée politique majeure” », Le Monde, 23 juin 2021 (https://rb.gy/pvlly).
Asma Mhalla