avril 24, 2025
LA SOCIÉTÉ "MY MEDIA GROUP " SOCIÉTÉ ÉDITRICE DU QUOTIDIEN "DAKARTIMES" DERKLE CITE MARINE N° 37. EMAIL: courrierdkt@gmail.com. SITE WEB: www.dakartimes.net.
A la une

DESINFORMATION : Immersion au cœur d’une lutte sans relâche

Le revue « Esprit Défens » éditée par les services de communication du ministère des Armées de la France, s’est penchée sur la problématique de la désinformation. Dans un dossier intitulé « Désinformation : La vérité malmenée », elle montre que la désinformation a toujours existé en temps de guerre, mais la révolution numérique – et surtout l’émergence des réseaux sociaux – ont bouleversé cette pratique. Selon « Esprit Défense », autrefois national et réservé aux institutions médiatiques reconnues, le champ informationnel est devenu mondial et ouvert à une quantité infinie de contributeurs. Ainsi, il n’a donc jamais été aussi simple de polluer le flux d’informations publiées quotidiennement, avec de faux contenus conçus spécifiquement pour déstabiliser l’adversaire. Dans un contexte international tendu, ces manœuvres d’ingérence et de déstabilisation ont pris une ampleur sans précédent, selon la revue. Quel est l’état de la menace et comment la France se protège-t-elle ? DakarTimes vous propose une immersion au cœur d’une lutte sans relâche dévoilée par « Esprit défense ».

La désinformation, une arme de guerre

Véritable arme de déstabilisation, la désinformation bouleverse les rapports de force entre États. Certains pays, comme la Russie, n’hésitent plus à s’en servir pour influencer les opinions publiques, pour en tirer un bénéfice stratégique. La France, à travers plusieurs entités, s’organise face à ces menaces d’un autre genre.

La Revue rappelle que le 18 novembre 2021, dans la petite ville de Kaya, au Nord du Burkina Faso. Des manifestants ont barricadé la route. Les pneus et branches entassés empêchent le passage d’un convoi de ravitaillement de l’opération Barkhane. Les véhicules des armées françaises, destinés à la base de Gao, au Mali, sont la cible de jets de pierres. Ils doivent rebrousser chemin. Les manifestants sont persuadés que les soldats transportent des armes pour les livrer aux djihadistes. La dégradation de la situation sécuritaire a laissé place à la prolifération de fausses informations sur les réseaux sociaux, instrumentalisant la colère de la population envers les armées françaises. Ces manifestations violentes illustrent l’enjeu de la bataille des perceptions dans un contexte stratégique sensible. La désinformation, c’est-à-dire la diffusion d’informations inexactes dans le but de tromper et de causer un préjudice, devient un moyen de nuire. L’objectif ? Déstabiliser un adversaire, l’isoler et affaiblir ses capacités d’action. La désinformation existe depuis toujours en temps de guerre. Chaque conflit s’est accompagné de son lot d’actions de propagande pour atteindre le moral de l’ennemi et espérer en tirer un avantage sur le terrain. Mais la révolution numérique a bouleversé cette pratique. La généralisation de l’accès à internet permet désormais à chaque utilisateur de s’affranchir du temps et des frontières géographiques. L’information se diffuse quasi instantanément, notamment par l’usage permanent des réseaux sociaux sur l’ensemble du globe.

Ces derniers révolutionnent notre rapport à l’information. « D’un certain point de vue, ils constituent la fabrique de l’opinion », souligne Marc-Antoine Brillant, chef du service de vigilance et de protection contre les ingérences numériques étrangères. En effet, 46 % des Français s’informent quotidiennement sur les réseaux sociaux ou auprès des influenceurs1. L’incertitude réside dans la logique économique des plates-formes numériques qui, pour maximiser leurs revenus publicitaires, enferment les utilisateurs dans des « bulles de filtre ». Cloîtrés dans un environnement numérique correspondant uniquement à leurs goûts, les utilisateurs dépensent plus de temps sur le réseau social. Une logique qui ne favorise pas une information fiable et diversifiée. Face à ces nouvelles habitudes numériques, les infox – fausses informations, appelées fake news en anglais – conçues spécifiquement pour influencer les opinions publiques, circulent de manière effrénée. Elles se propagent, pour 88 % d’entre elles, par le biais des réseaux sociaux, principalement X et TikTok. « Ce succès s’explique, car elles font appel aux émotions, et c’est vendeur », note Carole, psychologue au Centre interarmées des actions sur l’environnement. Ces fausses informations cherchent à générer un engagement – mention J’aime2, commentaire ou partage – de la part de l’utilisateur pour augmenter leur visibilité. Le risque ? Relayer une infox sans se rendre compte que l’information est manipulée, et même sans vouloir causer du tort : c’est la mésinformation.

Rupture technologique

« Les menaces sont démultipliées avec l’arrivée des nouvelles technologies. Elles rendent les manœuvres informationnelles redoutables », affirme Céline Marangé, chercheuse à l’Institut de recherche stratégique de l’École militaire. Les bots3 et les fermes à trolls, de plus en plus facilement détectables, sont devancés par l’intelligence artificielle (IA). Dès lors, la production et la falsification de contenus s’industrialisent à grande échelle. Ces contenus, réalistes et crédibles, sont produits en un temps record et avec un coût limité. Ils servent ensuite à animer une multitude de faux comptes sur les réseaux sociaux, laissant paraître une activité quasi humaine. Des publications coordonnées sur plusieurs plates-formes sont capables de saturer le débat public : elles peuvent rendre visible artificiellement un sujet pour polariser l’opinion publique ou, à l’inverse, détourner l’attention d’un fait d’actualité.

À titre d’exemple, quelques jours après l’attaque du Hamas, le 7 octobre 2023, lorsqu’une multitude d’internautes ont partagé des photos d’étoiles de David bleues taguées dans les rues du Xe arrondissement de Paris. Ces publications, devenues virales, ont attisé de vives tensions politiques, alors qu’elles étaient du réseau Recent Reliable News, composé de 1 095 bots sur la plate-forme X. Avec un total de 2 589 publications, le réseau a créé de toute part cette polémique. Derrière ces profils inauthentiques, se cachaient alors plusieurs individus et sociétés russes. L’IA permet aussi de créer des deepfakes, ces infox audio ou vidéo manipulées et quasiment indétectables. « Un jour, il sera possible d’imiter la voix d’un commandant don nant tel ou tel ordre, ou de faire tenir à un dirigeant des propos destinés à échauffer les esprits », souligne Céline Marangé. Distinguer le vrai du faux s’avère de plus en plus difficile. Cinq mille électeurs du New Hampshire en ont déjà fait les frais. Ils ont reçu, lors des primaires Démocrates américaines en janvier 2024, un appel téléphonique du candidat Joe Biden. Le message ? Ne vous rendez pas aux urnes, car « voter ce mardi ne fera qu’aider les Républicains à faire réélire Donald Trump ». Pourtant, la voix derrière le combiné était un deepfake, créé dans le but de perturber les élections.

L’espace informationnel, prolongement du territoire

Alors que la désinformation sévissait lors des conflits, elle s’installe désormais en temps de paix. « Les compétiteurs s’en servent pour affaiblir les capacités de réactions et de résistance d’un adversaire », affirme Céline Marangé. Et cela, sans recours à la force. « Une partie de la population taïwanaise a révélé qu’elle ne se battrait pas en cas d’invasion chinoise, parce que, selon elle, les Chinois sont sympathiques sur l’application TikTok », témoigne le général Jean-Michel Meunier, chef de la cellule Anticipation stratégique et orientations (ASO) de l’État-major des armées. Cette stratégie exploite un contexte de vulnérabilités des démocraties occidentales, engendrées par une forte polarisation politique, la montée des populismes et une défiance croissante envers les élites et les institutions démocratiques. Ces vulnérabilités, la Russie en est consciente et s’attèle à les exploiter. « Les autorités du pays considèrent l’espace informationnel, à savoir cet espace où circulent les informations sous format numérique, comme un prolongement de leur territoire physique », relève Kevin Limonier, maître de conférences à l’Institut français de géopolitique (Université Paris 8). La France devient une cible, notamment en Afrique francophone où les armées françaises sont visées par des campagnes de désinformation depuis une dizaine d’années. Plus récemment, c’est le soutien français à l’Ukraine qui est dans le collimateur des pouvoirs russes. Le réseau Reliable Recent News a diffusé de nombreux contenus prorusses, début 2023, en usurpant l’identité de sites internet de médias traditionnels, mais aussi gouvernementaux. Le réseau a créé une réplique des sites du journal Le Monde et du ministère de l’Europe et des Affaires étrangères, pour publier des articles hostiles à l’Ukraine. Cette pratique, appelée typosquatting, les armées en ont aussi été victimes : le 15 mars 2024, un faux portail de recrutement, reprenant la charte graphique du site de l’armée de Terre, proposait de s’engager en Ukraine, alors que la France n’y est pas déployée.

La Russie a multiplié les infox concernant la présence de mercenaires français combattant aux côtés des Ukrainiens. En janvier 2024, le ministère russe de la Défense a déclaré avoir frappé un immeuble de Kharkiv, en Ukraine, prétendument utilisé comme « zone de déploiement temporaire par des mercenaires, dont la plupart étaient des citoyens français ». Le Kremlin cherche ainsi à « affaiblir, partout où il le peut, notre résilience nationale. Il sème le doute sur nos institutions et, sur le long terme, tente d’instaurer une angoisse dans la population », résume Kevin Limonier. La Russie n’est pas la seule à utiliser une méthode agressive. L’Azerbaïdjan, par exemple, s’est révélé hostile envers la France. Le pays vise spécifiquement les territoires ultramarins français pour alimenter et instrumentaliser les idées des mouvements indépendantistes. C’était notamment le cas en Nouvelle-Calédonie en 2024, lorsque les campagnes azerbaïdjanaises ont amplifié et orchestré les émeutes qui ont troublé l’île.

Gagner la guerre de l’influence

La France prend ces menaces dans l’espace informationnel au sérieux. En décembre 2022, l’actualisation de la Revue nationale stratégique érige l’influence, ou le fait d’obtenir des effets sur les attitudes et les com portements en agissant sur les perceptions5, au rang de sixième fonction stratégique6. Ce changement de statut vise à défendre les valeurs de la France, à promouvoir ses engagements et à répondre aux attaques contre ses intérêts, en particulier dans le champ informationnel. Pour les armées, l’influence devient un prérequis à toute opération militaire extérieure. Il s’agit, pour le chef d’état-major des armées, le général Thierry Burkhard, de « gagner la guerre avant la guerre ». La cellule ASO de l’État-major des armées voit ainsi le jour en 2022. Sa mission : structurer une chaîne agissant dans le champ de l’influence et de la lutte informationnelle. Celle-ci comprend l’élaboration d’une doctrine et de réflexions autour des équipements, de leur emploi et de l’encadrement juridique des actions.

La cellule ASO s’assure surtout de la bonne prise en compte de l’influence dans la conception des opérations. « Plus aucun convoi logistique ne part sans que soit étudié son risque informationnel », illustre le général Jean-Michel Meunier, chef de la cellule ASO, en faisant écho au convoi bloqué au Burkina Faso et au Niger en 2021. « Nous réfléchissons alors à l’interprétation de nos actions par la population, nous analysons si le terrain informationnel est miné et nous prévoyons des moyens preuves, comme des capteurs d’images, qui pourraient servir à dénoncer les fausses informations », détaille-t-il. Le service mène aussi des actions de prébunk (manœuvre d’anticipation dans le champ informationnel, ndlr). Un exemple : en 2023, un navire de la Marine nationale doit accoster dans le port d’un pays africain. Or, des rumeurs circulent sur les motivations de l’équipage. Beaucoup d’habitants suspectent un débarquement de légionnaires français d’envahir le pays. « Nous avons proposé à des influenceurs, à l’audience assez forte dans le pays, de monter à bord pour réaliser la traversée avec nous, explique le général Meunier. Ils ont alors publié sur les réseaux sociaux leur vie à bord. Les fausses informations se sont dissipées et aucune manifestation n’a été signalée lors du dépareillage. »

Rétablir la vérité

Dans cette chaîne de l’influence, les actions dans le domaine numérique sont menées par le Commandement de la cyberdéfense (Comcyber). Cette unité conduit la lutte informatique d’influence. Concrètement, cela revient à détecter, caractériser et contrer les attaques informationnelles dans le cyberespace, en appui des opérations militaires et toujours à l’extérieur du territoire national. Les cybercombattants veillent les plates-formes numériques pour détecter les manœuvres informationnelles. « Un travail ardu face à la masse de contenus », note le général Aymeric Bonnemaison, commandant de la cyberdéfense. La caractérisation vient ensuite, car « une opinion personnelle qui nous est hostile n’est pas nécessairement une attaque informationnelle », poursuit-il. Pour qu’elle le soit, elle doit être inauthentique, coordonnée et doit utiliser des systèmes d’amplification, comme des fermes à trolls par exemple.

Le Comcyber peut, enfin, riposter contre des narratifs hostiles aux intérêts des armées françaises, dans le strict respect du droit et à l’extérieur du territoire national : c’est le rétablissement de la vérité. L’affaire du charnier de Gossi est un exemple marquant. Alors que les militaires français viennent de restituer la base militaire aux forces maliennes, le 19 avril 2022, des images d’un charnier supposément présent sur la base sont diffusées les jours suivants sur Twitter. Les armées françaises sont accusées de crime de guerre. Des drones de surveillance français ont pourtant filmé des hommes de Wagner en train de constituer ce faux charnier. Aussitôt la fausse information diffusée sur le réseau social, les cybercombattants ont répliqué avec les images de surveillance pour dénoncer l’attaque. En attendant le dernier moment pour divulguer leur vidéo, les soldats français ont déjoué la manœuvre de désinformation adverse.

Agir permet de contrer nos compétiteurs, de les dénoncer ou de les exposer. Ces actions s’exercent uniquement en appui des opérations militaires et dans un cadre strict : « Pas de mensonge, pas de contrainte et pas de perfidie, nous n’allons pas nous cacher derrière la Croix-Rouge par exemple, ajoute le général Bonnemaison. Nos adversaires, eux, ne se limitent pas. Il nous faut donc être plus imaginatifs. »

Investigations numériques

Toutes les actions d’influence du ministère des Armées sont coordonnées avec le ministère de l’Europe et des Affaires étrangères, influence et diplomatie étant deux notions étroitement liées. Les décisions de dénonciation d’une manœuvre de désinformation sont prises de façon concertée, car « cela revient à engager une action à l’encontre d’un État », indique Christophe Lemoine, porte-parole du Quai d’Orsay. Les deux entités se retrouvent deux fois par semaine au sein de la task force désinformation, accompagnées de Viginum, le service de vigilance et de protection contre les ingérences numériques étrangères. L’objectif ? Établir un état des lieux exhaustif des menaces dans le champ informationnel et proposer des actions de riposte. Viginum constitue le bouclier de la France pour détecter et caractériser les ingérences numériques étrangères, volet numérique de la manipulation de l’information. Créé en 2021, ce service relève du Premier ministre et réalise des investigations en ligne, en sources ouvertes.

Ces enquêtes, qui peuvent être publiées sous forme de rapports, servent ensuite à toutes les institutions publiques mais aussi à la société civile. Quelques mois avant les élections du Parlement européen, en février 2024, les analystes de Viginum ont, par exemple, identifié un site d’information en langue française, Pravda.fr, à la ligne éditoriale prorusse. « Le service a mis en lumière, à partir de cette URL, un écosystème de 193 sites internet d’information visant principalement les audiences européennes. Nous l’avons baptisé Portal Kombat, énonce Marc-Antoine Brillant, chef de Viginum. Ce vaste dispositif de propagande exploitait parfaitement les particularités culturelles de chaque pays visé, ainsi que les thématiques discutées dans chaque débat public. » S’appuyant sur cette analyse, les autorités françaises ont décidé de révéler cette vaste campagne. « Nous suspections la montée en puissance de cet écosystème à l’approche des élections européennes », confie le chef de Viginum. Révéler publiquement une campagne de manipulation de l’information a des vertus : cela gêne l’adversaire et lui impose un coût. « Nous envoyons un message clair aux opérateurs adverses : nous savons ce que vous faites », expose Marc-Antoine Brillant. Les révélations avertissent aussi le grand public. Le but : faire prendre conscience de l’existence des campagnes de manipulation de l’information et du fait que chacun peut en être victime.

La sensibilisation de la population est l’une des clés pour lutter contre la désinformation. Il devient indispensable d’encourager chaque citoyen, lorsqu’il a un doute sur une information, à la remettre en question, à croiser ses sources et à vérifier les faits. Lors du Sommet pour l’action sur l’intelligence artificielle, organisé par l’Élysée les 10 et 11 février derniers, Viginum a annoncé avoir développé deux outils au bénéfice de la société civile, pour aider à mieux détecter certains procédés utilisés pour opérer des ingérences numériques. Ces outils, s’appuyant eux-mêmes sur l’IA, vont de la détection du contenu textuel dupliqué jusqu’à un « métadétecteur de contenus artificiels », se réjouit Marc-Antoine Brillant. L’intelligence artificielle, bien qu’elle puisse représenter une menace par son usage détourné, constitue aussi une solution pour lutter contre les manipulations de l’information.

Avec Esprit Défense

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *