Skip to main content

À l’ère numérique, la guerre de l’information ne se joue plus seulement dans les journaux ou à la télévision. Elle se livre sur les réseaux sociaux, où la frontière entre communication, manipulation et propagande devient de plus en plus floue. De nombreuses puissances étatiques exploitent ces plateformes pour peser dans les débats politiques, influencer les opinions publiques, et même déstabiliser des régimes adverses.

Tour d’horizon de ces stratégies d’influence, aussi discrètes qu’efficaces.

1- L’astroturfing : créer une fausse adhésion populaire

Les campagnes de désinformation s’appuient souvent sur un phénomène bien rodé : l’astroturfing, c’est-à-dire la fabrication artificielle d’un mouvement populaire via de faux comptes, souvent automatisés. Le but : faire croire qu’un grand nombre de personnes soutiennent une idée, alors qu’il s’agit d’une illusion numérique.

En modifiant la perception de l’adhésion collective, ces campagnes exploitent un biais psychologique bien connu : la preuve sociale. L’utilisateur moyen est plus enclin à croire ou partager une idée s’il pense qu’elle est largement répandue. Ces faux comptes, en masse, peuvent aussi tromper les algorithmes, qui privilégient ensuite les contenus les plus diffusés — même s’ils sont fallacieux ou orientés.

2- Le marketing d’influence à des fins politiques

On pense souvent que les influenceurs ne font que vendre des baskets ou du mascara. Mais certains contenus en apparence anodins peuvent avoir un but bien plus stratégique : diffuser une idéologie, orienter un vote, ou affaiblir un adversaire. Bref : faire de la politique, sans toujours que ce soit explicite.

Certains gouvernements ou partis orchestrent des campagnes coordonnées avec des influenceurs populaires, rémunérés pour partager des messages idéologiques, “réagir” à l’actualité, ou pousser certains récits. Les contenus sont présentés comme spontanés, mais suivent en réalité une ligne éditoriale précise, souvent marquée par des éléments de langage récurrents, une forte charge émotionnelle, et une absence de transparence sur les intentions ou financements.

Pour mieux atteindre la Gen Z, ces campagnes empruntent les codes de la pop culture, de l’humour ou des memes, détournant les outils du divertissement pour servir une propagande douce — mais efficace.

3- La Russie, pionnière de la guerre informationnelle

Depuis 2013, la Russie est un acteur majeur de la guerre numérique. S’inspirant de la pensée militaire de Sun Tzu — « affaiblir l’ennemi en temps de paix » — elle a développé une véritable industrie de la désinformation. À Saint-Pétersbourg, l’Internet Research Agency (IRA) emploie des centaines de personnes chargées de produire et diffuser de la propagande.

Ces “fermes à trolls” ont été particulièrement actives lors de plusieurs événements : élections américaines de 2016, Brexit, gilets jaunes en France, ou encore le conflit en Ukraine. En 2022, l’Ukraine a identifié 86 fermes russes, responsables de plus de 3 millions de faux comptes, ayant touché 12 millions d’utilisateurs.

En parallèle, des influenceurs européens ont été directement ciblés. Une enquête de 2024 a révélé que plus de 2 000 influenceurs avaient été approchés pour relayer des contenus pro-Kremlin. Une vingtaine aurait accepté, vantant la puissance militaire russe ou jouant sur la peur d’une guerre mondiale pour orienter les opinions.

Des exemples ailleurs en Europe

🇷🇸 Serbie : amplification des récits pro-Kremlin

En Serbie, des influenceurs proches du gouvernement ont été accusés d’organiser des campagnes coordonnées pour soutenir le pouvoir en place et dénigrer l’opposition. Ces actions incluent la diffusion de messages politiques sous couvert de contenus « spontanés » .

🇲🇰 Macédoine du Nord : influence sur les campagnes électorales

Lors des campagnes électorales, plusieurs influenceurs ont relayé des messages politiques sans transparence sur les partenariats, notamment autour de la question de l’identité nationale ou des relations avec l’Union européenne .

🇫🇷 France : IA et populisme numérique

Lors des législatives de 2024, l’extrême droite française a utilisé des vidéos générées par IA pour diffuser ses idées à bas coût, sans équipes de campagne classiques. Objectif : saturer l’espace numérique avec des contenus courts, engageants et orientés (Le Monde).

4- TikTok : un outil d’influence au service de Pékin ?

Avec ses vidéos courtes et son ton léger, TikTok paraît n’être qu’un simple outil de divertissement. Pourtant, derrière les chorégraphies et les tendances se cache un puissant levier d’influence géopolitique, au cœur des tensions entre la Chine et les démocraties occidentales.

Propriété de ByteDance, entreprise basée à Pékin, TikTok est soumis à la loi chinoise sur la sécurité nationale (2017), qui impose aux entreprises de collaborer avec les services de renseignement. En pratique, les données personnelles des utilisateurs, même hors de Chine, peuvent être transmises aux autorités, sans transparence. Bien que TikTok affirme stocker les données européennes en Irlande ou en Norvège, plusieurs accès internes depuis la Chine ont été documentés.

Mais c’est surtout l’algorithme de TikTok qui interroge. Bien loin d’être neutre, il filtre et oriente les contenus : les sujets sensibles pour Pékin (Tibet, Hong Kong, Ouïghours, contestation) sont souvent censurés, tandis que d’autres, favorables à la Chine ou polarisants pour les démocraties, peuvent être mis en avant de manière artificielle.

 

En 2020, The Guardian a révélé que TikTok avait émis des consignes internes pour supprimer les contenus mentionnant la place Tian’anmen, les revendications des minorités musulmanes ou encore le mouvement indépendantiste tibétain. Ces directives avaient fuité via des modérateurs européens.

 

Plusieurs experts parlent d’une “guerre cognitive” : une forme d’influence douce, insidieuse, mais massive, qui agit sur les représentations, les émotions et les opinions, notamment chez les plus jeunes. Avec plus de 1,7 milliard d’utilisateurs dans le monde, TikTok est devenu un canal redoutable pour façonner les imaginaires, lisser l’image de la Chine et affaiblir la confiance dans les institutions démocratiques rivales.

Dans ce paysage conflictuel, TikTok n’est pas un cas isolé. Aux États-Unis, le gouvernement a déjà demandé à Facebook de censurer certains contenus durant la pandémie. En Russie, le fondateur de Telegram, Pavel Durov, a été inquiété par la justice française dans une affaire de blanchiment. La guerre de l’information ne se joue plus seulement sur les contenus : elle passe aussi par le contrôle — direct ou indirect — des plateformes elles-mêmes.

5- L’IA : un multiplicateur de puissance

Avec l’émergence de l’intelligence artificielle, plus besoin de fermes à trolls humaines : des agents IA peuvent désormais générer des textes, vidéos, images, commentaires et memes à la chaîne, avec un réalisme bluffant.Ces contenus automatisés, diffusés par des bots, peuvent se faire passer pour des opinions authentiques, augmentant l’illusion d’un soutien populaire. Ce brouillage informationnel rend la détection et la régulation de la désinformation encore plus complexes.

6- Utilisation des données personnelles : le pétrole du XXIe siècle

Au cœur de cette guerre invisible se trouve une ressource précieuse : nos données personnelles. Ce que nous lisons, aimons, partageons ou achetons constitue une mine d’or pour ceux qui cherchent à nous influencer ou nous manipuler.

En les croisant avec des outils d’analyse et de ciblage, des gouvernements peuvent repérer les opposants, surveiller des populations entières, et mener des opérations de désinformation ou d’intimidation.

« Si les grandes plateformes continuent de faire du critère économique l’étalon pour régir la circulation d’information, nos démocraties risquent d’être balayées par des mouvements populistes. »
— David Chavalarias, mathématicien, Toxic Data

Les réseaux sociaux ne sont plus uniquement de simples espaces de divertissement ou d’expression. Ils sont devenus des outils de guerre douce, utilisés pour manipuler l’opinion, polariser les sociétés et affaiblir les démocraties. Cependant, face à ce défi, des initiatives émergent pour renforcer la régulation des plateformes, promouvoir l’éducation aux médias et préserver la confiance dans les institutions démocratiques. Ces efforts peuvent offrir un contrepoids essentiel pour protéger nos sociétés face à cette guerre invisible.