Aller au contenu

Bots : faux profils et manipulation, ce qu’il faut savoir absolument

  • par
IA, AI, cyberattaque, cyberattack, bots, resilience, gouvernance, vérité, manipulation

En France, en Suisse, des élections municipales approchent. Mais qu’importe la date, plus les jours passent, plus les techniques d’IA s’améliorent, se peaufinent pour prendre le contrôle du débat public. Tous les moyens sont permis pour faire le buzz et secouer les opinions. Machines, scripts automatisés, réseaux de faux comptes… les bots, qui likent, commentent, s’indignent, provoquent.  C’est ce qu’on appelle l’ingénierie sociale automatisée.

Et ce phénomène, désormais structurel, s’applique tout autant dans le monde économique et à l’échelle globale.


Une ampleur volontairement floue mais massive

Il n’existe pas de chiffre unique et incontestable sur la proportion de bots et de faux comptes sur les réseaux sociaux. Ce flou n’est pas un hasard.

Les plateformes refusent les audits indépendants et utilisent leurs propres définitions vaseuses de ce qu’est un « faux compte ». En termes académiques, on parle d’incertitude épistémique organisée.

Cependant, certains génies statisticiens ont réussi à fournir quelques estimations.


Sur Twitter/X, il y aurait 9 à 15 % des comptes actifs fake avec des pics bien plus élevés lors d’événements ou campagnes politiques ou médiatiques, qui peuvent atteindre les 50%.

Des analyses croisées estiment qu’en moyenne 10 à 15 % des comptes sur les réseaux sociaux seraient faux ou automatisés, avec de fortes variations selon les plateformes et les périodes.

Lors de campagnes politiques ciblées, jusqu’à 20 % des interactions visibles (likes, retweets, commentaires) peuvent provenir de comptes non authentiques ou coordonnés.

Dans certains contextes électoraux documentés (Asie, Europe de l’Est, Amérique latine), des enquêtes ont montré que 30 à 40 % des comptes amplifiant certains récits politiques étaient faux ou manipulés, souvent via des réseaux coordonnés. On se souvient des récentes élections en Moldavie.

Important: le problème n’est pas que le nombre de comptes, mais bien plus encore leur capacité à saturer l’espace informationnel.


Qui utilise ces bots à leur profit – leur but et leurs méthodes

Les bots sont utilisés par des acteurs très différents avec des objectifs distincts, mais utilisant les mêmes mécanismes techniques.

Quatre catégories d’acteurs principaux

  • Etats et acteurs para-étatiques
  • Organisations politiques (partis, entre autres)
  • Agences marketing, soft power & “influence-for-hire”
  • Cybercriminels & escrocs

Ci-dessous, un récapitulatif de leur but et leurs méthodes, accompagnés d’exemples récents.

1 – Etats et acteurs para-étatiques

But et Méthodes


But : influencer l’opinion sans signature officielle, amplifier un récit, polariser, délégitimer des institutions, semer le doute sur des faits.

Méthodes
– Réseaux de faux médias/comptes pour “donner une source”
– Amplification coordonnée multi-plateforme (Twitter, Meta, YouTube, TikTok)
– Tactiques d’écosystème : copies de sites de presse, faux témoignages, deepfakes, relais de comptes  

Exemples récents


Opération “Doppelganger / Portal Kombat” de réseaux pro-russes (depuis 2022) – campagnes de désinformation via des sites clones et faux comptes contre l’Ukraine, l’UE.

JO Paris 2024 – Campagnes de désinformation Origine russe.

Campagne d’ingérence électorale – US (2024) via des “proxies” et amplificateurs russes diffusant du contenu IA polarisant, propagandiste.

Campagne d’ingérence électorale – Allemagne (déc. 2025) via des bots et faux comptes diffusant deepfakes + désinformation, amplifiés + cyberattaques ciblées. Origine : services secrets russes & Storm-1516, groupe pro-russe

2 – Organisations politiques

But et Méthodes


But : créer une illusion de soutien ou impression de rejet massif pour influencer les électeurs, les médias, les adversaires, et parfois la décision publique.

Méthodes
– Astroturfing : simuler une mobilisation “citoyenne”
– “Comment brigades” : groupe de comptes mixtes (humains, bots ou hybrides) pour inonder les commentaires d’élus/collectivités
– Micro-ciblage local : sujets sensibles (sécurité, urbanisme, école, migrants, taxes)  

Exemples récents et récurrents


Organes d’influence sur Facebook et Instagram via des faux comptes et des fausses pages, se présentant comme des citoyens ou des médias locaux pour diffuser des contenus politiques orientés (Exemple lors des élections en Moldavie) – surveillés par CIB Meta

Organes d’influence sur YouTube , surveillés par Google. Des chaînes « indépendantes » diffusent des contenus politiques soi-disant neutres ou citoyens mais l’orientation politique est alignée sur des intérêts d’états, qui passent souvent par des agences de softpower. Google Threat Analysis (TAG) les supprime.

3 – Agences marketing, soft power & “influence-for-hire”

But et Méthodes


But : vendre ou acheter de la visibilité – followers, likes, commentaires, tendance artificielle – puis les convertir en réputation, pression, contrats, parfois influence politique.

Méthodes
– Marché noir/ gris de création de comptes (SMS verification, fermes de comptes)
– Réseaux de “boost” multi-plateforme
– Externalisation à des agences qui savent “faire monter” un sujet  

Exemples actuels


Marché de l’infox avec faux comptes « vérifiés » en Russie, US et UK . Economie souterraine estimée à 1+ Mia$/an. Les clients : états, entreprises, criminels. (Cambridge Online Trust and Safety Index) euronews

Campagne d’influence sur Meta pour manipuler le débat public autour notamment de la guerre Israël-Gaza et autres sujets politiques (2024). Opérée depuis Israël via STOIC, une société spécialisée dans le marketing politique et l’intelligence d’affaires, qui a utilisé +500 faux comptes ou comptes compromis. Réseau démantelé par Meta.

OpenAI : campagnes d’influence utilisant ses outils (dont acteurs liés à Israël) : Utilisation de ChatGPT par la Russie, la Chine, l’Iran et Israël pour générer à grande échelle du contenu AI (images, réponses automatisées) pour influencer des débats politiques. De la vraie industrialisation. OpenAI a supprimé les comptes et rapporté les faits. TIME.

4 – Cybercriminels et escrocs

But et Méthodes


But : évidemment de l’argent via des fraudes, du phishing, sextorsion, scams “pig butchering”, hacking de comptes, vols de données. Tout est industrialisé via les bots.

Méthodes
– Fermes de faux comptes pour approche + crédibilité
– Automatisation de messages/commentaires et “social engineering” à l’échelle
– Bots sur messageries (WhatsApp/Telegram) pour dérouler scripts, paiements, relances

Exemples récents


Sextorsion — Meta supprime 63 000 comptes Instagram liés à des réseaux d’extorsion (opération coordonnée, usage massif de faux comptes). Engadget, 2024

Scam centers — WhatsApp retire 6,8 millions de comptes liés à des réseaux criminels (jan–juin 2025) ; Meta décrit une fraude industrialisée multi-plateforme. AP News

Phishing “as-a-service” via bots Telegram : des enquêtes cyber montrent des “marketplaces” et bots facilitent l’automatisation du phishing (kits, paiement crypto, orchestration). Sekoia.io Blog janvier 2025


Elus et décideurs tout autant exposés

Responsables politiques & institutionnels

Parmi tous les élus, les plus vulnérables sont les maires et les responsables de collectivités. Contrairement à leurs homologues nationaux, entourés d’équipes professionnelles et d’un écosystème de protection (veille, alerte, service juridique, etc.), les élus locaux sont démunis.

Dans la majorité des communes :

  • pas de chargé de com dédié
  • 1 personne polyvalente pour gérer le site web + bulletin municipal + réseaux
  • aucune veille structurée
  • aucune expertise en bots, IA, désinformation, etc.
  • aucune procédure de réponse en cas d’attaque coordonnée

Résultat, une communication avec les administrés en pointillés via les réseaux sociaux, où toute polémique peut prendre rapidement une tournure personnelle.

Certaines communes sont plus ciblées que d’autres, même de petite taille, parce qu’elles :

  • abritent une personnalité connue ou fortunée
  • sont associées à un projet sensible (urbanisme, sécurité, accueil, environnement)
  • deviennent, par leur image, géographie ou histoire, un symbole exploitable dans un récit national

Et toutes ces communes, pour les acteurs malveillants, c’est Bysance. Quelques dizaines ou centaines de comptes bien coordonnés suffisent à créer l’illusion d’un mécontentement massif, d’un scandale local ou d’une perte de légitimité politique.

En clair, le niveau local est devenu :
– un laboratoire de test pour des stratégies d’influence
– un point d’entrée à faible coût pour manipuler l’opinion
– un terrain idéal pour expérimenter des narratifs avant de les élargir

Quatre risques spécifiques pour les maires et responsables de collectivités locales


Pour eux, les conséquences sont immédiates et parfois dramatiques :

Effet boule de neige médiatique – une agitation numérique peut suffire à déclencher un article ou une reprise régionale.

Décisions politiques prises sous pression artificielle – renoncer à un projet, modifier une communication, durcir ou adoucir une position

Déstabilisation personnelle – attaques ciblées, commentaires hostiles, sentiment d’isolement

Perte de confiance interne – agents communaux, conseil municipal, partenaires locaux

Et le plus préoccupant est que ces dynamiques sont souvent invisibles pour les élus eux-mêmes, qui n’ont ni les outils, ni les réflexes pour distinguer une mobilisation réelle d’une orchestration automatisée.

Trois cas concrets très récents


Campagne de désinformation menée via des dizaines de faux sites et média d’information francophones locaux (Sud-Ouest, LyonMag, l’Est Républicain), dont les noms ont été détournées par un réseau pro-Kremlin (févr.–juin 2025). But : polluer l’environnement informationnel local avec de la propagande pro-Poutine, à 5 mois des élections municipales. Reporters sans Frontières, novembre 2025

Fraude et vol de données à Montreux/VD via un faux profil qui a usurpé l’identité de VMCV, les transports publics locaux. L’auteur était un cybercriminel. Juin 2025. voir page FB de la ville.

Faux comptes, usurpation d’identité et cyberharcèlement (sept. 2025) dans la commune de Rochefort-du-Gard (Gard), dans le contexte pré-électoral. Un faux compte a pris l’identité d’une association qui soutient le maire sortant pour créer un climat de confusion, avec un cyberharcèlement en toile de fond. Le Dauphiné

Décideurs économiques

Les dirigeants d’entreprises, d’institutions économiques et d’organisations stratégiques sont aujourd’hui des cibles de premier ordre, avec la même vulnérabilité que les élus : la confusion entre signal et réalité.

Comme les responsables politiques, les dirigeants sont exposés à des indicateurs de popularité — likes, commentaires, partages, tendances — qu’ils interprètent fréquemment comme des signaux authentiques du marché, de l’opinion ou de leurs parties prenantes. Or, ces indicateurs sont faciles à manipuler, à faible coût, et à grande échelle.

Cette manipulation n’est pas marginale. En 2025, les attaques directement pilotées par des bots représentent déjà 12 % des fraudes tierces recensées*.
S’ils ne sont pas le premier vecteur d’attaque (le vol d’identité, hacking de compte ou phishing), ils en sont néanmoins l’accélérateur transversal, qui permet une industrialisation de l’attaque. Cela crée un environnement informationnel profondément pollué, dans lequel des signaux artificiels peuvent être perçus comme des réalités économiques. *Source: rapport sumsub, 2025-2026

À la différence des élus, les chefs d’entreprise — en particulier dans les PME de 100 à 2 000 collaborateurs — sont encore moins conscients du risque informationnel. Ils le sous-estiment massivement pour trois raisons principales :

  • ils se perçoivent comme des acteurs « non politiques » ;
  • ils confondent marketing digital et guerre informationnelle ;
  • le sujet est trop souvent relégué au service communication ou au community manager, lorsqu’ils en disposent.

C’est une erreur stratégique. Dans un environnement saturé de signaux artificiels, la capacité d’un dirigeant à distinguer le bruit de la réalité devient un enjeu de gouvernance, pas un simple sujet de communication.

Cinq risques spécifiques pour les décideurs économiques


1. Décisions stratégiques biaisées par un débat artificiellement amplifié avec des dynamiques de bots et de commentaires coordonnés + contenus falsifiés qui peuvent :
– donner l’illusion d’une attente client, sociétale ou réglementaire
– pousser à des repositionnements précipités
– influencer des arbitrages d’investissement, de communication ou de retrait de marché
Risque clé : décider sur une perception fabriquée, pas sur la réalité.

2. Atteinte à la réputation et l’image de l’organisation avec des campagnes de commentaires coordonnées, accompagnées de contenus truqués, qui peuvent :
– créer une perception de crise là où il n’y en a pas
– installer le doute chez les partenaires, investisseurs ou clients
– forcer l’entreprise à répondre à une polémique artificielle
Risque clé : subir l’agenda d’acteurs invisibles

3. Manipulation des dirigeants eux-mêmes par des infox, répandues sur le net, où les dirigeants sont exposés à :
– des narratifs biaisés repris dans les médias ou les réseaux
– des signaux de “buzz” artificiels
– des contenus présentés comme citoyens, experts ou neutres, de plus en plus générés par l’IA
Ces signaux peuvent influencer leur posture publique, leur discours stratégiques et leurs priorités internes. Ils sont d’autant plus efficaces qu’ils circulent dans des environnements perçus comme légitimes ou professionnels. Risque clé : ajuster sa stratégie à une opinion simulée.

4. Usurpation d’identité et manipulation de l’autorité (CEO impersonation), des attaques qui exploitent directement l’identité des dirigeants via des faux comptes, des emails ou messages automatisés ou des voix clonées ou des contenus générés par IA.
Triple objectif : déclencher des décisions financières, contourner les processus internes et exploiter l’autorité hiérarchique.
Risque clé : l’autorité du dirigeant devient une surface d’attaque.

5. Instrumentalisation financière et concurrentielle, notamment dans des contextes de concurrence, d’appels d’offres ou de levées de fonds, via des bots utilisés pour :
– amplifier ou étouffer des alertes légitimes
– influencer la valorisation perçue d’une entreprise
– attaquer un concurrent via des récits négatifs persistants et des contenus faussés
Risque clé : distorsion artificielle de la concurrence et du marché.

Quatre cas concrets


#BoycottZara sur les réseaux sociaux (2024–2025) – Une étude de spécialistes en réputation numérique mentionne que lors d’une controverse autour d’une campagne marketing de Zara (marque du groupe espagnol Inditex), une portion significative des interactions négatives était générée par profils inauthentiques ou automatisés, contribuant à un hashtag boycott qui a atteint une large traction.
Cette amplification a créé une perception publique déformée du rejet de la campagne, impactant la réputation de l’entreprise y compris en Europe (Italie, France, Espagne, etc.) Cyabra

Attaques en masse de réputation par faux avis et commentaires coordonnés (2024) au Royaume Uni. Plusieurs PME britanniques (restauration, services B2B, cabinets professionnels) ont été ciblées par des vagues d’avis négatifs synchronisés sur Google, Trustpilot et réseaux sociaux, sans événement réel déclencheur. Conséquences : perde de crédibilité, des réponses forcées et remise en question interne injustifiée.

Réseaux de faux médias “économiques en France / Europe (2023–2025) – Des enquêtes de EU DisinfoLab et Viginum ont mis en évidence des réseaux de sites d’actualité économique clonés, reprenant les codes de la presse professionnelle, diffusant des contenus biaisés sur la compétitivité, la fiscalité, l’industrie et les relations internationales (faux articles analystes, repris par des comptes LInkedIn et X « experts » et circulation dans les cercles dirigeants et investisseurs). Le dirigeant n’est pas ciblé directement, son cadre de pensée, si.

Tentative sophistiquée mais avortée d’Usurpation d’identité (CEO impersonation) – Mark Read, CEO de WPP (UK). Un faux compte WhatsAppavec une voix clonée dans une réunion Teams a été utiliser pour déclencher une transaction financière. The Guardian, mai 2024 – L’autorité du dirigeant devient l’arme de l’attaquant.


Alors, face à ces risques, que faire ?

Qu’il s’agisse d’un dirigeant d’entreprise ou d’un élu, il n’existe pas de solution miracle pour éliminer la manipulation informationnelle. En revanche, il existe au moins 5 leviers de gouvernance, de vigilance et de culture qui peuvent être activés rapidement, même avec des équipes réduites.

  • Réapprendre à distinguer signal et bruit, autrement dit : ne pas réagir à chaud et analyser avec de bonnes questions (est-ce massif ou juste bruyant ? Quels impacts ? Qui parle ? De quel compte ? etc.). Vitesse n’est pas précipitation.
  • Sortir le sujet de la seule communication. Ce sujet doit être traité au niveau des décideurs avec l’appui de ceux qui publient. L’infox influence les décisions, affecter la légitimité du dirigeant ou de l’organisation et peut déclencher des crises politiques ou économiques artificielles.
  • Identifier en amont les angles morts propres à son territoire ou à son activité. Les vulnérabilités ne sont jamais génériques. Elles dépendent d’un contexte local, à un moment donné. Sans diagnostic contextualisé à l’interne comme à l’externe, on agit à l’aveugle.
  • Intégrer le risque informationnel dans la gouvernance. Comme le risque cyber il y a quelques années, le risque informationnel doit devenir un sujet de comité de direction, un élément de scénario de crise, pour ne pas confondre pression artificielle et réalité démocratique ou économique.
  • Passer d’une culture de réaction à une culture de résilience. Les organisations les plus robustes, publiques comme privées, détectent plus tôt et coordonnent mieux. La résilience une compétence collective à développer avec les talents individuels dans un cadre organisationnel propice.

Chez Oz’n’gO, nous accompagnons dirigeants d’entreprises et responsables publics dans l’identification de leurs angles morts informationnels, la lecture critique des signaux numériques et l’intégration de ces risques dans leur gouvernance.

(sans être expert technique)

  • Profils récents, peu ou pas personnalisés.
  • Photos génériques ou issues de banques d’images / IA.
  • Bio vague, slogans politiques, absence de parcours réel.
  • Publications à intervalles réguliers, y compris la nuit.
  • Commentaires courts, répétitifs, émotionnels, souvent hors contexte.
  • Absence d’interaction réelle (pas de réponses, pas de discussion).
  • Groupes de comptes commentant toujours ensemble.
  • Amplification soudaine et massive d’un message précis.
  • Engagement disproportionné par rapport à la visibilité réelle du compte.

NB : des outils comme Botometer ou Bot Sentinel peuvent aider, mais ils ne remplacent pas une analyse humaine et produisent des faux positifs .

    You cannot copy content of this page

    Verified by MonsterInsights