Vous vous êtes engagés depuis des années pour ce combat, chacun de vos arguments est pesé et vérifié. Vous montez sur le ring avec des faits avérés, des preuves et l’espoir de convaincre. Face à vous un adversaire sous stéroïdes, ses gants sont lestés et l’arbitre est corrompu depuis des années. Lui, il vous frappe avec des fake news, des insultes, et des algorithmes conçus pour amplifier chaque frappe.
Bienvenue sur X, l’ex-Twitter d’Elon Musk, où la gauche s’épuise à combattre des moulins à vent numériques, pendant que l’extrême droite et les complotistes dominent le jeu sans même avoir à transpirer.
Depuis son rachat en octobre 2022,la plateforme est devenue un égout à ciel ouvert, où la haine, la désinformation et les discours extrêmes prospèrent sans contrôle. Pourtant, malgré les appels au boycott et les départs massifs d’associations, certaines personnalités refusent encore et toujours de quitter X, arguant qu’il faut “combattre les radicaux sur leur terrain”. Mais cette stratégie est un leurre. Rester sur X, c’est comme essayer d’éteindre un incendie avec de l’essence : non seulement c’est inefficace, mais c’est surtout dangereux pour vous-même.
X en 2025 : façonné pour les idées extrêmes
Depuis qu’Elon Musk a pris les rênes de Twitter, la plateforme est devenue un repaire pour les discours de haine, les théories du complot et les extrémismes de tout poil. Les comptes d’extrême droite, comme ceux du Rassemblement National ou de Reconquête!, ont vu leur visibilité exploser, avec une augmentation de 200 % des interactions pour des figures comme Jordan Bardella ou Éric Zemmour entre 2023 et 2025. Pendant ce temps, les comptes d’associations et de personnalités de gauche stagnent ou régressent.
Musk lui-même a contribué à cette dérive en réhabilitant des comptes néonazis, comme celui d’Andrew Anglin, fondateur du site The Daily Stormer, et en promouvant des théories complotistes, comme celle du “woke mind virus”. La plateforme est devenue un terrain de jeu pour les extrêmes, où les algorithmes favorisent les contenus polémiques et les fake news, au détriment des débats rationnels.
Les chiffres d’une machine à radicaliser
Depuis 2022, les chiffres sont révélateurs.
Réduction de 80 % des équipes de modération : Passées de 2 300 à 400 employés entre 2022 et 2024 (The Verge).
Explosion des contenus haineux : +300 % de tweets racistes en 2023–2024 (Anti-Defamation League). +200 % de contenus climatosceptiques en 2024 (Climate Action Against Disinformation).
Promotion algorithmique des extrêmes : Les comptes d’extrême droite bénéficient d’un boost de visibilité : leurs tweets apparaissent 2 fois plus souvent dans les « Pour vous » que ceux de la gauche (Algorithmic Justice League).
Monétisation de la haine : X reverse une partie des revenus publicitaires aux comptes les plus engagés, y compris ceux qui diffusent de la désinformation ou des appels à la violence. Par exemple, le compte « Les Identitaires » a gagné 12 000 € en 2024 grâce au programme de monétisation de X.
#HelloQuitX : le mouvement de départ qui a fait trembler (un peu) Musk
Face à cette dérive, un mouvement massif de désengagement a émergé en janvier 2025. 80 associations, dont la Cimade, Emmaüs, le Mrap et la LDH, ont quitté X en dénonçant une plateforme devenue « une arme idéologique au service de l’extrême droite » dans une tribune parue dans Le Monde. Des élus ont suivi, comme Éric Boquet, ex-sénateur PCF, qui a déclaré : « Rester sur X, c’est cautionner un réseau qui diffuse la haine. Je refuse d’être complice. » Greenpeace France et Les Amis de la Terre ont également quitté la plateforme, arguant qu’on ne peut pas lutter contre la désinformation en restant sur une plateforme qui la promeut.
Pourtant, certaines figures de gauche refusent encore de partir. Marine Tondelier (EELV) justifie alors sa présence par la nécessité de « refuser de laisser le champ libre à l’extrême droite ». Philippe Poutou (NPA) affirme que « quitter X, c’est abandonner la bataille idéologique aux fachos ». Fabien Roussel (PCF) déclare quant à lui : « Je ne vais pas laisser Musk décider à ma place. »
Le problème, c’est que ces déclarations sous-estiment l’asymétrie du combat. Le réseau social X n’est pas un terrain neutre, mais un écosystème conçu pour favoriser les discours clivants extrémistes. Les algorithmes avantagent les contenus émotionnels et polémiques bien plus que les arguments rationnels. Et à ce petit jeu, c’est l’extrême droite qui finit toujours par l’emporter.
La guerre du sens et la bataille des biais cognitifs
Imaginez une élue de gauche qui, armée de faits et de bonnes intentions, tente de raisonner un groupe de complotistes convaincus que les migrants sont responsables de tous les maux de la France. Elle publie un thread sur X, étayé par des chiffres de l’INSEE, des rapports du GIEC, des analyses d’économistes. Que se passe-t-il ? Rien.
Pire : son intervention renforce les convictions de ceux qu’elle cherche à convaincre. Les insultes pleuvent en commentaires, (« traître », « collabo »), les captures d’écran misogynes sont copiées/collés rapidement, ses arguments sont ignorés ou détournés, et le groupe ressort de l’échange plus soudé et plus radical qu’avant.
Ce scénario n’est pas une exception, mais la règle sur X et dans les bulles militantes. Voici pourquoi tenter de contredire ce type de chambre d’écho est non seulement vain, mais aussi contre-productif et comment les mécanismes cognitifs en jeu piègent les personnes modérées dans une guerre perdue d’avance.
1/ Le biais de confirmation
Le biais de confirmation est une tendance naturelle du cerveau humain à privilégier les informations qui confirment nos croyances et à ignorer ou rejeter celles qui les contredisent. Ce mécanisme, utile pour éviter la surcharge cognitive dans la vie quotidienne, devient dévastateur dans les bulles militantes.
Sur X, ce biais est amplifié : Les algorithmes montrent aux utilisateurs uniquement les contenus qui correspondent à leurs opinions. Ainsi, un compte qui suit Valeurs Actuelles et CNEWS ne verra jamais les démentis de Mediapart ou de Libération. Alors quand un avis contraire apparaît, il est instinctivement discrédité comme de la « propagande ».
2/ L’effet “backfire »
Le « backfire effect » (effet retour de flamme), théorisé par le politologue Brendan Nyhan, décrit un paradoxe troublant : plus on tente de corriger une fausse information, plus ceux qui y croient s’y accrochent. Ce phénomène est particulièrement virulent dans les sphères complotistes où les membres interprètent les démentis comme des preuves de leur bien-fondé.
Sur X, l’effet backfire est systématique : Quand un responsable politique va publier un démenti sur une fake news, les comptes d’extrême droite répondent : « Voilà la preuve que le son parti ment ! ». Les réponses au message original seront alors encore plus partagées par les algorithmes de X, conçus pour maximiser l’engagement en favorisant ces réactions émotionnelles plutôt que les débats rationnels.
3/ La dissonance cognitive
La dissonance cognitive (théorie de Leon Festinger, 1957) décrit l’inconfort ressenti quand nos croyances entrent en conflit avec des faits. Pour réduire cette tension, le cerveau a deux options :
- Changer d’avis (rare et représentant un effort extrêmement couteux)
- Rejeter les faits ou discréditer la source (beaucoup plus fréquent et confortable)
Sur X, la dissonance cognitive est sur-exploitée : Quand une élue a publié des données sur l’efficacité des vaccins pendant la crise du COVID, les comptes complotistes ont répondu par des mèmes moqueurs (« Les élites ont peur ! ») ou des attaques personnelles (« Vendue à Big Pharma ! »). Ces réactions ont réduit la dissonance de l’ensemble du groupe en transformant le débat en une question de moralité (« Nous sommes les bons, eux sont les méchants ») plutôt que de faits.
4/ Effet de groupe et pression conformiste
Dans une bulle militante, remettre en cause le consensus du groupe est socialement coûteux. Le psychologue Solomon Asch a démontré dans les années 1950 que les individus se conforment à l’opinion majoritaire, même quand elle est manifestement fausse, par peur de l’exclusion.
Sur X, cette pression est amplifiée par les algorithmes : Les comptes qui osent contredire la communauté établie (ex. : un écologiste dans un groupe climatosceptique) sont inondés de réponses hostiles en quelques minutes. Les insultes, les menaces et les moqueries créent un climat d’intimidation qui décourage toute remise en cause et favorisant le sentiment d’appartenance au sein du groupe.
5/ La polarisation affective
Les débats politiques sur X activent les émotions (colère, peur, mépris) bien plus que la raison, ces émotions activent le système de récompense célébrale quand on se sent «du bon côté», ce qui maximise l’adhésion au contenu publicitaire. Une étude de l’Université de Stanford (2021) a montré que les échanges polémiques sur les réseaux sociaux stimulent également les zones cérébrales liées à l’agressivité, réduisant la capacité à raisonner et traiter des arguments complexes.
En conséquence : Le débat glisse de la raison vers l’affect, du logos vers le pathos. Les faits deviennent secondaires, et l’appartenance au groupe prime sur la vérité. C’est pourquoi les tentatives de dialogue rationnel sur X échouent presque systématiquement parce qu’elles se heurtent à un mur d’émotions que les arguments ne peuvent faire tomber.
Quitter X, un boycott nécessaire
En conclusion, l’espoir de convaincre sur X est une illusion. Les algorithmes et la structure de la plateforme n’ont pas été construits pour ça. Rester, c’est alimenter la machine sans espoir de la faire dérailler, c’est continuer de donner de la visibilité et contribuer à financer les producteurs de contenus radicaux, en plus de fournir une caution involontaire à l’extrême-droite française, européenne et internationale.
L’énergie dépensée à rédiger, modérer, fact-checker et débattre dans l’espoir d’un taux d’intéraction supérieur à 0,8% sera mieux récompensée ailleurs : dans les médias alternatifs (Mastodon, Bluesky, Qwice…) ou sur le terrain, dans des espaces où le débat est encore possible, au contact de la population et les yeux dans les yeux avec des leaders d’opinion.
Quitter X, c’est refuser de cautionner un système conçu pour nous diviser, nous épuiser et nous radicaliser. Quitter X, c’est gagner. Le vrai combat ne se mènera pas sur X. Il se mènera dans la rue, dans les urnes, et dans les têtes. Parce que personne ne peut convaincre un algorithme.
Sources :
Maire-Info, 2025 : « Réseau X : les élus qui partent… et les élus qui restent »
Rapports de Force, 2025 : « Les politiques rechignent à quitter X, malgré sa toxicité »
Politis, 2024 : « Réseaux sociaux : Quitter ou ne pas quitter X/Twitter ? »
Observatoire des réseaux sociaux, 2025 : « L’explosion des contenus haineux sur X »
The Verge, 2024 : « Elon Musk a réduit de 80 % les équipes de modération de X »
Anti-Defamation League, 2024 : « +300 % de tweets racistes sur X »