Un écart qui ne s’explique pas
L’objet de l’étude est simple : comparer les performances des vidéos publiées sur X par Sarah Knafo et Rachida Dati. Les deux femmes ont un nombre d’abonnés sensiblement équivalent sur la plateforme, autour de 220 000 à 240 000 au début de la période étudiée. Rachida Dati dispose même d’un léger avantage, avec environ 10 % d’abonnés de plus que sa rivale.
En janvier 2026, les vidéos de campagne de Sarah Knafo ont totalisé près de 17 millions de vues, contre 1,4 million pour celles de Rachida Dati. L’écart est massif. Une partie s’explique par le volume de production : la campagne Knafo a publié 54 vidéos contre 12 pour la candidate Les Républicains, soit 4,5 fois plus. Mais même en ramenant les chiffres au nombre d’abonnés et en neutralisant l’effet volume, les vidéos de Sarah Knafo sont vues trois fois plus que celles de Rachida Dati par abonné. En février, l’écart s’est encore creusé : le rapport est désormais de 1 à 10 en termes de vues moyennes par vidéo (20 984 vues en moyenne pour Dati, contre 202 585 pour Knafo), et d’environ 1 à 8 en vues par abonné.
Un tel écart pourrait s’expliquer par la qualité intrinsèque des contenus et par l’engagement qu’ils suscitent. C’est d’ailleurs l’argument avancé par les équipes de campagne de Sarah Knafo. Las : les données d’engagement ne corroborent pas cette thèse, elles la contredisent.
Le paradoxe de la baguette
L’algorithme de X, dont les grandes lignes du code ont été rendues publiques sur GitHub, fonctionne en théorie selon une logique méritocratique : il valorise les contenus qui génèrent de l’engagement, c’est-à-dire des interactions, et pas n’importe lesquelles. Dans la hiérarchie de la plateforme, un commentaire vaut environ cinquante fois plus qu’un simple like, et un retweet vingt fois plus. L’idée est que l’engagement profond — celui qui témoigne d’une émotion réelle, d’un désaccord ou d’un enthousiasme suffisamment fort pour pousser l’utilisateur à écrire — est un meilleur signal de qualité que le simple clic sur un cœur.
Or, quand on examine les cinq vidéos de Sarah Knafo ayant dépassé le million de vues en janvier, on constate que leurs taux d’engagement sont non seulement inférieurs à sa propre moyenne, mais très inférieurs. La vidéo la plus vue, tournée le 8 janvier à la sortie de la station de métro Hôtel de Ville, où la candidate interpelle des passants sur le thème de l’insécurité, a recueilli 4,7 millions de vues pour un taux d’engagement de seulement 0,31 %. Une autre vidéo du 11 janvier, mettant en scène une jeune femme prénommée Sacha qui témoigne d’une agression subie dans le métro parisien, a atteint 1,2 million de vues pour un taux à peine supérieur : 0,35 %. Ce sont des chiffres remarquablement bas pour des contenus supposément portés par leur popularité organique.
L’anomalie la plus saisissante concerne deux vidéos postées les 12 et 13 janvier. La première montre une dame de 85 ans témoignant d’une agression dans le métro ; la seconde est un clip du meeting de campagne. Leurs profils d’engagement sont quasi identiques : 365 et 369 commentaires, 1 600 et 1 700 retweets, 8 500 likes dans les deux cas. Et pourtant, la vidéo de la dame de 85 ans a été vue 100 000 fois, quand le clip du meeting en a recueilli un million, soit un rapport de 1 à 10 pour un engagement strictement comparable. Si l’algorithme récompensait vraiment l’engagement, les deux vidéos devraient obtenir des audiences similaires. Ce n’est manifestement pas ce qui se passe.
C’est là qu’intervient la baguette. En février, l’Institut Arago documente une vidéo encore plus révélatrice : on y voit Sarah Knafo croquer dans une baguette achetée chez un boulanger parisien, dans une mise en scène de proximité volontairement anodine. Ce contenu atteint 1,8 million de vues, soit trente fois plus que la vidéo du fournil de janvier, qui affichait pourtant de meilleurs indicateurs d’engagement sur quasiment tous les critères (deux fois plus de retweets notamment). Mieux encore : la vidéo de la baguette obtient six fois plus de vues qu’une vidéo consacrée aux dérives financières du Conseil de Paris, laquelle enregistre sur tous les critères des taux nettement supérieurs — plus de commentaires, plus de likes, plus de retweets, plus de sauvegardes. En d’autres termes, plus une vidéo suscite de réactions, moins elle est vue. L’algorithme semble fonctionner à rebours de sa propre logique déclarée.
L’Institut Arago note par ailleurs un déséquilibre révélateur dans le ratio likes/commentaires : Sarah Knafo enregistre environ un commentaire pour vingt likes, ce qui est conforme à la moyenne de la plateforme, et très différent du ratio de Rachida Dati (un commentaire pour 3,3 likes), qui témoigne d’un engagement réel, contradictoire, vivant — exactement ce que l’algorithme est censé valoriser. Pourtant, c’est la première qui voit ses contenus décuplés, et la seconde qui plafonne.
L’hypothèse algorithmique et ce que la science en dit
Face à ces incohérences, l’Institut Arago formule une hypothèse : les vidéos de Sarah Knafo bénéficient d’une poussée algorithmique structurelle qui n’a pas grand-chose à voir avec leur mérite propre. Cette hypothèse n’est pas une simple intuition : elle s’appuie sur un faisceau d’études convergentes, dont la plus récente et la plus significative est parue dans Nature le 18 février 2026.
Cette étude, signée Germain Gauthier (Université Bocconi), Roland Hodler (Université de Saint-Gall), Philine Widmer et Ekaterina Zhuravskaya (Paris School of Economics), est une expérience de terrain menée en 2023 auprès de près de 5 000 utilisateurs américains de X. Les chercheurs ont aléatoirement assigné la moitié des participants au fil algorithmique « Pour vous » et l’autre moitié à un fil chronologique, pendant sept semaines. Les résultats sont sans ambiguïté : le fil algorithmique déplace les opinions politiques vers des positions plus conservatrices, en particulier sur les priorités de politique publique et la perception des enquêtes judiciaires visant Donald Trump. Et ces effets persistent après le retour au fil chronologique. L’algorithme, en d’autres termes, ne se contente pas de montrer des contenus, il reconfigure durablement le paysage informationnel et les inclinations politiques de ses utilisateurs.
Les mécanismes identifiés par les chercheurs sont les suivants : le fil algorithmique injecte massivement des contenus provenant de comptes non suivis, favorise les publications de militants politiques conservateurs ou extrémistes au détriment des médias traditionnels, et pousse les utilisateurs à s’abonner à de nouveaux comptes d’activistes marqués à droite, modifiant ainsi en profondeur le « graphe social » de chaque utilisateur.
Ces conclusions rejoignent celles d’autres études menées à l’échelle européenne. Une enquête de Sky News publiée en novembre 2025 a montré qu’au Royaume-Uni, plus de 60 % du contenu politique mis en avant par l’algorithme provenait de comptes classés à droite. L’exemple le plus frappant cité est celui de Rupert Lowe, figure de la droite radicale indépendante, dont les tweets ne représentaient que 6 % du volume total de messages postés par les politiciens suivis, mais à qui l’algorithme accordait 24 % de l’espace dans le fil des utilisateurs, soit quatre fois plus que ce que son activité aurait dû lui valoir.
Une étude de l’University College de Dublin, publiée juste avant les élections fédérales allemandes de février 2025, a révélé un phénomène analogue au bénéfice de l’AfD : le parti d’extrême droite occupait 37,9 % de l’espace politique dans le fil « Pour vous », alors qu’il ne représentait que 15,2 % du volume total des tweets postés par les comptes politiques durant la même période. L’algorithme avait plus que doublé l’emprise du parti sur le réseau.
Ces résultats sont confirmés par une investigation de l’ONG People vs. Big Tech portant spécifiquement sur le contexte français, et qui élargit le diagnostic à TikTok. L’organisation a créé douze comptes fictifs sur les deux plateformes, six à orientation politique de gauche, six à orientation de droite, et a systématiquement observé les contenus que l’algorithme leur proposait spontanément. Sur X, 59 % des contenus politiques officiels poussés vers les comptes de sensibilité de droite provenaient de l’extrême droite, une proportion qui a atteint 71 % lors de l’une des journées d’observation. Même les comptes à orientation de gauche se sont vu proposer 20 % de contenus d’extrême droite. Et parmi les dix comptes politiques français les plus visibles sur X, huit appartiennent à l’extrême droite ou à l’extrême gauche. Emmanuel Macron, pourtant le compte politique français le plus suivi sur X avec 10,3 millions d’abonnés, n’apparaît qu’en 28e position dans les contenus recommandés. La logique des abonnés et la rationalité de l’algorithme, une fois de plus, sont bafoués.
L’étude note un phénomène comparable sur TikTok, où 56 % des contenus politiques recommandés aux comptes de droite provenaient de l’extrême droite. Le réseau social chinois, qu’on avait tendance à considérer comme plus équilibré dans cette campagne, semble lui aussi pencher dangereusement vers l’extrême-droite.
Quand on compare X à TikTok
On objectera que tout cela reste difficile à prouver formellement. Et c’est vrai. L’écueil principal — que l’Institut Arago souligne — est celui de la preuve : démontrer qu’une hausse de visibilité résulte d’une manipulation délibérée plutôt que d’un engouement organique exige un accès aux entrailles de la machine que les régulateurs n’ont pas encore réussi à obtenir. X, à la différence de Meta en 2024, n’a pas ouvert ses données à des chercheurs indépendants. Et il est peu probable que cela se produise.
Il reste néanmoins possible de comparer les plateformes. Et cette comparaison permet d’invalider l’hypothèse du talent exceptionnel de communication d’une candidate par rapport à l’autre, et de montrer que le hasard ne peut pas non plus expliquer le phénomène constaté. En janvier et en février, sur TikTok — où personne ne soupçonne Elon Musk d’exercer un pouvoir de recommandation — les performances de Sarah Knafo et de Rachida Dati sont comparables : 11,9 vidéos vues par abonné pour la première, 14,8 pour la seconde. Le talent en communication de la candidate de Reconquête n’est donc pas la cause de son incroyable succès sur X : il produit des effets proportionnés à son audience naturelle sur TikTok, et des effets disproportionnés sur une plateforme, dont le propriétaire a fait de son soutien à l’extrême droite européenne un engagement public assumé.
Cet avantage a une valeur économique que l’Institut Arago a cherché à quantifier. Sur la base d’un CPM (coût pour mille impressions) de 4 euros pour une cible parisienne, les 11 millions de vues supplémentaires estimées pour janvier représentent environ 44 000 euros d’espace publicitaire offert. En février, le surplus estimé dépasse 15 millions de vues supplémentaires, soit au moins 60 000 euros d’équivalent publicitaire. Non déclarées, non comptabilisées dans les comptes de campagne.
Ce que la loi dit, et ce qu’elle peut faire
La situation n’est pas seulement inéquitable. Elle est potentiellement illégale. Le droit français encadre strictement le financement des campagnes électorales, et tout avantage en nature accordé à un candidat doit être déclaré. Si la plateforme X accordait délibérément une visibilité accrue à Sarah Knafo, ce surplus constituerait un avantage en nature non déclaré susceptible d’entraîner l’annulation de l’élection du candidat concerné.
Au niveau européen, le Digital Services Act (DSA), entré en vigueur pour les très grandes plateformes en août 2023, impose à X des obligations de transparence algorithmique et d’évaluation des risques systémiques au nombre desquels figurent explicitement les risques pour les processus démocratiques. La Commission européenne a d’ailleurs ouvert une procédure formelle contre X en 2024. En cas de manquement avéré, les amendes peuvent atteindre 6 % du chiffre d’affaires mondial de la plateforme.
Mais l’application du DSA est lente, laborieuse, et les élections municipales parisiennes n’attendront pas la conclusion de procédures qui s’étireront sur des années. C’est pourquoi l’Institut Arago appelle à des saisines immédiates de la Commission Nationale des Comptes de Campagne et des Financements Politiques, de Viginum — l’agence gouvernementale de lutte contre les ingérences numériques étrangères — et de l’ARCOM. Et au-delà de ces recours, il plaide pour une mesure préventive qui mériterait d’être sérieusement débattue : la suspension des recommandations algorithmiques sur les plateformes en période électorale.
L’idée peut paraître radicale. Elle ne l’est pas davantage que l’obligation de neutralité imposée aux médias audiovisuels pendant les campagnes, ou que la réglementation des sondages en période électorale. Ces règles ont été conçues pour un monde où les acteurs susceptibles d’influencer une élection étaient identifiables, localisés, soumis au droit national. Le monde a changé. Les instruments de régulation tardent à s’adapter, alors que le temps presse : quand on voit ce qu’Elon Musk est capable de faire pour la campagne municipale de Paris, on imagine ce qu’il fera lors de la campagne pour l’élection présidentielle de 2027.
Le « Pour vous » comme bulletin de vote
Il y a quelque chose d’un peu vertigineux dans ce que les études sur l’impact des algorithmes révèlent. L’algorithme de X ne se contente pas, en période électorale, d’amplifier les préférences existantes des utilisateurs : il les modifie. Les chercheurs de Bocconi, Saint-Gall et de la Paris School of Economics ont montré que sept semaines d’exposition au fil « Pour vous » déplacent significativement les opinions politiques, et que cet effet ne disparaît pas quand on revient au fil chronologique. L’algorithme, en d’autres termes, laisse une empreinte durable sur les convictions de ceux qu’il expose à ses préférences.
Que cela résulte d’un choix délibéré de la part d’Elon Musk ou d’un simple biais structurel inscrit dans le code depuis des années — l’étude publiée par Nature rappelle d’ailleurs que Twitter favorisait déjà les contenus conservateurs avant le rachat par Musk — la conséquence politique est la même. Une plateforme privée, propriété d’un homme dont les sympathies politiques sont connues et revendiquées, dispose d’un pouvoir d’influence sur les scrutins électoraux qui n’a aucun équivalent dans l’histoire des démocraties modernes. Ce pouvoir n’est soumis à aucun contre-pouvoir effectif, à aucune obligation de neutralité, à aucun contrôle démocratique.
La baguette de Sarah Knafo, en ce sens, n’est qu’un symbole parmi d’autres. Ce qui est en jeu derrière ses 1,8 million de vues mystérieuses, c’est la question de savoir qui, demain, décide réellement de l’agenda politique des démocraties européennes : les électeurs, les acteurs politiques, les médias nationaux, ou la fonction « Pour vous » d’un réseau social américain.
Références :
- Gauthier G., Hodler R., Widmer P., Zhuravskaya E., « The political effects of X’s feed algorithm », Nature, 18 février 2026. DOI : 10.1038/s41586-026-10098-2
- Institut Arago, « L’algorithme de X boosterait les vidéos de Sarah Knafo », 18 février 2026.
- Institut Arago, « En février X booste encore plus les vidéos de Sarah Knafo », 6 mars 2026.
- Sky News, « How Elon Musk is boosting the British Right », novembre 2025.
- University College Dublin, « Political Bias on X before the 2025 German Federal Election », février 2025.
- People vs. Big Tech, « X and TikTok algorithms favour the far right at the expense of moderate parties », 10 mars 2026. URL : https://peoplevsbig.tech/x-and-tiktok-algorithms-favour-the-far-right-at-the-expense-of-moderate-parties/