Publié le 5 juin 2023
  • rédactrice en chef et vice-présidente chargée des partenariats Europe et Canada pour NewsGuard
Avant même de débattre de choix collectifs, il faut s’accorder sur les faits dont on parle. Or, cette possibilité même est mise en cause par la prolifération de la désinformation en ligne. Mais comment faire le tri ? Qui est légitime pour écarter les fausses informations ? Avec quelle méthodologie et quelles garanties ?
Écouter cet article
00:00 / 00:00

À l’heure du « chaos informationnel », pour reprendre un terme utilisé dans le rapport Bronner, il devient de plus en plus difficile de s’accorder collectivement sur ce qui caractérise une information fiable, et ce qui relève de l’infox. La propagation de fausses informations contribue à éroder la confiance des citoyens dans les médias et les institutions. Ne sachant plus à qui se fier, certains font le choix du scepticisme permanent, allant jusqu’à remettre en cause les fondements de nos démocraties. Si toutes les infox ne sont pas diffusées avec une intention malveillante, toutes, qu’elles soient le fruit d’une campagne de désinformation, d’une simple erreur journalistique ou encore d’un manque de rigueur -dans l’analyse d’une étude scientifique par exemple-, nuisent à la délibération collective et à l’action publique.

« Jungle informationnelle » et défiance : un cocktail délétère

La multiplicité des sources d’information sur la toile – sources fiables nouvellement créées, sources anonymes derrière lesquelles peuvent se cacher toutes sortes d’acteurs, y compris des États étrangers… –  conjuguée à une faible confiance dans les médias (malgré un rebond en 2023, selon le baromètre La Croix, Kantar Public onepoint) constitue un cocktail dangereux.

En effet, non seulement les internautes sont mal équipés pour repérer les informations suspectes en ligne, ils ont aussi tendance à se détourner des sources historiquement connues comme dignes de confiance, risquant ainsi de tomber dans le piège des infox. Plus de la moitié des personnes interrogées dans le monde dans le cadre du Digital News Report 2022 du Reuters Institute et de l’université d’Oxford (54%) sont d’ailleurs conscientes de ce risque, et disent s’inquiéter de leur capacité à distinguer le vrai du faux en ligne quand il s’agit d’actualités.

Comment en effet échapper aux infox quand 59% des personnes qui partagent des articles sur les réseaux sociaux n’en ont lu que le titre, selon une étude de 2016 citée dans le rapport Bronner ?

Abonnez-vous à notre newsletter

Dans cette « jungle informationnelle », où les informations sont surabondantes et souvent outrancières (sur les réseaux sociaux, l’engagement est malheureusement corrélé au caractère sensationnel de l’information diffusée, et la mésinformation n’échappe pas à cette règle), les utilisateurs ne savent plus à qui se fier.

L’exemple TikTok

Prenons l’exemple TikTok, une plateforme sociale à la croissance exceptionnelle plébiscitée par les jeunes (30% des utilisateurs en France ont moins de 18 ans selon Bloomberg), et qui jouit aujourd’hui d’1,7 milliards d’utilisateurs actifs dans le monde (contre 85 millions début 2018), des chiffres à faire pâlir d’envie les plus grands médias traditionnels.

À l’origine, TikTok était surtout connu pour sa composante musicale – on y trouvait principalement des vidéos de karaoké et de danse. Certains représentants de la plateforme en parlent encore comme d’une app de divertissement et de “joie”. Pourtant, si l’application chinoise est bien un lieu de divertissement, c’est aujourd’hui bien plus que cela. C’est un endroit où les utilisateurs vont chercher des informations, et comme tous les réseaux sociaux où se partagent des informations, c’est un lieu où circulent de nombreuses infox, y compris sur des sujets politiques, sociaux, et géopolitiques.

Quelle que soit l’utilisation qui est faite de l’app, que ce soit via le “scroll”, lorsque les utilisateurs se contentent de faire défiler des vidéos sur leur fil “Pour toi”, ou via le moteur de recherche, les utilisateurs de TikTok sont confrontés à de fausses informations sur tous les grands sujets d’actualité, d’après les analyses que nous avons pu mener chez NewsGuard.

Il faut ainsi «scroller» moins de 40 minutes sur TikTok pour «tomber» sur de fausses informations. Nous l’avons révélé dans deux rapports, en septembre 2021 avec le sujet du COVID-19 et en mars 2022 avec la guerre en Ukraine.

Ensuite vient le problème de la recherche sur TikTok, qui n’est pas anodin ou secondaire, puisque selon une étude du Pew Research Center, environ un quart (26%) des utilisateurs américains de moins de 30 ans cherchent régulièrement des informations sur TikTok. Comme nous l’avons montré dans une étude de septembre 2022, près de 20% des vidéos qui apparaissent dans les 20 premiers résultats des recherches sur TikTok sur des sujets d’actualité variés (l’Ukraine, le COVID-19, les vaccins anti-COVID, les fusillades aux États-Unis, etc.) contiennent de fausses informations.

Dans les deux cas, ce sont des algorithmes qui sont les « gardiens de l’information en ligne », pour reprendre le mot de Marc Faddoul, chercheur en intelligence artificielle. Ce sont eux, en effet, qui déterminent quelles vidéos vont apparaître dans votre fil d’actualité, et lesquelles vont remonter dans votre barre de recherche. Ce sont donc eux qui déterminent la proportion d’infox à laquelle vous serez confronté.

La pandémie de COVID-19 : un révélateur

Quel impact pour les démocraties ?

Trois grands axes de la vie publique méritent que l’on s’y attarde. D’abord les infox et la santé publique, avec cette question de fond: ‘comment faire front en temps de pandémie ?’; ensuite la question des infox liées aux élections et la remise en cause du processus démocratique; et enfin la désinformation de guerre, avec l’exemple de la guerre en Ukraine.

En matière de santé publique, la pandémie de COVID-19 a définitivement prouvé à quel point les infox (faux remèdes, fausses informations liées aux mesures de protection – masques, confinement – et infox sur les vaccins) pouvaient avoir des conséquences graves.

En 2020 et 2021, à la faveur des confinements successifs et alors que la science se construisait (et donc se contredisait parfois) devant nos yeux, les fausses informations ont fait florès, empêchant un dialogue serein entre citoyens et pouvoirs publics. À ce jour, chez NewsGuard, nous avons relevé 641 sites diffusant de fausses informations sur le COVID-19, dont 409 aux États-Unis et 59 en France. Et la liste continue de s’allonger.

Une série de 19 études menées entre avril 2020 et juillet 2021 dans le cadre du COVID States Project aux États-Unis (un sondage national visant à mesurer les opinions liées à la pandémie de COVID-19 depuis mars 2020) a ainsi montré que les individus risquaient de mettre leur santé en danger à cause des fausses informations, et ce malgré les recommandations des pouvoirs publics. Et des chercheurs de l’Imperial College de Londres ont constaté dans une étude de février 2021 qu’exposer des personnes disant vouloir se faire vacciner à de récentes infox entraînait une baisse de leur intention de vaccination de 6,2% au Royaume-Uni, et de 6,4% aux États-Unis. Cela n’a rien d’étonnant : « l’effet de vérité illusoire » qui fait que plus on est exposé à une fausse information, plus on a tendance à y croire, est en effet un biais cognitif bien documenté.

Remise en cause des élections et réalités alternatives

Ce même phénomène est aussi à craindre en matière politique, quand les infox peuvent remettre en question la légitimité de tout le système. C’est ce qui a été observé aux États-Unis au moment de l’attaque du Capitole en janvier 2021. S’il s’agissait d’un événement aux causes multiples, les individus qui ont marché sur ce symbole de la démocratie américaine étaient bel et bien convaincus que l’élection leur avait été volée, biberonnés qu’ils étaient aux fausses informations répétées en ligne dans leurs bulles respectives. Et il serait dangereux de penser que la remise en question des fondements même de la démocratie n’est qu’un phénomène américain, ne risquant pas de se reproduire en France. En août 2020, des manifestants anti-masque ont ainsi tenté de prendre d’assaut le Reichstag, en Allemagne. Parmi eux, beaucoup d’individus brandissaient des slogans complotistes et relayant de fausses informations.

En 2022, le risque de voir un déluge de fausses informations remettant en question la légitimité de l’élection présidentielle française, dans une forme de réplique du mouvement « Stop the Steal » qui avait entouré l’élection américaine de 2020, semblait bien réel. Pourtant, même si des infox du même acabit ont bien circulé, certaines apparaissant même comme des copier-coller de mythes nés aux États-Unis (comme Donald Trump, Marine Le Pen aurait mystérieusement perdu des voix la nuit de l’élection ; Dominion, cette société accusée à tort d’avoir détruit des votes en faveur de Donald Trump, aurait été sélectionnée en France pour compter les votes et favoriser Emmanuel Macron, etc), la vague n’a pas pris. En cause notamment, l’absence « d’effet de vérité illusoire », les infox n’ayant commencé à circuler que peu de temps avant le premier tour de scrutin, mais aussi l’absence de porte-voix de premier plan pour relayer ces infox sur la scène politique, quasiment tous les candidats malheureux reconnaissant leur défaite.

Le risque de voir la légitimité de nos scrutins, et donc de notre démocratie, ébranlée, n’a toutefois pas disparu.

Et au-delà du risque de manifestations violentes contre les symboles de notre démocratie, la pénétration des fausses informations pose, de manière plus fondamentale, la question du vivre-ensemble. Comment en effet discuter, échanger, débattre, sans un socle commun de faits sur lesquels s’accorder?

La guerre en Ukraine est en ce sens un cas d’école : deux réalités parallèles coexistent aujourd’hui. Les infox sur l’Ukraine et ses alliés ont commencé à circuler plusieurs mois avant l’invasion de l’Ukraine par la Russie, le 24 février 2022. Pour le Kremlin, l’objectif était clair :  asseoir un récit alternatif permettant de justifier son intervention. Quinze mois plus tard, cette entreprise de désinformation se poursuit, au travers de médias d’État russes, mais pas seulement. Parmi les relais de Moscou figurent aussi des sites anonymes, des sites de recherche ou de prétendues fondations, ou encore des colporteurs d’infox locaux, en France, et dans d’autres pays. À ce jour, nous avons recensé 376 sites diffusant de fausses informations sur la guerre, dont 52 sites francophones.

L’IA générative : vers une démocratisation des campagnes de désinformation ?

Avec l’émergence de nouveaux modèles d’IA générative de plus en plus efficaces se profile par ailleurs une démocratisation sans précédent des campagnes de désinformation, les mettant à la portée de tous.

Dès 2019, les dirigeants d’OpenAI en étaient déjà conscients lorsqu’ils mettaient en garde dans un rapport, contre le risque que des acteurs mal intentionnés se servent de chatbots pour diffuser des infox à large échelle, quelle que soit leur motivation (politique, économique, géopolitique, etc).Dans un rapport publié en janvier 2023, nous avons montré que ChatGPT 3.5 générait de faux récits (y compris des articles de presse détaillés, des essais et des scripts de télévision) pour 80 des 100 récits faux qui lui étaient soumis. Avec GPT-4, les résultats sontencore plus inquiétants puisque lors d’une expérience similaire, le modèle a produit des contenus éloquents à la manière des désinformateurs les plus populaires dans 100% des cas.

Pendant le même temps, les sites d’actualité générés par l’IA se multiplient déjà en ligne, non pas pour diffuser des infox – en tous cas pas pour le moment -, mais pour produire en large quantité et à moindre coût des articles “pièges à clics” de piètre qualité, et ainsi attirer des revenus publicitaires. En avril 2023, nous avions identifié 49 sites dans sept langues – anglais, chinois, français, portugais, tagalog, thaï et tchèque – semblant être entièrement ou majoritairement générés par des logiciels d’intelligence artificielle. À l’heure où j’écris ces lignes, fin mai 2023, l’équipe de NewsGuard en a recensé plus de 125. Et certains de ces sites se sont d’ores et déjà essayé à la désinformation, l’un d’eux annonçant ainsi la mort du président américain Joe Biden en avril 2023.

Régulation et modération de contenus : des solutions suffisantes ?

Face aux infox, deux types de réponses sont aujourd’hui mises en œuvre : la régulation et la modération de contenus. Mais chaque nouvelle mesure génère son lot de contournements, n’empêchant jamais complètement la prolifération des fausses informations.

C’est ainsi que malgré le blocage annoncé de RT et Sputnik sur YouTube, à la suite de leur interdiction de diffusion dans l’Union Européenne, nous avons, chez NewsGuard, identifié, en mars 2022, 250 vidéos relayant des documentaires de RT à propos de la guerre en Ukraine sur plus de 100 chaînes YouTube différentes, atteignant au total plus d’un demi-million de vues. Autre exemple sur TikTok : grâce à la fonction « Duo » qui permet aux utilisateurs de publier une vidéo à côté d’une vidéo d’un autre créateur, des contenus produits par RT et Sputnik continuent d’y être partagés dans l’espace européen.

Quant à la modération des contenus, elle peine souvent à suivre les derniers narratifs ou variations de récits existants, tandis que les colporteurs d’infox, eux, redoublent d’ingéniosité, en utilisant notamment des mots de code ou des fautes d’orthographe délibérées pour échapper à la modération algorithmique.

 Alors que faire ? Plusieurs pistes de travail s’imposent.

Pour ce qui est des outils d’IA générative, il faut absolument construire plus de garde-fous, notamment pour traiter différemment les sources d’information en fonction de leur degré de fiabilité, et pour veiller à ce que les chatbots se refusent à reproduire les principaux récits de désinformation.

Il est également important d’identifier et de suivre de près l’activité des plus gros colporteurs d’infox en ligne puisque ceux-ci sont souvent des multi-récidivistes, comme l’a prouvé la guerre en Ukraine, dans laquelle se sont engouffrés de nombreux super-propagateurs de fausses informations sur le COVID-19.

Rendre la mésinformation moins lucrative est aussi une urgence absolue. Selon une étude que nous avons réalisée avec Comscore, les grandes marques financent à hauteur de 2,6 milliards de dollars les sites de mésinformation chaque année via la publicité programmatique. Sensibiliser les marques, et les aider à responsabiliser leurs achats publicitaires est donc une priorité.

Pour rétablir la confiance des citoyens envers les médias et les institutions, il est aussi primordial de généraliser l’éducation aux médias, pas seulement chez les enfants et les adolescents, qui bénéficient souvent d’ateliers en milieu scolaire, mais bien à TOUS les âges. Trouver de nouveaux lieux pour faire vivre cette éducation aux médias, comme les bibliothèques publiques par exemple, est donc crucial. Ce faisant, il faudra toutefois être vigilant à ne pas créer une génération de sceptiques absolus, pour qui tout contenu, toute image serait par principe considérée comme suspecte… Là encore, c’est notre démocratie qui est en jeu. Le corollaire nécessaire et indispensable à la lutte contre la mésinformation, et à l’éducation aux médias, est donc la reconstruction de marques médiatiques robustes, en qui les lecteurs ont de nouveau confiance. Pour cela, les médias traditionnels doivent accepter de faire œuvre d’humilité, se remettre en question et chercher à être toujours plus transparents et crédibles. Car le meilleur antidote à la mésinformation et à la désinformation restera toujours l’actualité de qualité.

Envie de contribuer à La Grande Conversation ?
Venez nourrir les débats, contredire les études, partager vos analyses, observations, apporter un éclairage sur la transformation du monde, de la société, sur les innovations sociales et démocratiques en cours ou à venir.

Chine Labbé

NewsGuard est une société américaine qui évalue la fiabilité de milliers de sites d'actualité et d'information en fonction de critères journalistiques et apolitiques. Depuis avril 2023, Chine Labbé est aussi membre du Comité Relatif à l'honnêteté, à l'indépendance et au pluralisme de l'information et des programmes de Radio France.