Le Digital Service Act à l’épreuve du feu

Le Digital Service Act à l’épreuve du feu
Publié le 31 octobre 2023
L’heure de vérité approche plus vite que prévu pour le Digital Service Act (DSA), ce règlement de l’Union Européenne qui vient d’entrer en vigueur et qui promet une régulation efficace des services numériques, en particulier des réseaux sociaux.

Les atrocités commises par le Hamas et la riposte d’Israël ont déchainé un torrent de désinformations et de haine sur les plateformes et ont mis en lumière les effets désastreux des décisions d’Elon Musk concernant la modération de X (ex-Twitter) sur la qualité de l’information véhiculée par la plateforme. Après avoir licencié la plupart des salariés chargés de la modération du réseau et allégé les règles de cette modération, il a décidé de vendre le label « certifié », alors qu’auparavant il était octroyé aux comptes les plus fiables. Les conséquences ne se sont pas fait attendre. Un rapport récent de Newsguard montre que les utilisateurs « certifiés » sur X produisent 74% des affirmations fausses ou sans fondement les plus virales liées à la guerre Israël-Hamas. Alors que le label « certifié » était auparavant un signal de fiabilité, il est devenu, depuis qu’il est vendu, un accélérateur de la désinformation. Le ton est très vite monté entre la Commission européenne et Elon Musk, Thierry Breton, commissaire européen au marché intérieur, menaçant de fermer X si la plateforme ne se conforme pas à la réglementation, et Elon Musk de riposter en déclarant qu’il envisageait de fermer X en Europe. C’est l’occasion d’examiner en détail ce règlement européen qui présente des aspects nouveaux en matière de régulation du numérique, notamment dans la latitude qu’il donne aux autorités de régulation nationales pour évaluer le respect des règles par les plateformes.

Une réglementation d’un genre nouveau

Le DSA est très novateur parce qu’il réclame une mobilisation forte de tous les acteurs (pouvoirs publics, société civile, chercheurs, régulateurs nationaux, etc.) pour construire une régulation efficace. Il ne tombe pas dans l’écueil d’une définition précise de la notion de contenu illicite. Il revient désormais aux législateurs nationaux d’en apporter une définition et aux régulateurs de les sanctionner. Cette approche présente l’avantage de ne pas restreindre a priori la portée du texte à un certain type de contenus. Elle ouvre la voie à une réglementation évolutive et adaptée aux besoins de chaque démocratie européenne.

Le DSA dégage quatre grands types de risques dits systémiques :

  • La diffusion de contenus illégaux,
  • L’entrave à la liberté d’expression,
  • Les effets négatifs sur les élections et le débat public,
  • La violence basée sur le genre, envers les mineurs, le risque pour la santé mentale et les potentiels effets négatifs sur le bien-être physique et mental.

Une telle catégorisation, volontairement large, autorise une démarche itérative, laissant une marge de manœuvre aux législateurs et aux régulateurs nationaux, qui tient compte de l’incertitude qui règne encore sur l’évolution du système. Le règlement innove aussi en donnant un rôle majeur dans le processus de régulation, à de nouveaux acteurs, tels que les ONG et les chercheurs. Ceux-ci pourront apporter leur point de vue et leur expertise pour mieux qualifier le caractère illicite de certaines pratiques et améliorer la régulation, dans un domaine où l’innovateur a par essence un temps d’avance sur le régulateur et les pouvoirs publics. Le fait d’imposer des obligations de moyens aux plateformes permet aussi au régulateur de recentrer son action sur l’essentiel : s’assurer, avec l’aide de la société civile, que les plateformes agissent pour circonscrire les risques identifiés par les pouvoirs publics et sanctionner les manquements. Le texte acte ainsi une « déjudiciarisation » des contentieux sur le sujet : il met en place des procédures spécifiques, « out of court dispute mechanisms », dont l’objectif est d’accélérer le règlement des différends et de ne laisser aux juges nationaux et européens que le soin de se prononcer sur des questions de fond. C’est pourquoi la construction d’une jurisprudence sur l’application du DSA est également une condition essentielle de sa réussite.

Abonnez-vous à notre newsletter

Ce texte offre de nombreuses possibilités qui doivent être explorées et exploitées. Et cela risque de prendre du temps, alors même que l’orgie de désinformation liée à l’affrontement entre Israël et le Hamas appelle une action urgente. En matière de contrôle de la conformité des plateformes, le nouveau dispositif va nécessiter une montée en compétences de tous les acteurs impliqués. L’appréciation de la qualité du contrôle interne mis en place par les entreprises, censé être effectif depuis fin août pour les très grandes plateformes (« very large online plateforms » ou VLOPs), doit faire ses preuves, tant l’éventail des procédures de contrôle interne est large d’une entreprise à l’autre. L’audit externe annuel imposé par le règlement nécessite le développement d’un nouveau domaine d’expertise chez les grands auditeurs historiques. La qualité des audits s’améliorera progressivement mais la phase d’apprentissage sera longue. Le DSA crée ainsi des cycles annuels de contrôle rythmés par les publications annuelles des audits externes. A l’image de la structuration au niveau international de l’analyse des risques financiers et de la lutte contre le blanchiment d’argent (GAFI), qui s’est étalée sur plusieurs dizaines d’années, le nouvel environnement de régulation des plateformes numériques ne se construira pas en un an. 

Un autre défi concerne la participation de la société civile, et plus particulièrement du monde de la recherche. La formalisation de leur contribution à la régulation est une nouveauté et a pour objectif d’améliorer la qualité des analyses des risques et de la conformité. Reste à savoir comment les chercheurs, les ONG et les régulateurs nationaux vont collaborer pour agir de concert. Il faut réfléchir dès maintenant à la création d’un réseau européen de chercheurs, afin d’organiser leur participation à ce nouveau dispositif.

Enfin, l’enjeu primordial pour le régulateur, au niveau national mais surtout européen, est de pratiquer une régulation qui s’adapte aux innovations et aux nouveaux risques, en particulier ceux qui naîtront de l’Intelligence Artificielle générative. La Commission doit définir le bon niveau de régulation, pour ne pas handicaper les plateformes dont l’action ne présente pas de risques identifiés (Wikipédia par exemple), ce qui va demander une pratique avisée. La réponse qu’elle apportera aux contributions des chercheurs et des ONG, sa capacité à imposer aux plateformes un accès public à leurs données et leurs algorithmes, permettront la naissance d’une régulation globale et efficace.

Le troisième risque

Parmi les quatre risques systémiques visés par le DSA, les deux premiers – la diffusion des contenus illégaux et l’entrave à la liberté d’expression – sont clairement balisés, et font l’objet d’une solide jurisprudence dans la plupart des pays européens. Les problèmes soulevés par le quatrième – la violence basée sur le genre, envers les mineurs, les risques pour la santé mentale et les potentiels effets négatifs sur le bien-être physique et mental – sont apparus plus récemment mais commencent à être traités, dans leur triple dimension, scientifique, médicale et juridique. Mais c’est bien le troisième risque – les effets négatifs sur les élections et le débat public – qui est le plus sensible politiquement et qui représente le plus grand enjeu pour l’avenir de la démocratie. Les autorités de régulation doivent oser s’aventurer sur ce terrain difficile, si elles veulent être à la hauteur de l’enjeu. Ce n’est pas une terra incognita, les législations sur la presse et l’audio-visuel ont déjà abordé la question et défini des règles du jeu. La loi française aborde le respect du pluralisme, l’interdiction de la publicité politique, le respect des droits de la personne et de son intégrité, la protection de l’enfance et de l’adolescence, l’honnêteté et le pluralisme de l’information et des programmes, la promotion de la langue française, et la maîtrise de l’antenne. La loi américaine mettait autrefois en avant la Fairness doctrine, mise en œuvre par la Federal Communication Commission, qui obligeait les médias à présenter dans leurs programmes d’information « des points de vue opposés sur des problèmes d’importance publique faisant l’objet de controverses », et à le faire d’une façon « honnête, équitable et équilibrée ». De même, on connaît bien maintenant les biais introduits par les algorithmes des plateformes. Le modèle économique de celles-ci entre en contradiction directe avec le principe fondateur de la délibération démocratique, qui est la recherche d’un consensus politique ou l’agrément de toutes les parties sur un dissensus. Les algorithmes visent à maximiser ce que les plateformes appellent « l’engagement des utilisateurs » mesuré par le temps qu’ils passent sur les réseaux, le nombre de fois qu’ils les consultent chaque jour, et le nombre de contributions ou d’interactions avec les autres utilisateurs. La méthode la plus efficace pour maximiser l’engagement, est l’exposition répétée à des contenus choquants ou haineux. C’est une machine à fabriquer du dissensus et de la polarisation. La recherche systématique du « clash » sur les réseaux sociaux a des répercussions sur les médias traditionnels, qui subissent l’influence de ces nouvelles pratiques numériques.

On assiste aujourd’hui à un phénomène d’hybridation des médias, les médias traditionnels adoptant certains codes caractéristiques des réseaux sociaux. Dans ce nouveau régime médiatique, on observe l’érosion de ce qu’ont été les principes cardinaux des grands médias des démocraties occidentales au XXe siècle : information objective, à destination du plus grand nombre et présentation de points de vue pluralistes sur chaque sujet abordé. Le mouvement est plutôt à la polarisation, la multiplication des contenus d’opinion et à un recul de l’objectivité de l’information, dans un contexte où cette dernière est surabondante et où les « gatekeepers » et les relais de confiance ne jouent plus leur rôle. Dans ce contexte, on voit qu’il est nécessaire de rapprocher la régulation des médias traditionnels et celle des plateformes, sans pour autant les fusionner, mais en les fondant sur des principes communs. Parmi ces principes, doit figurer le droit des citoyens à être exposé à une information pluraliste et contradictoire, complémentaire du droit à la liberté d’expression, dont l’inscription au panthéon des droits inaliénables sert aujourd’hui d’argument d’autorité pour les adversaires d’une régulation et d’une modération sur les réseaux sociaux, dont Elon Musk est le porte-étendard. Ce principe devra se vérifier à l’échelle de chaque citoyen, tant l’individualisation de l’information est devenue facile technologiquement, créant les bulles de filtre, et empêchant le dialogue. Le pluralisme de l’information ne peut plus se juger à partir de la diversité et du nombre de médias et de plateformes, il doit l’être au niveau de la qualité et de la pluralité des informations que reçoit quotidiennement chaque citoyen. Les outils existent et le DSA est un cadre adapté. C’est sur la forme juridique et technologique que pourrait prendre la mise en œuvre de ce principe que régulateurs, chercheurs et ONG devraient commencer à travailler. Une telle approche heurterait de front le modèle des plateformes basé sur l’économie de l’attention et l’engagement, mais c’est une piste féconde pour lutter contre la dégradation du débat public, et redonner aux citoyens le goût de la démocratie.

Il faut espérer que les premiers pas du DSA soient l’occasion d’un coup d’éclat. Il faudrait que la Commission européenne ait le courage d’interdire la plateforme X (ex-Twitter), même provisoirement, pour le non-respect de ses obligations. A moins qu’Elon Musk, par bravade, commette la sottise de fermer lui-même son activité en Europe. Un tel évènement donnerait à ce nouveau règlement la visibilité qu’il mérite, et permettrait aux utilisateurs de découvrir une nouvelle génération de plateformes, comme Bluesky, ou Mastodon, qui sont décentralisées, ouvertes, interopérables, qui autorisent l’utilisateur à choisir entre de nombreux algorithmes de recommandation, et les développeurs à écrire de nouveaux algorithmes, et qui reconnaît la propriété intellectuelle des usagers sur leurs posts. Bref des plateformes qui respectent la démocratie, au lieu de chercher à la détruire.

Envie de contribuer à La Grande Conversation ?
Venez nourrir les débats, contredire les études, partager vos analyses, observations, apporter un éclairage sur la transformation du monde, de la société, sur les innovations sociales et démocratiques en cours ou à venir.

Alessandro Comte

Jean-Louis Missika