L’interférence d’Elon Musk dans les élections en Allemagne : quel rôle pour le Digital Services Act ?
Face aux ingérences d’Elon Musk en Allemagne ou en Grande-Bretagne et au moment où Mark Zuckerberg, le patron de Meta, promet de « restaurer la liberté d’expression » sur ses plateformes, que peut l’Europe ? Le Digital Services Act fournit-il une réponse satisfaisante ?
Par Anastasia Iliopoulou-Penot, Professeur à l’Université Paris Panthéon-Assas
Quels sont les faits ?
« Si on nous avait dit que le propriétaire d’un des plus grands réseaux du monde soutiendrait une nouvelle internationale réactionnaire et interviendrait directement dans les élections, y compris en Allemagne, qui l’aurait imaginé ? » C’est ainsi que le Président Macron a exprimé sa préoccupation, le 6 janvier dernier, face à l’attitude d’Elon Musk, milliardaire influent, bientôt propulsé à la tête du département de l’efficacité gouvernementale de l’administration Trump. Parallèlement à une tentative de déstabilisation du gouvernement britannique et au soutien affiché au parti Reform UK, et après des tweets ciblant des décisions de justice en Italie et en Roumanie, l’attention d’Elon Musk s’est tournée vers la vie politique allemande et les élections fédérales du 23 février 2025. Après le tweet controversé « Seul l’AfD peut sauver l’Allemagne », le propriétaire de X a annoncé la tenue d’une « conversation » avec la coprésidente de ce parti, retransmise en direct sur sa plateforme le 9 janvier 2025. La réaction du Président Macron vient s’ajouter à l’indignation du chancelier et du président allemands ainsi que des premiers ministres britannique et norvégien et du président italien, qui ont tous dénoncé une interférence dans les affaires internes et les élections des pays européens.
Par un curieux hasard du calendrier, ce haussement de ton intervient quatre ans après l’insurrection du Capitole qui a mis en lumière la puissance des réseaux sociaux et la nécessité d’encadrer cette puissance afin de faire face aux dangers qu’ils entraînent pour la démocratie. Cette prise de conscience a encouragé en Europe l’adoption de la grande charte des réseaux sociaux que constitue le Digital Services Act. La plateforme X, désignée -sans surprise- comme une « très grande plateforme en ligne » au sens de l’article 33 du DSA doit assumer une série d’obligations de diligence sous le contrôle de la Commission européenne, en charge de l’enforcement du DSA à l’égard des très grands opérateurs. Interpellée par différents acteurs politiques au sujet des débordements d’Elon Musk sur X, la Commission choisit une voie prudente, comme le montrent les déclarations de son porte-parole, Thomas Regnier, du 6 janvier. Elle poursuit son enquête dans le cadre de la procédure formelle ouverte contre X le 18 décembre 2023, concernant, entre autres, l’action insuffisante de l’entreprise pour atténuer les risques pour le discours civique et les élections ainsi que la diffusion de contenus illégaux. La Commission doit faire face à une équation complexe, qui implique une double nécessité : d’une part, celle de respecter la liberté d’expression d’une plateforme de réseau social et de son propriétaire, qui l’utilise pourtant comme caisse de résonance de ses vues personnelles ; d’autre part, celle de défendre le pluralisme et l’intégrité des processus démocratiques en Europe. Comment naviguer à travers cette tension ? Le DSA fournit-il le cadre approprié à cette fin ?
Qu’est-ce qui peut être reproché à la plateforme X au regard du DSA ?
Les prises de position de Elon Musk au soutien de l’extrême droite sont couvertes par la liberté d’expression, comme l’est son débat avec Alice Weidel sur X. Le DSA ne constitue pas un instrument de censure et ne fait pas de la Commission le ministère européen de la vérité, décidant ce qui (ne) peut (pas) être dit en ligne. Ce qui est problématique au regard du DSA et peut légitimement faire l’objet de l’enquête de la Commission, c’est l’amplification de contenus d’une certaine couleur politique, y compris des « tweets » du propriétaire de la plateforme (qui arrivent en première place des suggestions aux utilisateurs du service). Ce sont donc les systèmes algorithmiques de recommandation, qui se trouvent au cœur du débat juridique. Le DSA tente de percer le mystère de ces « boites noires », notamment à travers l’obligation de gestion des risques qu’il met à la charge de très grandes plateformes en ligne.
En effet, l’article 34 du DSA impose aux très grands opérateurs d’évaluer les risques systémiques « découlant de la conception ou du fonctionnement de leurs services et de leurs systèmes connexes, y compris des systèmes algorithmiques, ou de l’utilisation faite de leurs services ». Ensuite, l’article 35 du DSA exige l’adoption de « mesures d’atténuation raisonnables, proportionnées et efficaces, adaptées » à ces risques. Parmi les exemples des mesures d’atténuation citées par cette disposition figure le test et l’adaptation des systèmes de recommandation des contenus. Mais quel type de risque systémique est en cause en l’espèce ?
L’article 34 du DSA retient une conception large de ce qui peut constituer un risque systémique. Parmi les catégories recensées, deux paraissent pertinentes en l’espèce : d’une part, celle qui se réfère à tout effet négatif réel ou prévisible sur le discours civique et les processus électoraux et, d’autre part, celle relative à tout effet similaire sur le pluralisme, composante essentielle de la liberté d’expression et d’information.
S’agissant du premier type de risque (effet négatif sur le discours civique et les processus électoraux), il peut être soutenu que la diffusion rapide et à grande échelle des opinions extrémistes et la diminution de la visibilité des points de vue alternatifs, toutes deux produites par des algorithmes de recommandation de X, contribue à une altération du discours public incompatible avec un débat démocratique éclairé et apaisé. Cette situation, combinée à l’« avantage significatif et précieux » (v. le tweet de Thierry Breton) qu’offre à la vice-présidente de l’AfD face à ses adversaires politiques la visibilité sans commune mesure du débat sur X, permet de parler d’une manipulation électorale. Il s’agirait alors d’une utilisation à mauvais escient de la plateforme, qui saperait l’intégrité du processus électoral. Quant au deuxième type de risque (effet négatif sur le pluralisme), intimement lié au premier, l’accent placé par le porte-parole de la Commission sur la nécessité de l’absence de traitement préférentiel ou de visibilité accrue de certains types de contenus, n’est pas sans rappeler l’exigence de pluralisme interne, consacrée récemment par le Conseil d’État, s’agissant des médias audiovisuels traditionnels (CE, 13 février 2024, Reporters Sans Frontières, req. n° 463162). Transposée aux plateformes de réseaux sociaux, cette compréhension du pluralisme impliquerait que chaque opérateur assure en son sein une certaine diversité d’informations et d’opinions, sans indûment privilégier un courant de pensée, un parti ou un candidat. Dans ses lignes directrices à l’intention des fournisseurs de très grandes plateformes en ligne sur l’atténuation des risques systémiques pour les processus électoraux, présentées en vertu de l’article 35, paragraphe 3, du DSA (JO C, C/2024/3014, 26.4.2024), la Commission affirme que ces fournisseurs « devraient envisager de veiller à ce que les systèmes de recommandation soient conçus et adaptés de manière à permettre aux utilisateurs de choisir et de maîtriser véritablement leurs flux d’information en tenant dûment compte de la diversité et du pluralisme des médias ». Les systèmes de recommandation de X semblent loin de suivre cette orientation.
L’argumentation de la Commission pourrait trouver un appui utile dans le rapport d’audit indépendant de X réalisé conformément à l’article 37 du DSA et récemment rendu public. Ce rapport qualifie d’« insuffisamment rigoureux » le processus d’évaluation des risques liés aux systèmes de recommandation de la plateforme (rapport, p. 17, point 49). Il souligne, de surcroit, que les conditions générales de X ne présentent pas de manière adéquate les paramètres de recommandation des contenus (p. 16, point 43) et invite l’entreprise à fournir des détails concernant les critères utilisés et leur importance respective. Le rapport d’audit pointe alors une possible violation de l’obligation de transparence formulée par l’article 27 du DSA.
Si l’enquête des services de la Commission va nécessairement prendre du temps (car il faut établir avec soin la preuve des allégations), l’institution tiendra, le 24 janvier prochain, une table ronde avec le régulateur allemand (Bundesnetzagentur), des organisations de la société civile et les plateformes, dont X, pour aborder les risques liés aux élections en Allemagne.
La Commission européenne, nouvelle gardienne de l’intégrité des processus démocratiques en Europe ?
La procédure lancée contre X le 18 décembre 2023 n’est pas la seule action entreprise par la Commission afin de défendre l’intégrité des processus démocratiques. La Commission semble traiter cette question comme une priorité de son action de mise en œuvre du DSA. Elle a alors ouvert deux autres procédures pour violation présumée de l’obligation des plateformes d’évaluer avec diligence et d’atténuer de manière adéquate les risques liés au discours civique et aux processus électoraux. La première, lancée le 30 avril 2024, concerne la politique de Meta de rétrogradation (demotion) de contenus politiques sur les fils d’actualité de Facebook et d’Instagram. La deuxième, déclenchée le 17 décembre 2024, porte sur l’utilisation détournée de TikTok en faveur du candidat prorusse Calin Georgescu dans l’élection présidentielle roumaine tenue le 24 novembre 2024 et finalement annulée par une décision de la Cour constitutionnelle roumaine du 6 décembre 2024 en raison des interférences étrangères. Au cœur des trois procédures se trouve le fonctionnement des systèmes de recommandation.
Par ailleurs, il est possible de prédire, l’ouverture d’un nouveau chapitre de l’enquête sur Meta à la suite de l’annonce, le 7 janvier dernier, par Mark Zuckerberg, d’un changement de politique visant à « restaurer la liberté d’expression » sur ses plateformes. Alors que la « nouvelle ère » promet une diffusion élargie de contenus politiques (de laquelle s’étaient abstenus Facebook et Instagram), elle est marquée par la cessation du programme de vérification des informations (impliquant des partenariats avec des médias et des ONG), alors que l’introduction de ce programme en 2016 visait précisément à répondre aux critiques adressées à Facebook liées à la diffusion de contenus inexacts ayant influencé le résultat des élections fédérales. Qualifiés de « politiquement biaisés », les vérificateurs de faits (fact-checkers), seront remplacés par un système de notes des utilisateurs (community-notes), similaire à celui utilisé par le réseau X. Le dirigeant de Meta annonce également le relâchement des politiques de modération et son intention de travailler avec le gouvernement américain pour « repousser la tendance globale » de limitation de la parole libre en ligne, ciblant au passage les lois européennes « institutionnalisant la censure et décourageant l’innovation ».
Le virage de Mark Zuckerberg et l’attitude d’Elon Musk constituent des épreuves pour l’efficacité de la régulation européenne des géants du numérique, pour la résilience de nos démocraties et pour la qualité de l’éducation et de l’esprit critique des citoyens. Espérons que le chancelier allemand a raison lorsqu’il affirme, lors de son allocution des vœux pour le nouvel an : « Vous, les citoyens, déterminez ce qui se passera (…) Ce ne sont pas les propriétaires des réseaux sociaux qui en décident… »