DSA : autopsie d'un scandale mondial contre nos libertés
Ou comment la Commission européenne s'est arrogée le pouvoir de censurer Internet à l'échelle mondiale. Le cerveau de cette machine ? Un Français. Plongée au cœur d'un scandale qui menace la liberté d'expression de 450 millions d'Européens et que les médias traditionnels passent sous silence — mais que vous aurez lu ici.
En 2022, le Parlement européen a voté une loi de 102 pages pour réguler les plateformes numériques. En deux ans, la Commission européenne — un organe non élu — y a ajouté 153 pages de réglementation contraignante sans aucun vote, ouvert 14 enquêtes, prononcé la première amende de l'histoire du texte, et annoncé un « Bouclier de la démocratie » promettant des dizaines de mesures supplémentaires. Le père de cet édifice ? Thierry Breton, ancien commissaire français au Marché intérieur, celui-là même qui est aujourd'hui interdit de territoire aux États-Unis pour son rôle dans ce que le secrétaire d'État Marco Rubio appelle le « complexe industriel mondial de la censure ».
Guide de lecture — Prenez le temps de le lire, c'est dense et complet mais indispensable pour poser le cadre, contredire le narratif officiel et donner matière à réfléchir. Vous y trouverez quelques révélations surprenantes. Les sections marquées [COMPLÉMENT] posent le cadre factuel et juridique du DSA. Si vous êtes pressé, survolez-les.
Voici donc comment une loi européenne est devenue une machine à censurer qui grandit toute seule.
I. Qu'est-ce que le DSA ?
Le Digital Services Act — en français, le Règlement sur les services numériques — est un règlement européen entré en vigueur le 16 novembre 2022. Le texte couvre 93 articles et 156 considérants, soit 102 pages dans sa version consolidée.
Le DSA s'applique à tous les « fournisseurs de services intermédiaires » qui offrent leurs services à des destinataires situés dans l'Union européenne, qu'ils soient établis dans l'UE ou en dehors. Le champ est vaste. Le règlement distingue quatre catégories de services, soumises à des obligations croissantes selon un principe de proportionnalité — du moins en théorie.
En théorie, car le DSA a été voté par le Parlement européen le 5 juillet 2022, approuvé par le Conseil le 4 octobre 2022, et publié au Journal officiel le 27 octobre 2022. C'est le dernier moment où les représentants des peuples européens ont eu leur mot à dire sur son contenu. Tout ce qui s'est passé depuis — et il s'est passé beaucoup de choses — est l'œuvre exclusive de la Commission européenne, sans aucun contrôle parlementaire.
II. Les VLOPs et VLOSEs : les cibles principales
Les Very Large Online Platforms (VLOPs) et les Very Large Online Search Engines (VLOSEs) sont les services qui dépassent le seuil de 45 millions d'utilisateurs actifs mensuels dans l'Union européenne, soit environ 10 % de la population de l'UE. Ce seuil est défini à l'article 33 du DSA.
Le mécanisme de désignation fonctionne ainsi. Depuis le 17 février 2023, tous les fournisseurs de plateformes en ligne et de moteurs de recherche — quelle que soit leur taille — doivent publier le nombre de leurs utilisateurs actifs mensuels dans l'UE et mettre à jour ce chiffre tous les six mois.
Le 25 avril 2023, la Commission a publié sa première liste de 19 services désignés — 17 VLOPs et 2 VLOSEs. La liste a été ensuite étendue par vagues successives. Au total, les services désignés à ce jour sont les suivants.
Très grandes plateformes en ligne (VLOPs) :
- AliExpress (104,3 millions d'utilisateurs actifs mensuels — Pays-Bas)
- Amazon Store (181,3 millions — Luxembourg)
- App Store / Apple (123 millions — Irlande)
- (Pays-Bas)
- Facebook (Irlande)
- Instagram (Irlande)
- LinkedIn (Irlande)
- Pinterest (Irlande)
- Pornhub (Chypre)
- Shein (désigné en avril 2024)
- Snapchat (Pays-Bas)
- Temu (désigné en mai 2024)
- TikTok (Irlande)
- WhatsApp (Irlande)
- Wikipedia (désigné sous réserve du statut spécifique de la Wikimedia Foundation)
- 𝕏, ex-Twitter (Irlande)
- XVideos (République tchèque)
- XNXX (République tchèque, désigné en juillet 2024)
- YouTube (Irlande)
- Zalando (Allemagne)
Très grands moteurs de recherche en ligne (VLOSEs) :
- Bing / Microsoft (Irlande)
- Google Search (Irlande)
Google est le groupe le plus touché, avec cinq services désignés : Google Search (VLOSE), YouTube, Google Maps, Google Play et Google Shopping (VLOPs). Meta suit avec Facebook et Instagram. L'écrasante majorité de ces entreprises sont américaines. Les seuls acteurs non-américains de la liste sont des plateformes chinoises (AliExpress, TikTok, Shein, Temu) et quelques entreprises européennes (Booking.com , Zalando, ainsi que les plateformes de contenu pour adultes).
Ce n'est pas un hasard. Sur les 22 services désignés, 12 sont exploités par des entreprises américaines. Le DSA est, dans les faits, un instrument de régulation des Big Tech américaines par la bureaucratie européenne. C'est exactement ce que le président de la FTC Andrew Ferguson (@AFergusonFTC) a qualifié d'« atteinte aux droits des entreprises et des citoyens américains », ce que le secrétaire d'État Marco Rubio (@SecRubio) a dénoncé comme le produit d'un « complexe industriel mondial de la censure », et ce que l'administration Trump a résumé par une question simple : pourquoi des bureaucrates européens décident-ils de ce que les Américains peuvent lire sur des plateformes américaines ?
[COMPLÉMENT] Ce que les VLOPs et VLOSEs doivent faire
En plus de toutes les obligations applicables aux plateformes ordinaires, les VLOPs et VLOSEs sont soumis aux obligations suivantes, prévues aux articles 34 à 42 du DSA.
Évaluation annuelle des risques systémiques (article 34). Chaque année, les VLOPs et VLOSEs doivent identifier, analyser et évaluer les « risques systémiques » liés à leurs services. La liste des risques à évaluer est volontairement large : diffusion de contenus illicites, atteintes aux droits fondamentaux (liberté d'expression, pluralisme des médias, non-discrimination, protection des consommateurs, droits de l'enfant), effets négatifs sur le discours civique et les processus électoraux, effets négatifs sur la santé publique, la sécurité publique, et le bien-être des mineurs. Un résumé public de cette évaluation doit être publié chaque année.
Mesures d'atténuation des risques (article 35). Sur la base de cette évaluation, les VLOPs et VLOSEs doivent mettre en place des mesures « raisonnables, proportionnées et efficaces » pour atténuer les risques identifiés. Cela peut inclure la modification du design ou du fonctionnement de leurs services, la modification de leurs systèmes de recommandation, le renforcement des équipes de modération, ou — et c'est ici que le piège se referme — l'adhésion à des codes de conduite.
Audit indépendant annuel (article 37). Un audit externe, réalisé par un organisme indépendant, doit vérifier chaque année la conformité du VLOP ou VLOSE avec l'ensemble de ses obligations, y compris les engagements pris dans le cadre de codes de conduite.
Fonction de conformité interne (article 41). Les VLOPs et VLOSEs doivent nommer un responsable de la conformité et mettre en place une structure interne dédiée.
Transparence publicitaire (article 39). Ils doivent maintenir un registre public de toutes les publicités diffusées sur leur service, accessible pendant un an après la dernière diffusion.
Accès aux données pour les chercheurs (article 40). Les VLOPs et VLOSEs doivent fournir un accès à leurs données aux chercheurs agréés, lorsque la recherche contribue à l'identification des risques systémiques.
Droit à un système de recommandation non profilé (article 38). Les utilisateurs doivent disposer d'une option de recommandation de contenu qui ne soit pas fondée sur le profilage.
Rapports de transparence semestriels. En plus du rapport annuel obligatoire pour toutes les plateformes, les VLOPs et VLOSEs doivent publier des rapports tous les six mois, incluant des informations détaillées sur les ressources humaines consacrées à la modération de contenu, les qualifications du personnel, et la précision des outils automatisés.
Supervision directe par la Commission européenne. Contrairement aux autres services, qui sont supervisés par les autorités nationales (les « coordinateurs pour les services numériques » ou DSC, un par État membre), les VLOPs et VLOSEs sont supervisés directement par la Commission européenne. C'est un choix politique majeur, adopté après les critiques à l'encontre du commissaire irlandais à la protection des données, accusé de ne pas avoir appliqué correctement le RGPD contre les plateformes domiciliées en Irlande.
Sanctions. En cas de non-conformité, la Commission peut infliger des amendes allant jusqu'à 6 % du chiffre d'affaires mondial annuel du fournisseur, assorties d'astreintes pouvant atteindre 5 % du chiffre d'affaires quotidien. En décembre 2025, la Commission a infligé à X (ex-Twitter) une amende de 120 millions d'euros — la première amende du DSA.
Autrement dit : la Commission européenne est à la fois celle qui écrit les règles, celle qui désigne les entreprises soumises aux règles, celle qui enquête sur leur respect, et celle qui prononce les sanctions. Comme l'a formulé l'Alliance Defending Freedom International, qui représente 𝕏 dans son recours déposé le 16 février 2026 : la Commission est « régulateur, procureur et juge » — un cumul de pouvoirs sans aucun équivalent dans les démocraties libérales.
Reformulons : conformez-vous à nos règles « volontaires », ou portez seuls le fardeau de prouver votre conformité au titre de la loi contraignante. Le chemin « volontaire » est plus léger. Le chemin involontaire est plus lourd. Ce n'est pas un choix. C'est de la coercition avec des étapes supplémentaires.
III. Extension du domaine du DSA
En février 2026, la Commission a ouvert 14 enquêtes formelles contre des VLOPs et VLOSEs, visant notamment AliExpress, Facebook, Instagram, Temu, TikTok, 𝕏, Shein, ainsi que plusieurs plateformes de contenu pour adultes. Ce cadre d'application est remarquablement actif pour un règlement qui n'a que deux ans d'existence complète.
Mais le plus remarquable n'est pas l'application du texte tel qu'il a été voté. C'est sa capacité à grandir tout seul sans repasser par le processus démocratique.
Deux dispositions, enfouies dans le texte, confèrent à la Commission européenne le pouvoir d'étendre indéfiniment le périmètre du règlement. L'article 35(3) l'autorise à émettre des « lignes directrices » (guidelines). L'article 45 l'autorise à faciliter l'élaboration de « codes de conduite ». Ces instruments s'ajoutent au DSA comme des annexes — mais ne nécessitent aucun vote du Parlement européen ni des États membres. Ils sont adoptés par la Commission, point final.
Voici les dispositions exactes du Règlement (UE) 2022/2065.
Article 35(3) — Les lignes directrices :
« La Commission, en coopération avec les coordinateurs pour les services numériques, peut publier des lignes directrices relatives à l'application du paragraphe 1 en ce qui concerne des risques spécifiques, notamment pour présenter les meilleures pratiques et recommander d'éventuelles mesures, en tenant dûment compte des conséquences possibles de ces mesures sur les droits fondamentaux consacrés par la Charte de toutes les parties concernées. »
Article 45(1) — Les codes de conduite :
« La Commission et le comité encouragent et facilitent l'élaboration de codes de conduite volontaires au niveau de l'Union afin de contribuer à la bonne application du présent règlement, en tenant compte en particulier des difficultés spécifiques liées à la lutte contre différents types de contenus illicites et de risques systémiques. »
Article 45(2) — Le vrai levier :
« Lorsque des risques systémiques significatifs au sens de l'article 34, paragraphe 1, apparaissent [...] la Commission peut inviter les fournisseurs de très grandes plateformes en ligne [...] à participer à l'élaboration de codes de conduite, notamment en définissant des engagements à prendre des mesures spécifiques d'atténuation des risques, ainsi qu'un cadre régulier de comptes rendus. »
En deux ans d'existence, la Commission a ajouté au DSA les instruments suivants :
1. Code de conduite sur la désinformation. Initialement un « code de bonnes pratiques » de 2018, révisé en 2022, officiellement intégré au cadre du DSA le 13 février 2025. Plus de 40 signataires, dont Google, Meta, TikTok, Microsoft, et les principaux VLOPs. L'adhésion au code constitue désormais « un critère significatif et pertinent pour déterminer la conformité au DSA ».
2. Lignes directrices sur les processus électoraux. Publiées le 26 mars 2024, en vertu de l'article 35(3), à l'approche des élections européennes de juin 2024. Elles recommandent des mesures de mitigation des risques avant, pendant et après les élections : modération de contenu renforcée, équipes internes dédiées, étiquetage des contenus générés par IA, coopération avec les autorités nationales, rapports post-électoraux.
3. Lignes directrices sur la protection des mineurs. Publiées le 14 juillet 2025, en vertu de l'article 28(4). Elles couvrent la vérification d'âge, la conception des systèmes de recommandation, les contrôles parentaux, les garde-fous pour les chatbots IA, la modération de contenu, la conception d'interface (interdiction du scroll infini, des dark patterns, des incitations à l'urgence). La Commission a précisé qu'elle utiliserait ces lignes directrices comme « référence significative et pertinente » pour évaluer la conformité des plateformes.
4. Code de conduite sur la lutte contre les discours de haine illégaux en ligne. Héritier d'un code de 2016, intégré au cadre du DSA le 20 janvier 2025. 12 signataires, dont sept VLOPs désignés : Facebook, Instagram, LinkedIn, Snapchat, TikTok, X et YouTube.
Au total : 153 pages de réglementation supplémentaire ajoutées aux 102 pages du texte de base. Soit une augmentation de 150 % en deux ans. Aucune de ces pages n'a été soumise au vote du Parlement européen ou des parlements nationaux.
On ne saurait trop insister sur ce point. Le Parlement européen — la seule institution de l'UE directement élue par les citoyens — a voté une loi de 102 pages. La Commission — un organe exécutif dont les membres ne sont pas élus — a unilatéralement ajouté 153 pages de réglementation contraignante à cette loi. C'est un coup d'État réglementaire au ralenti.
[COMPLÉMENT] Volontaire ou Obligatoire ? C'est pareil...
La Commission « invite ». Mais décliner l'invitation a un coût.
Le mécanisme est le suivant. En vertu des articles 34 et 35 du DSA, les très grandes plateformes en ligne (VLOPs) et les très grands moteurs de recherche (VLOSEs) doivent évaluer et atténuer les « risques systémiques » liés à leurs services, sous peine d'amendes pouvant atteindre 6 % de leur chiffre d'affaires mondial.
Parmi les mesures d'atténuation reconnues, l'article 35(1)(h) cite explicitement :
« engager ou adapter une coopération avec d'autres fournisseurs de plateformes en ligne ou de moteurs de recherche en ligne par l'intermédiaire des codes de conduite et des protocoles de crise visés aux articles 45 et 48 respectivement »
Et la page officielle de la Commission sur les codes de conduite précise :
« Pour les signataires qui sont désignés comme VLOPs et VLOSEs, cela peut contribuer à garantir une atténuation appropriée des risques. En outre, les VLOPs et VLOSEs sont soumis à un audit annuel obligatoire en vertu du DSA pour vérifier leur conformité aux engagements pris dans le cadre de ces codes de conduite. »
Autrement dit : les codes sont « volontaires » au sens où personne n'est formellement obligé de les signer. Mais si vous ne les signez pas, vous perdez votre meilleure ligne de défense contre une amende de plusieurs milliards d'euros. Et si vous les signez, vous êtes audité chaque année sur votre conformité.
C'est ce que la littérature académique appelle un « cadre réglementaire hybride : des codes de droit souple sont adossés à des obligations de droit dur, tandis que ces dispositions de droit dur s'appuient en retour sur ces instruments de droit souple pour leur mise en œuvre concrète. »
Pour comprendre la nature réelle de ces instruments « volontaires », il suffit de lire ce que les commissaires européens ont dit lorsque Twitter (devenu 𝕏) a quitté le Code de bonnes pratiques contre la désinformation en mai 2023.
Thierry Breton, alors commissaire au Marché intérieur, le 1er juin 2023 :
« Twitter leaves EU voluntary Code of Practice against disinformation. But obligations remain. You can run but you can't hide. Beyond voluntary commitments, fighting disinformation will be legal obligation under #DSA as of August 25. Our teams will be ready for enforcement. »
Věra Jourová, vice-présidente de la Commission chargée des Valeurs et de la Transparence, le 5 juin 2023, en conférence de presse à Bruxelles :
« We believe this is a mistake of Twitter. Twitter has chosen the hard way. They chose confrontation. This was noticed very much in the Commission. I know the code is voluntary, but make no mistake, by leaving the code Twitter has attracted a lot of attention, and its actions and compliance with EU law will be scrutinized vigorously and urgently. »
Jourová a ajouté :
« There is an interplay between the code of practice, which is a voluntary agreement, and the Digital Services Act, which is enforceable. »
Et : les signataires du code bénéficieraient d'une « situation plus facile » car ils auraient déjà rempli la « charge de la preuve »
IV. Thierry Breton, le cerveau du DSA
Le 23 août 2024, à la veille d'un entretien en direct entre Elon Musk et le candidat à la présidence Donald Trump sur 𝕏, le commissaire Thierry Breton a adressé une lettre publique à Musk, l'avertissant que la diffusion de cet échange pourrait constituer une « amplification de contenus potentiellement préjudiciables » et rappelant que 𝕏 faisait l'objet de « procédures formelles en cours » au titre du DSA. La menace était à peine voilée : diffusez cette interview, et nous sévissons.
Le message était si grotesque que même la présidence de la Commission s'en est distanciée. Breton a été poussé à la démission deux semaines plus tard, remplacé par Henna Virkkunen. Mais le mal était fait. Le commissaire avait montré, en temps réel et devant le monde entier, à quoi servait vraiment le DSA : non pas à protéger les citoyens européens, mais à intimider une plateforme de libre expression à la veille d'un événement politique majeur dans un pays tiers. Bien sur, lui qui est désormais sur tous les plateaux TV en France n'est jamais interrogé sur ce sujet...
Cet épisode n'est pas un dérapage isolé. Comme l'ont révélé les documents non publics obtenus sous assignation par la commission judiciaire de la Chambre des représentants américaine (House Judiciary Committee), la Commission européenne a tenu depuis 2020 plus de 100 réunions à huis clos avec les grandes plateformes pour les pousser à modifier leurs règles de modération de contenu — des règles qui, parce qu'elles s'appliquent mondialement, affectent directement les citoyens américains.
Le rapport détaille comment, lors d'un atelier DSA tenu en mai 2025 à huis clos, les régulateurs de la Commission ont explicitement indiqué aux plateformes que la « révision continue des règles communautaires mondiales » constituait une bonne pratique de conformité au DSA. Lors de ces mêmes exercices, un message hypothétique de réseau social affirmant « we need to take back our country » — une expression politique courante et anodine — a été qualifié de « discours de haine illégal » que les plateformes seraient tenues de censurer.
V. Le « Bouclier européen de la démocratie » : la prochaine étape
Et la Commission ne s'arrête pas là. Le 12 novembre 2025, elle a publié une communication intitulée « European Democracy Shield: Empowering Strong and Resilient Democracies » — le « Bouclier européen de la démocratie ». Ce document, juridiquement non contraignant mais politiquement programmatique, annonce une cinquantaine de mesures supplémentaires qui viendront s'ajouter au cadre du DSA.
Parmi les mesures annoncées :
- La préparation d'un « protocole d'incidents et de crise » au titre de l'article 48 du DSA, pour « assurer des réactions rapides aux opérations d'information transnationales de grande ampleur ».
- La création d'un « Réseau européen indépendant de vérificateurs de faits » (fact-checkers), doté de 5 millions d'euros.
- Le renforcement du Code de conduite sur la désinformation, avec des « dialogues réglementaires » pour les signataires jugés insuffisamment engagés.
- La mise à jour du « DSA Elections Toolkit », utilisé par les coordinateurs nationaux pour encadrer la modération de contenu autour des élections.
- La création d'un « Centre » dédié à la lutte contre la « manipulation de l'information et l'ingérence étrangère » (FIMI), doté d'une « plateforme de parties prenantes » incluant des ONG.
- L'exploration de « futures voies pour l'environnement technologique de l'UE », avec un « focus initial sur les futures plateformes de réseaux sociaux ».
Quand une institution non élue se donne le droit de définir ce qui est de la « désinformation », de financer les fact-checkers qui la qualifient, de sanctionner les plateformes qui ne la censurent pas, et d'appeler tout cela un « bouclier démocratique », nous ne sommes plus dans la régulation. Nous sommes dans le ministère de la Vérité.
VI. L'axe transatlantique de la censure
Il serait naïf de penser que la Commission européenne agit seule. Le DSA est le produit d'une convergence idéologique entre la bureaucratie bruxelloise et l'appareil démocrate américain, forgée dans la panique qui a suivi l'élection de Trump en 2016 et le vote du Brexit.
La chronologie est éloquente :
- 2016 : La Commission crée le premier « Code de conduite sur les discours de haine », en réaction au référendum britannique et à la montée des mouvements populistes en Europe.
- 2018 : Elle lance le « Code de bonnes pratiques contre la désinformation », explicitement motivé par les récits d'ingérence russe dans l'élection américaine de 2016 et la présidentielle française de 2017.
- 2020-2021 : Pendant la pandémie, la Commission et l'administration Biden coordonnent leurs efforts de « lutte contre la désinformation » sur le Covid-19. Les documents obtenus par le House Judiciary Committee montrent que les mêmes organisations — le Centre for Countering Digital Hate (CCDH), le Global Disinformation Index (GDI), HateAid — travaillent simultanément avec la Commission européenne et l'administration Biden pour pousser les plateformes à censurer des contenus qualifiés de « désinformation ».
- 2022 : Le DSA est voté. Parallèlement, l'administration Biden crée puis dissout (sous la pression) le « Disinformation Governance Board » du Department of Homeland Security — le même concept, mais sans l'enrobage réglementaire européen.
- 2023-2025 : La Commission met le DSA en application, ciblant en priorité 𝕏 — la seule grande plateforme à avoir rompu le consensus de la censure en publiant les « Twitter Files » et en restaurant la liberté d'expression.
Le rapport du House Judiciary Committee de juillet 2025 documente cette convergence avec des documents internes des plateformes obtenus sous assignation. Il montre que la Commission a spécifiquement ciblé des contenus politiques américains — sur l'immigration, le Covid, les questions de genre — et a poussé les plateformes à modifier leurs règles de modération mondiales pour s'y conformer. Puisque les grandes plateformes appliquent un jeu unique de règles à l'échelle mondiale, ce que la Commission interdit à Bruxelles disparaît aussi à New York.
Le secrétaire d'État Marco Rubio a posé les mots justes sur cette réalité le 23 décembre 2025, en annonçant des restrictions de visa contre Thierry Breton et quatre responsables d'ONG anti-désinformation :
« For far too long, ideologues in Europe have led organized efforts to coerce American platforms to punish American viewpoints they oppose. The Trump Administration will no longer tolerate these egregious acts of extraterritorial censorship. »
Sarah Rogers, sous-secrétaire d'État à la diplomatie publique, a qualifié Breton de « cerveau » (mastermind) du DSA et a explicitement dénoncé la lettre envoyée à Musk avant l'interview de Trump comme un acte d'intimidation.
VII. 𝕏 : première amende, premier procès
Le 5 décembre 2025, la Commission a prononcé la première amende de l'histoire du DSA : 120 millions d'euros contre 𝕏. Trois griefs :
1. La coche bleue serait « trompeuse ». Avant le rachat par Musk, Twitter attribuait la coche bleue à des journalistes et personnalités après vérification de leur identité. Musk a ouvert l'accès à tous les abonnés Premium. La Commission juge ce système « trompeur ». L'ironie : on reproche à 𝕏 d'avoir démocratisé l'accès à un symbole autrefois réservé à une élite médiatique.
2. Le registre publicitaire serait insuffisant. Critique plus recevable sur le fond — mais TikTok, poursuivi pour les mêmes lacunes, a échappé à toute amende en acceptant des « engagements contraignants ». Même infraction, deux traitements.
3. L'accès des chercheurs aux données serait entravé. La Commission reproche à 𝕏 de limiter le scraping. Paradoxe : 𝕏 est la seule grande plateforme à avoir publié l'intégralité du code source de son algorithme de recommandation. Celles qui n'ont rien ouvert ne sont pas inquiétées.
Le 16 février 2026, 𝕏 a déposé un recours devant le Tribunal de l'Union européenne, soutenu par l'Alliance Defending Freedom International. C'est la première contestation judiciaire d'une amende DSA. La plateforme dénonce une « enquête incomplète et superficielle », des « erreurs procédurales graves » et un « biais de poursuite ». Son conseil, Adina Portaru (@Adina_Portaru), a déclaré :
« 𝕏 is being targeted by the European Commission because it is a free speech platform. Social media platforms are today's public square, and the DSA threatens speech in that public square. »
Et :
« Under the DSA, the Commission is able to define the rules for so-called 'content moderation,' launch investigations, enforce them, and impose massive penalties for noncompliance, all with no meaningful checks and balances. The threat to free speech is se Ce qu'il faut retenir
VIII. Ce qu'il faut retenir
Le DSA n'est pas ce que ses promoteurs prétendent. Ce n'est pas un instrument de protection des consommateurs ou de lutte contre les contenus illégaux. C'est un mécanisme d'extension indéfinie du pouvoir de la Commission européenne sur l'espace numérique mondial, construit sur trois piliers :
- Un cadre légal voté une seule fois, qui confère à la Commission le pouvoir d'ajouter des obligations sans repasser par le Parlement.
- Des instruments « volontaires » adossés à des sanctions « obligatoires », qui rendent le volontariat illusoire.
- Une application sélective et politisée, qui cible en priorité la seule plateforme ayant choisi la liberté d'expression.
En deux ans, la Commission a ajouté 153 pages de réglementation sans vote, ouvert 14 enquêtes, prononcé sa première amende, et annoncé un « Bouclier de la démocratie » qui promet des dizaines de mesures supplémentaires. Le Parlement européen n'a pas eu son mot à dire sur une seule de ces décisions.
Quand Thierry Breton affirmait que « 90 % du Parlement européen a voté le DSA », il avait raison — sur les 102 premières pages. Les 153 suivantes, personne ne les a votées. Et les 50 mesures du « Bouclier de la démocratie » non plus. C'est exactement le problème.
Les peuples européens n'ont jamais consenti à ce que leur espace numérique soit régulé par des lignes directrices, des codes de conduite et des protocoles de crise rédigés à huis clos par des fonctionnaires non élus, en coordination avec des ONG dont les dirigeants sont désormais interdits de territoire aux États-Unis pour leur rôle dans un « complexe industriel mondial de la censure ».
La question n'est plus de savoir si le DSA est une bonne ou une mauvaise loi. La question est de savoir qui décide de son contenu — et la réponse, en février 2026, est : pas les peuples.
Mais l'histoire ne s'arrête pas là. Dans les semaines et les mois qui viennent, plusieurs fronts vont s'ouvrir simultanément — et chacun d'entre eux pourrait faire basculer l'édifice.
Le procès 𝕏. Le recours déposé le 16 février 2026 par 𝕏 devant le Tribunal de l'Union européenne est la première contestation judiciaire d'une amende DSA. Si le Tribunal annule tout ou partie de la décision, c'est le pouvoir de sanction de la Commission qui sera remis en cause — et avec lui, tout le mécanisme de coercition « volontaire » décrit dans cet article. L'enjeu dépasse 𝕏 : c'est la question de savoir si un organe non élu peut cumuler les rôles de législateur, enquêteur, procureur et juge sans violer l'État de droit.
L'escalade américaine. L'administration Trump a déjà interdit Thierry Breton de territoire, menacé de représailles tarifaires pouvant atteindre 200 milliards de dollars sur les produits européens, et lancé une enquête parlementaire documentant ce qu'elle appelle une « campagne de censure d'une décennie ». Le House Judiciary Committee a assigné dix entreprises technologiques à produire leurs échanges avec la Commission européenne. Chaque lot de documents rendu public révèle de nouvelles réunions à huis clos, de nouvelles pressions sur les règles de modération mondiales. L'administration américaine a explicitement chargé ses diplomates en Europe de collecter des preuves de censure liée au DSA et de pousser les gouvernements européens à modifier la loi.
L'opacité croissante de la Commission. Signe que la pression porte, Politico a révélé en février 2026 que les ateliers DSA de la Commission se tiennent désormais à huis clos à la demande des plateformes, et que l'équipe d'application du DSA, dirigée par Prabhat Agarwal, utilise désormais des messages éphémères sur Signal pour communiquer. Le Médiateur européen a ouvert une enquête sur le « blackout informationnel quasi total » imposé par la Commission sur l'application du DSA. Quand le régulateur se met à communiquer en messages qui disparaissent, ce n'est plus de la régulation — c'est de la conspiration.
Le Bouclier de la démocratie. Les cinquante mesures annoncées en novembre 2025 commencent à se déployer. Le réseau de fact-checkers est en cours de constitution. Le protocole de crise de l'article 48 est en préparation. La mise à jour du « DSA Elections Toolkit » est prévue pour les prochaines échéances électorales. Chaque mesure ajoute une couche supplémentaire de pouvoir discrétionnaire à la Commission — toujours sans vote parlementaire.
La résistance intérieure. En janvier 2026, le président polonais Karol Nawrocki a refusé de signer la loi désignant l'autorité nationale chargée d'appliquer le DSA en Pologne — un veto de fait. C'est le premier acte de résistance d'un État membre contre l'architecture d'application du règlement. D'autres pourraient suivre si la pression américaine se conjugue avec le scepticisme croissant de certains gouvernements européens face à l'expansion incontrôlée du pouvoir de la Commission.
Nous sommes à un point de bascule. D'un côté, la Commission européenne tente d'accélérer le déploiement de son appareil de contrôle de l'information avant que la fenêtre politique ne se referme. De l'autre, une coalition hétéroclite — l'administration Trump, des gouvernements d'États membres récalcitrants, des plateformes en procès, des chercheurs lanceurs d'alerte — commence à tirer sur les coutures d'un édifice construit à la hâte et en catimini.



