DSA : autopsie d'un scandale mondial contre nos libertés
I. Qu'est-ce que le DSA ?
II. Les VLOPs et VLOSEs : les cibles principales
- AliExpress (104,3 millions d'utilisateurs actifs mensuels — Pays-Bas)
- Amazon Store (181,3 millions — Luxembourg)
- App Store / Apple (123 millions — Irlande)
- (Pays-Bas)
- Facebook (Irlande)
- Instagram (Irlande)
- LinkedIn (Irlande)
- Pinterest (Irlande)
- Pornhub (Chypre)
- Shein (désigné en avril 2024)
- Snapchat (Pays-Bas)
- Temu (désigné en mai 2024)
- TikTok (Irlande)
- WhatsApp (Irlande)
- Wikipedia (désigné sous réserve du statut spécifique de la Wikimedia Foundation)
- 𝕏, ex-Twitter (Irlande)
- XVideos (République tchèque)
- XNXX (République tchèque, désigné en juillet 2024)
- YouTube (Irlande)
- Zalando (Allemagne)
- Bing / Microsoft (Irlande)
- Google Search (Irlande)
[COMPLÉMENT] Ce que les VLOPs et VLOSEs doivent faire
III. Extension du domaine du DSA
« La Commission, en coopération avec les coordinateurs pour les services numériques, peut publier des lignes directrices relatives à l'application du paragraphe 1 en ce qui concerne des risques spécifiques, notamment pour présenter les meilleures pratiques et recommander d'éventuelles mesures, en tenant dûment compte des conséquences possibles de ces mesures sur les droits fondamentaux consacrés par la Charte de toutes les parties concernées. »
« La Commission et le comité encouragent et facilitent l'élaboration de codes de conduite volontaires au niveau de l'Union afin de contribuer à la bonne application du présent règlement, en tenant compte en particulier des difficultés spécifiques liées à la lutte contre différents types de contenus illicites et de risques systémiques. »
« Lorsque des risques systémiques significatifs au sens de l'article 34, paragraphe 1, apparaissent [...] la Commission peut inviter les fournisseurs de très grandes plateformes en ligne [...] à participer à l'élaboration de codes de conduite, notamment en définissant des engagements à prendre des mesures spécifiques d'atténuation des risques, ainsi qu'un cadre régulier de comptes rendus. »
[COMPLÉMENT] Volontaire ou Obligatoire ? C'est pareil...
« engager ou adapter une coopération avec d'autres fournisseurs de plateformes en ligne ou de moteurs de recherche en ligne par l'intermédiaire des codes de conduite et des protocoles de crise visés aux articles 45 et 48 respectivement »
« Pour les signataires qui sont désignés comme VLOPs et VLOSEs, cela peut contribuer à garantir une atténuation appropriée des risques. En outre, les VLOPs et VLOSEs sont soumis à un audit annuel obligatoire en vertu du DSA pour vérifier leur conformité aux engagements pris dans le cadre de ces codes de conduite. »
« Twitter leaves EU voluntary Code of Practice against disinformation. But obligations remain. You can run but you can't hide. Beyond voluntary commitments, fighting disinformation will be legal obligation under #DSA as of August 25. Our teams will be ready for enforcement. »
« We believe this is a mistake of Twitter. Twitter has chosen the hard way. They chose confrontation. This was noticed very much in the Commission. I know the code is voluntary, but make no mistake, by leaving the code Twitter has attracted a lot of attention, and its actions and compliance with EU law will be scrutinized vigorously and urgently. »
« There is an interplay between the code of practice, which is a voluntary agreement, and the Digital Services Act, which is enforceable. »
IV. Thierry Breton, le cerveau du DSA
V. Le « Bouclier européen de la démocratie » : la prochaine étape
- La préparation d'un « protocole d'incidents et de crise » au titre de l'article 48 du DSA, pour « assurer des réactions rapides aux opérations d'information transnationales de grande ampleur ».
- La création d'un « Réseau européen indépendant de vérificateurs de faits » (fact-checkers), doté de 5 millions d'euros.
- Le renforcement du Code de conduite sur la désinformation, avec des « dialogues réglementaires » pour les signataires jugés insuffisamment engagés.
- La mise à jour du « DSA Elections Toolkit », utilisé par les coordinateurs nationaux pour encadrer la modération de contenu autour des élections.
- La création d'un « Centre » dédié à la lutte contre la « manipulation de l'information et l'ingérence étrangère » (FIMI), doté d'une « plateforme de parties prenantes » incluant des ONG.
- L'exploration de « futures voies pour l'environnement technologique de l'UE », avec un « focus initial sur les futures plateformes de réseaux sociaux ».
VI. L'axe transatlantique de la censure
- 2016 : La Commission crée le premier « Code de conduite sur les discours de haine », en réaction au référendum britannique et à la montée des mouvements populistes en Europe.
- 2018 : Elle lance le « Code de bonnes pratiques contre la désinformation », explicitement motivé par les récits d'ingérence russe dans l'élection américaine de 2016 et la présidentielle française de 2017.
- 2020-2021 : Pendant la pandémie, la Commission et l'administration Biden coordonnent leurs efforts de « lutte contre la désinformation » sur le Covid-19. Les documents obtenus par le House Judiciary Committee montrent que les mêmes organisations — le Centre for Countering Digital Hate (CCDH), le Global Disinformation Index (GDI), HateAid — travaillent simultanément avec la Commission européenne et l'administration Biden pour pousser les plateformes à censurer des contenus qualifiés de « désinformation ».
- 2022 : Le DSA est voté. Parallèlement, l'administration Biden crée puis dissout (sous la pression) le « Disinformation Governance Board » du Department of Homeland Security — le même concept, mais sans l'enrobage réglementaire européen.
- 2023-2025 : La Commission met le DSA en application, ciblant en priorité 𝕏 — la seule grande plateforme à avoir rompu le consensus de la censure en publiant les « Twitter Files » et en restaurant la liberté d'expression.
« For far too long, ideologues in Europe have led organized efforts to coerce American platforms to punish American viewpoints they oppose. The Trump Administration will no longer tolerate these egregious acts of extraterritorial censorship. »
VII. 𝕏 : première amende, premier procès
« 𝕏 is being targeted by the European Commission because it is a free speech platform. Social media platforms are today's public square, and the DSA threatens speech in that public square. »
« Under the DSA, the Commission is able to define the rules for so-called 'content moderation,' launch investigations, enforce them, and impose massive penalties for noncompliance, all with no meaningful checks and balances. The threat to free speech is se Ce qu'il faut retenir
VIII. Ce qu'il faut retenir
- Un cadre légal voté une seule fois, qui confère à la Commission le pouvoir d'ajouter des obligations sans repasser par le Parlement.
- Des instruments « volontaires » adossés à des sanctions « obligatoires », qui rendent le volontariat illusoire.
- Une application sélective et politisée, qui cible en priorité la seule plateforme ayant choisi la liberté d'expression.




.png)


