Big Brother
Un rapport du Congrès américain expose le système mondial de censure piloté par l’UE
Un rapport publié le 25 juillet par le Congrès américain révèle les instructions confidentielles données par la Commission européenne aux plateformes de média en ligne pour qu’elles censurent des contenus politiques ou satiriques relevant de la libre expression, et ne présentant aucun caractère illégal.
Le Congrès américain a publié fin juillet un rapport faisant état de réunions confidentielles avec la Commission européenne dont elle exigeait que le contenu ne soit pas divulgué. Le document présente le Digital Services Act (DSA) européen comme un outil servant de cadre légal à une censure politique mondiale, en imposant les standards européens à des plateformes diffusant des contenus à l’échelle mondiale.
Le rapport cite plusieurs exemples de propos jugés séditieux ou haineux par la Commission, et détaille le fonctionnement de ce dispositif orwellien, présenté textuellement comme « Un système mondial de censure ». Critiquer les voitures électriques ou exprimer l’urgence de « reprendre en main le pays », comme le pensent aujourd’hui 91 % des Français fait partie des contenus que l’UE estime relever d’un d’une atteinte à l’ordre public, que tout média ou plateforme est désormais tenu de censurer dans le cadre de la nouvelle loi européenne.
Contexte de ce rapport
Le rapport de 145 pages (La menace de la censure étrangère : comment la loi sur les services numériques de l’Union européenne impose une censure mondiale et porte atteinte à la liberté d’expression des Américains), publié le 25 juillet, est le fruit d’une enquête de la Commission judiciaire par le Congrès américain sur la manière dont les réglementations étrangères contraignent les plateformes en ligne (TikTok, X, YouTube, Facebook et Instagram) à censurer des discours aux États-Unis où la liberté d’expression est gravée dans le marbre de la Constitution, dont elle constitue l’objet du Premier Amendement.
La commission judiciaire enquête plus spécifiquement depuis août 2024 sur la manière dont le Digital Services Act (DSA) européen impose une censure mondiale et entrave la liberté d’expression des Américains. L’élément déclencheur a été une lettre adressée à Elon Musk, le propriétaire de X, adressée par l’ancien commissaire européen Thierry Breton, dans laquelle il menaçait d’instrumentaliser le DSA et de cibler X par des représailles réglementaires pour avoir diffusé en direct, aux États-Unis, une interview de Donald Trump. Le rapport fait état de documents confidentiels révélant que :
les régulateurs européens utilisent la DSA comme outil de censure : (1) pour cibler les discours politiques essentiels qui ne sont ni nuisibles ni illégaux ; et (2) pour faire pression sur les plateformes, principalement les entreprises américaines de médias sociaux, afin qu’elles modifient leurs politiques globales de modération des contenus en réponse aux demandes européennes. En d’autres termes, la DSA porte atteinte à la liberté d’expression en ligne des Américains.
Les contenus que la Commission européenne exige aux plateformes en ligne d’identifier, car ils présenteraient des « risques systémiques » qu’elle leur demande d’atténuer, incluent les « contenus trompeurs ou mensongers » ; la « désinformation » ; « tout effet négatif réel ou prévisible sur le discours civil et les processus électoraux » ; les « discours de haine » ainsi que des « informations qui ne sont pas illégales », mais qui ne conviennent pas à la Commission.
Les gouvernements, y compris l’UE, utilisent les termes « désinformation » et « discours de haine » pour censurer leurs opposants politiques et les critiques de leurs électeurs, y compris les « mèmes » [une image, une vidéo ou un texte humoristique diffusé largement sur Internet] et autres formes de satire, classifiés comme « discours de haine ».
Création d’un régime mondial de censure, le modus operandi de l’UE
Le rapport détaille une série de leviers mis en œuvre par la Commission européenne pour rendre la censure opérante :
- menace d’amendes (jusqu’à 6 % du chiffre d’affaires annuel mondial), voire de fermeture temporaire des plateformes au sein de l’UE si « des circonstances extraordinaires entraînent une menace grave pour la sécurité publique ou la santé publique dans l’Union » ;
- recours forcé à des arbitres tiers certifiés et indépendants pour résoudre les litiges en matière de modération de contenu, mais qui n’ont pas besoin d’être indépendants des régulateurs européens qui les certifient, ce qui incite les arbitres à se conformer aux exigences de censure des régulateurs ;
- coûts supportés par les plateformes lorsqu’elles perdent en arbitrage, ce qui les incite à censurer le contenu signalé comme potentiellement non conforme avant même le début de l’arbitrage ;
- priorité imposée par le DSA aux demandes de censure émanant de tiers agréés par les gouvernements (signaleurs de confiance), uniformément favorables à la censure et, dans de nombreux cas, financés par ces derniers, ce qui signifie qu’ils sont incités à censurer des discours critiques envers les politiciens en place ;
- obligations de censure supplémentaires imposées aux entreprises par le biais d’un « code de conduite » prétendument volontaire sur le discours haineux et la désinformation. En vertu de ce code de conduite, les plateformes doivent accepter d’utiliser des vérificateurs de faits tiers sur leurs plateformes. Le rapport mentionne un exemple notoire de l’hypocrisie du DSA lorsqu’il qualifie ces codes de « volontaires » :
À titre d’exemple, X a quitté le Code de conduite sur la désinformation en mai 2023 en raison des obligations liées aux vérificateurs de faits tiers, que X n’utilise généralement pas. En octobre 2023, moins de deux mois après que les obligations du DSA sont devenues juridiquement contraignantes, les régulateurs de la Commission ont ouvert une enquête sur l’utilisation par X des Community Notes au lieu de vérificateurs de faits. Aujourd’hui, la Commission prévoirait d’infliger à X une amende de plus d’un milliard de dollars pour non-conformité avec le DSA.
La réunion que la Commission voulait garder secrète
Le rapport révèle le contenu d’une réunion organisée le 7 mai dernier, intitulée « Atelier multipartite prenantes sur le DSA » (DSA Multi-Stakeholder Workshop). Il précise que la Commission a refusé de permettre au public de visionner cet atelier et a spécifiquement demandé aux plateformes de ne pas partager d’informations à son sujet.

Exemple de propos haineux : « Nous devons reprendre en main notre pays »
En vertu d’une assignation, le Congrès a obtenu les documents relatifs à cet atelier qui révèlent ce que les responsables de la Commission ont dit en privé aux plateformes et qui « offrent des éclairages essentiels sur le processus de censure du DSA ». Le rapport précise :
Les exercices de l’atelier de mai 2025 montrent les véritables définitions de termes clés dans le DSA et les attentes des régulateurs de la Commission vis-à-vis des plateformes de médias sociaux en matière de censure. Par exemple, l’atelier de la Commission a qualifié un message hypothétique sur les réseaux sociaux déclarant « Nous devons reprendre en main notre pays » – une déclaration politique courante et anodine – de « discours haineux illégal » que les plateformes sont tenues de censurer en vertu du DSA.
Les documents révèlent également que « l’humour et la satire sont des cibles prioritaires de la censure au titre du DSA ». Par exemple :
L’atelier de la Commission a demandé aux plateformes comment elles pourraient utiliser des « processus de modération de contenu » pour « traiter… des mèmes qui pourraient être utilisés pour diffuser des discours haineux ou des idéologies discriminatoires ».
Il a été demandé dans ce cadre aux plateformes de modifier leurs conditions générales à l’échelle mondiale pour se conformer aux obligations du DSA. Les comptes rendus internes d’entreprises présentes lors de l’atelier soulignent également que les organisations de la société civile habilitées par le DSA – dont certaines agissent également en tant qu’arbitres extrajudiciaires ou signaleurs de confiance –, sont « orientées à gauche et favorables à la censure ».
Selon le rapport, ces organisations auraient poussé les plateformes à étendre la définition des termes « discours haineux » et « désinformation », affirmant que « les efforts de modération de contenu doivent aller au-delà de l’illégalité » et « traiter les contenus nuisibles et la désinformation ».
Exemple de propos illégal : « Les voitures électriques ne sont ni écologiques ni une solution économique »
Le document illustre son interprétation en citant trois exemples issus de Pologne, de France et d’Allemagne :
- Pologne, 2024 : l’Institut national polonais de recherche (NASK) a signalé à TikTok une publication affirmant simplement que « Les voitures électriques ne sont ni écologiques ni une solution économique » ;
- France, 2023 : la Police nationale française a ordonné à X de retirer une publication d’un compte basé aux États-Unis « qui notait, de manière satirique, qu’un attentat terroriste perpétré par un réfugié syrien pouvait avoir été causé par des politiques françaises permissives en matière d’immigration et de citoyenneté ». Il est fait référence ici à l’attentat commis à Annecy ;
- Allemagne, 2024 : les autorités allemandes ont classé un message appelant à l’expulsion d’étrangers criminels comme « incitation à la haine », « incitation à la violence » et « atteinte à la dignité humaine », ordonnant à X de supprimer cette publication. La demande est intervenue quatre mois après la publication du message, posté en réponse à un article de presse sur une famille d’étrangers syriens qui auraient « commis 110 infractions pénales » pendant leur séjour en Allemagne.
Le rapport confirme ainsi que le pire est à attendre du nouveau Règlement sur la liberté des médias qui ordonne le fichage des médias et autorise l’espionnage ainsi que l’emprisonnement des journalistes et de leurs sources, sans qu’une décision de justice soit nécessaire, dès lors qu’une infraction recensée comme telle par l’UE est suspectée.