EU Blog

EUROPE | ÉCONOMIE EUROPÉENNE | SÉCURITÉ EUROPÉENNE | DROIT EUROPÉEN
EuBlog

Passer à l’offensive – la lutte contre les fausses informations

Anita Szűcs | blog | 8/12/2025 | PDF |

Le tournant intervient en 2018, lorsque l’administration française déclare ouvertement qu’elle traite les fausses nouvelles comme un problème de sécurité nationale prioritaire.

Dans ses vœux à la presse du 3 janvier 2018, le président Macron annonce la volonté de présenter un texte législatif spécifique pour lutter contre les fausses informations en période électorale (Présidence de la République, 2018). La même année, le 22 décembre, est adoptée la loi dite « fake news » (« loi infox » / « loi fake news » – Loi relative à la lutte contre la manipulation de l’information). Cette loi vise spécifiquement la désinformation intentionnelle qui menace l’intégrité du scrutin ou l’ordre public. Elle prévoit la possibilité d’engager une procédure judiciaire accélérée (action en référé) contre un contenu en ligne « manifestement faux », diffusé en ligne « de manière délibérée, artificielle ou automatisée et à grande échelle » et « susceptible de troubler l’ordre public ou de porter atteinte à la sincérité du scrutin ». Le juge doit statuer dans un délai de quarante-huit heures et peut ordonner le retrait du contenu en ligne de la plateforme concernée. La loi impose des obligations aux fournisseurs de contenus qui comptent au moins cinq millions d’utilisateurs par mois ou qui dépassent certains seuils de recettes publicitaires. Ils doivent rendre publics la liste des commanditaires des contenus payants liés aux débats politiques et à la vie publique, ainsi que, au-delà d’un certain seuil, les montants consacrés à la publicité à des fins politiques, et préciser comment les données des utilisateurs sont utilisées pour identifier les publics cibles. La loi renforce le rôle de l’autorité de régulation des médias et élargit ses compétences. D’une part, l’autorité peut refuser de délivrer une autorisation de diffusion à un service de radio ou de télévision s’il met gravement en danger le pluralisme, l’ordre public ou les intérêts fondamentaux de la France – en particulier s’il est sous l’influence d’un État étranger. D’autre part, elle contrôle le respect par les plateformes de leurs obligations en matière de lutte contre la diffusion des fausses nouvelles, peut émettre des recommandations et impose aux grandes plateformes de désigner un représentant légal spécifique en France. Dans la pratique, la loi infox de 2018 n’a été appliquée que dans un nombre très limité de cas (Loi n° 2018-1202, 2018).

L’intervention de l’État s’est encore accrue le 13 juillet 2021 avec la création de Viginum, le service gouvernemental français chargé de l’identification des ingérences numériques étrangères (Service de vigilance et de protection contre les ingérences numériques étrangères, Viginum). Ce service technique et opérationnel, rattaché au palais de l’Élysée et compétent sur l’ensemble du territoire, a pour mission d’identifier les tentatives d’ingérence informationnelle étrangère dans l’espace numérique français et de protéger le débat public français contre ces ingérences. Il analyse les schémas des opérations en ligne (faux profils, réseaux coordonnés, activité de bots) et cherche à déterminer de manière ciblée si des acteurs étrangers tentent de déstabiliser l’État ou l’opinion publique. Ce service n’est pas une « police de la vérité » : il ne lui revient pas d’apprécier la véracité des contenus. Sa mission est de détecter les ingérences étrangères et, le cas échéant, de transmettre les dossiers à l’autorité judiciaire ou à l’instance diplomatique compétente (Décret n° 2021-922, 2021).

Le 29 septembre 2021, le président Macron charge le sociologue français Gérald Bronner de constituer, avec quatorze experts, une commission chargée d’examiner la présence des désordres informationnels, de la désinformation et des théories du complot (désordres informationnels) ainsi que leur impact sur la société. En janvier 2022, la commission présente un rapport volumineux, Les Lumières à l’ère numérique, qui formule trente recommandations. Parmi celles-ci figure l’idée de ne pas réécrire l’article 27 de la loi fondamentale de 1881 sur la presse (relatif à l’infraction de « fausse nouvelle »), mais de permettre la mise en cause de la responsabilité civile des personnes diffusant de mauvaise foi des théories complotistes portant préjudice à autrui. La commission propose que l’autorité de régulation des médias soit chargée de veiller à ce que les plateformes agissent rapidement et efficacement contre les contenus illicites et que le rôle de l’ARCOM dans la limitation des fausses informations soit renforcé. Elle recommande en outre que le règlement européen en préparation sur les services numériques (Digital Services Act, DSA) prévoie explicitement que les plateformes assument des obligations particulières en matière de lutte contre les fausses nouvelles susceptibles de troubler l’ordre public (recommandation 21), et qu’un organe d’expertise indépendant soit créé, auquel les plateformes pourraient s’adresser rapidement en cas de contenus contestés et dont elles accepteraient les avis (recommandation 22). La commission propose également la mise en place d’un système de corégulation associant plateformes, législateurs et société civile pour concevoir la réponse à la désinformation. Enfin, elle insiste sur la nécessité d’assurer un large accès aux données pour les chercheurs travaillant sur les risques de désinformation (Bronner, 2022).

À la suite des recommandations de la commission, Macron lance en octobre 2023 un processus de consultation et de mobilisation d’experts sur l’avenir du système d’information et de communication (États généraux de l’information – EGI). Sous la direction de Bruno Lasserre et Christophe Deloire, des journalistes, des chercheurs, des acteurs de la société civile et des responsables publics élaborent des propositions pour la protection de l’espace informationnel français, le pluralisme des médias et la responsabilité des plateformes (Viginum, 2024). Le rapport final, rendu public le 12 septembre 2024 et intitulé Protéger et développer le droit à l’information : une urgence démocratique, indique déjà dans son titre que les fausses nouvelles, la désinformation et la concentration des médias exercent conjointement une pression sur l’intégrité des institutions démocratiques (Lasserre & Deloire, 2024 ; Viginum, 2025).

La proposition formulée par Macron il y a quelques semaines concernant une procédure judiciaire accélérée de quarante-huit heures s’inscrit dans ce processus, en ce qu’elle étendrait le dispositif de 2018 au-delà des seules périodes électorales. L’objectif est de permettre le retrait rapide, sur décision du juge, des fausses informations diffusées sur les réseaux sociaux et des contenus portant atteinte à la dignité de la personne, en contraignant l’auteur du harcèlement ou la plateforme à les supprimer. Lors d’un Conseil de défense au début du mois de décembre, Macron a abordé la question de la désinformation et a demandé au gouvernement de lui soumettre, d’ici la fin de l’année, une proposition législative concrète. Parmi les pistes de réflexion figure l’obligation faite aux grandes plateformes de garantir que « derrière chaque compte se trouve une personne réelle » et l’élaboration d’un système de certification permettant de distinguer la presse fiable, fonctionnant sur la base d’une éthique professionnelle.

Les critiques

La proposition relative aux procédures accélérées a été critiquée non seulement par le groupe Bolloré et le Rassemblement National, mais aussi par des juristes, des organisations de défense des droits et des organisations professionnelles de médias, qui ont exprimé des réserves d’ordre principalement technique et juridique.

Le groupe Bolloré et les responsables politiques qui lui sont proches considèrent que le projet vise en réalité à discipliner les chaînes « non favorables à Macron ». Marine Le Pen, Jordan Bardella et d’autres acteurs de l’extrême droite ont qualifié l’initiative de « censure », de « dérive autoritaire » et de projet « orwellien », parlant de « ministère de la Vérité » (« ministère de la vérité »). La réponse de l’Élysée a été claire : conformément aux principes constitutionnels, ce ne serait pas le gouvernement, mais des instances professionnelles et juridiques indépendantes qui trancheraient. L’objectif n’est pas de faire taire les médias critiques à l’égard du gouvernement, mais de protéger les droits de la personnalité et de se défendre contre la désinformation.

Les critiques constitutionnelles et juridiques présentent de fortes similitudes avec celles adressées à la loi de 2018. La définition de la « fausse nouvelle / fausse information » est difficile à cerner : il est malaisé de la distinguer de l’opinion, des affirmations partiellement vraies mais déformées ou exagérées, de la parodie ou de la satire. La plupart des critiques portent sur le délai de quarante-huit heures. Selon la proposition, la personne lésée obtiendrait, dans le cadre d’une procédure accélérée, une décision judiciaire ordonnant le retrait du contenu dans les quarante-huit heures. Or l’adoption d’une décision de justice demande du temps. Les avis antérieurs du Conseil d’État et du Conseil national du numérique (Conseil national du numérique, CNNum) soulignent tous que les capacités des juridictions sont limitées et que, dans un contexte de volume élevé de contenus en ligne, la rapidité peut se faire au détriment de la rigueur. Les procédures électorales de 2018 ont montré que, dans les cas les plus complexes d’info-guerre, il est difficile de déterminer dans un laps de temps aussi court si un contenu relève effectivement de la fausse nouvelle. Les préoccupations relatives à la liberté d’expression tiennent ainsi davantage au court délai imparti qu’à une éventuelle pression politique.

Plusieurs organisations professionnelles de la presse estiment que la proposition constitue davantage un geste symbolique qu’un instrument véritablement efficace. La fluidité conceptuelle de la notion de fausse nouvelle est également pointée, de même que les risques de sur-réglementation et de censure excessive. En matière de sur-réglementation, les critiques soulignent que l’Union européenne et la France ont introduit simultanément plusieurs instruments juridiques qui se chevauchent, voire peuvent se neutraliser, alors même que les instruments existants de droit de la presse et de droit pénal (diffamation, atteinte à la vie privée, incitation, etc.) permettent déjà de lutter contre les contenus illicites. Le règlement sur les services numériques oblige les grandes plateformes à retirer les contenus illégaux, à procéder à une analyse des risques et à garantir la transparence de leur fonctionnement. Les documents de l’Assemblée nationale et du Sénat signalent déjà en 2024–2025 que le DSA européen recoupe certaines dispositions de la loi infox de 2018, dont plusieurs ont dû être modifiées ou abrogées. Si les plaignants peuvent choisir entre différents instruments juridiques en fonction de leurs intérêts, un environnement normatif trop complexe crée de l’incertitude. Les critiques professionnelles évoquent également la possibilité d’une censure excessive et d’une forte intervention de l’État. Plusieurs organisations de défense des droits redoutent l’émergence d’un « ORTF 2.0 de l’Internet » (l’ORTF était l’autorité publique de radiodiffusion dans les années 1970, au sein de laquelle le gouvernement exerçait une forte domination sur les diffuseurs). Le cadre actuel réaffirme que le premier lieu de modération des contenus demeure les règles internes des plateformes, complétées par les dispositifs administratifs et législatifs (DSA, ARCOM). Depuis des décennies, de nombreux acteurs soutiennent que, parallèlement ou en alternative à la régulation, l’accent devrait être mis sur le renforcement de l’éducation aux médias, car la répression juridique à elle seule ne peut résoudre le problème. L’Europe se trouve déjà à l’avant-garde de la lutte contre la désinformation. À long terme, il est plus efficace de renforcer l’éducation aux médias, la pensée critique et le pluralisme de la presse que d’introduire toujours plus de nouvelles « procédures accélérées ».

La régulation européenne

L’action française contre la désinformation s’intègre bien dans le cadre réglementaire européen. Dans les deux cas, la désinformation est appréhendée comme un risque systémique, et l’accent est mis sur le fonctionnement des plateformes. La régulation française prévoit en outre la possibilité de retirer rapidement, par voie judiciaire, des contenus de harcèlement déterminés.

Depuis 2015, l’Union européenne construit lentement mais sûrement son dispositif réglementaire. En 2015, le Service européen pour l’action extérieure (SEAE) crée l’Equipe de communication stratégique pour l’Est (East StratCom Task Force), dont le projet phare est EUvsDisinfo (European External Action Service, 2015). Il s’agit essentiellement d’une base de données et d’une plateforme d’analyse qui documentent la désinformation pro-russe et examinent la manière dont les narratifs russes s’articulent aux systèmes complotistes globaux. En 2018, le Plan d’action contre la désinformation (JOIN(2018) 36), adopté par la Commission européenne et le Haut Représentant de l’Union pour les affaires étrangères et la politique de sécurité, prévoit une réponse coordonnée reposant sur les principes de transparence et de responsabilité. Dans ce cadre, un système d’alerte rapide (Rapid Alert System, RAS) est mis en place en 2019, permettant aux États membres et aux institutions de l’UE d’échanger en temps réel des informations sur les campagnes de désinformation afin de protéger les scrutins (European Commission, 2019).

En 2018, les grandes plateformes (Google, Facebook, Twitter/X, etc.) prennent des engagements volontaires, consignés dans le Code de bonnes pratiques contre la désinformation en ligne (Code of Practice on Disinformation) (European Commission, 2018). En 2022, ce code est considérablement renforcé : il prévoit quarante-quatre engagements et plus de cent vingt mesures concrètes, notamment la « démonétisation » de la désinformation (suppression des recettes publicitaires pour les sites de désinformation), la transparence des publicités politiques et thématiques, la lutte contre les techniques de manipulation, le renforcement des capacités des utilisateurs et des vérificateurs de faits, l’amélioration de l’accès aux données pour les chercheurs, ainsi que la mise en place d’un système de suivi robuste (European Commission, 2022). En février 2025, le Code de conduite est formellement intégré par la Commission et le Conseil européen des services numériques (Digital Services Board), devenant de facto un instrument de corégulation pour les plateformes.

Le règlement (UE) 2022/2065, dit règlement sur les services numériques (Digital Services Act, DSA), refond le régime de responsabilité des prestataires de services intermédiaires numériques. Juridiquement, il ne crée pas de catégorie autonome de fausse nouvelle, mais opère plusieurs clarifications. Il définit le concept de « contenu illicite » comme toute information contraire au droit de l’Union ou au droit national (ce qui peut recouvrir la diffamation, les discours de haine, les contenus dangereux pour les mineurs, etc.). Il impose aux grandes plateformes en ligne d’analyser les « risques systémiques », y compris ceux pesant sur les processus démocratiques, la sécurité publique et les droits fondamentaux (ce qui inclut potentiellement la désinformation). Il les oblige à prendre une série de mesures : modification des systèmes de recommandation, soutien aux vérificateurs de faits, transparence, accès renforcé aux données pour les chercheurs. L’UE traite donc principalement les symptômes : elle ne remet pas directement en cause le modèle économique (les algorithmes) qui permet la diffusion rapide de la désinformation (European Parliament & Council, 2022).

La désinformation comme arme

L’activisme du gouvernement français n’a rien de fortuit. Des rapports officiels – principalement ceux de Viginum – ont mis en évidence l’existence de réseaux russes (ou proches du Kremlin) qui fabriquent et diffusent de manière coordonnée des théories complotistes sur les réseaux sociaux français.

En février 2024, Viginum rend public un rapport sur une opération de désinformation baptisée « Portal Kombat », menée par un réseau de 193 sites web. Ce réseau redirige les requêtes adressées à des sites piratés vers ses propres serveurs et remplace le contenu d’origine par ses propres contenus. L’objectif consiste à diffuser massivement, dans les pays européens, des narratifs russes (par exemple la « mission militaire spéciale », l’Occident en tant qu’« agresseur », etc.). Le Secrétariat général de la défense et de la sécurité nationale (SGDSN) qualifie sans ambiguïté l’activité de ce réseau « d’ingérence numérique d’origine russe ».

En mai 2024, Viginum publie un rapport détaillé sur les activités de Storm-1516 (Information Manipulation Set, IMS). Depuis août 2023, Storm-1516 a conduit des dizaines d’opérations de manipulation de l’opinion publique occidentale, en combinant de faux sites d’information (par exemple Enquête du jour), des identités journalistiques usurpées et des vidéos générées par intelligence artificielle. Le réseau serait piloté par des acteurs proches du gouvernement russe : John Mark Dougan, ancien policier américain émigré à Moscou, les cercles gravitant autour de Prigojine et de Douguine, et même le nom d’un officier supposé du GRU, Youri Khoroshenko, est mentionné. Viginum a identifié soixante-dix-sept opérations informationnelles dans le cadre desquelles de nombreux narratifs de désinformation ont été diffusés. Parmi eux figurait également le faux récit relatif à l’identité de genre de Brigitte Macron (NewsGuard & Viginum, 2025).

Au printemps 2025, NewsGuard et Viginum identifient une nouvelle opération de désinformation, également liée au Kremlin. Cinq grands récits sont diffusés, en partie à travers les réseaux associés à Portal Kombat/Storm-1516, avec une très large audience, atteignant plusieurs dizaines de millions de personnes. L’opération repose sur l’utilisation de vidéos générées par IA, de faux sites d’information et d’influenceurs rémunérés.

La réforme en préparation de la loi sur les médias

Comme indiqué plus haut, une vaste consultation, associant experts et citoyens, sur l’avenir de la régulation des médias et du droit de la presse et de l’audiovisuel (États généraux de l’information – EGI) s’est déroulée en 2023–2024 à l’initiative de Macron. Son rapport final a été publié le 12 septembre 2024. Le rapport formule quinze mesures destinées à lutter contre la désinformation, la concentration des médias et les effets distorsifs du fonctionnement des plateformes, dont, selon la presse, sept devraient être intégrées dans le projet de loi en préparation (Lasserre & Deloire, 2024).

Lors d’une séance du Sénat le 17 octobre 2024, la ministre de la Culture, Rachida Dati, a annoncé que son ministère travaillait à une réforme de la loi sur les médias à partir des résultats de cette consultation. Le Sénat débattait alors d’une proposition de loi, élaborée à l’initiative de la sénatrice Sylvie Robert à l’automne 2024, visant à renforcer l’indépendance des médias, dont plusieurs dispositions – par exemple le droit pour les rédactions d’opposer un veto à certains candidats au poste de rédacteur en chef – avaient été vidées de leur substance par le gouvernement. En réponse à cette proposition sénatoriale, Dati a indiqué que son ministère préparait un projet de loi qui, sur la base des conclusions de l’EGI, traiterait de manière globale les questions de pluralisme, de concentration et d’indépendance. Macron lui a ainsi confié la préparation de la réforme de la loi sur les médias. Fin 2024, le président de la République a confirmé ce mandat (Sénat, 2024).

En 2025, Dati a présenté à l’Assemblée nationale un vaste paquet de réforme du secteur public de l’audiovisuel (regroupant France Télévisions, Radio France, l’INA et les plateformes d’information au sein d’un holding « France Médias » à compter du 1er janvier 2026). Parallèlement, elle a annoncé qu’un second texte, élaboré sur la base des propositions de l’EGI, traiterait du pluralisme des médias et des entreprises médiatiques.

Les déclarations publiques de la ministre et de l’Élysée laissent entendre que les grandes lignes du projet de loi s’articuleront autour de quatre grands axes. Avant que le texte ne soit soumis au gouvernement – vraisemblablement au début de l’année 2026 – puis déposé au Parlement sous forme de projet de loi, il sera examiné et remanié par le Conseil d’État.

Les matériaux de l’EGI et les débats parlementaires montrent clairement que la concentration des médias et la structure de la propriété seront des thèmes centraux de la nouvelle loi. Les documents de consultation recommandent notamment que la régulation de la concentration des médias ne prenne pas en compte uniquement la presse traditionnelle, mais aussi les nouveaux supports de communication incluant les réseaux sociaux, et que, lors de l’examen des opérations de fusion, les autorités mesurent l’influence réelle des médias concernés plutôt que leur seule part de marché. Selon les rapports du Sénat, l’un des éléments importants du projet sera l’obligation pour l’ARCOM de recourir à cette approche « fondée sur l’influence » pour mesurer la concentration. D’après Le Monde, le projet de loi Dati devrait reprendre certains éléments de la proposition d’opposition de 2024 sur « l’indépendance des médias », en les intégrant dans le texte gouvernemental et en étendant le contrôle aux positions de marché des grands groupes privés, notamment le groupe Bolloré.

D’après les informations actuellement disponibles, l’un des principaux objectifs du projet est de protéger l’autonomie éditoriale face aux pressions propriétaires et financières. À plusieurs reprises, la ministre et le gouvernement ont indiqué que le nouveau texte issu de l’EGI traiterait des garanties d’indépendance professionnelle des journalistes, des règles internes de prise de décision des rédactions et de la gestion des conflits d’intérêts. Le gouvernement considère le pluralisme des médias comme l’un des piliers du système démocratique. Le texte définitif n’est pas encore public et les dispositions précises ne sont pas connues, mais les milieux professionnels s’attendent à ce que la nouvelle loi rétablisse sous une forme ou une autre le statut juridique renforcé des chartes éditoriales, accroisse la participation des rédactions à la nomination des dirigeants, et crée des garanties plus solides pour la protection des sources journalistiques, ainsi que contre les pressions propriétaires, financières ou politiques.

Rachida Dati a réaffirmé à plusieurs reprises que le texte législatif en cours de préparation est fondé sur les principes de pluralisme et vise précisément à régler les questions de concentration des médias, de pluralisme et d’indépendance. Selon un reportage de Categorynet, les acteurs professionnels craignent toutefois qu’un éventuel mécanisme de certification ou d’évaluation de la qualité ne se heurte à l’article 11 de la Déclaration des droits de l’homme et du citoyen de 1789, à l’article 10 de la Convention européenne des droits de l’homme, au principe constitutionnel français de pluralisme, ainsi qu’à la jurisprudence du Conseil d’État et de la Cour européenne des droits de l’homme. Les organisations professionnelles demandent donc au Conseil d’État de veiller à ce que la future loi exclue expressément toute forme de système administratif de certification ou de « listing », tout en renforçant l’égalité d’accès des journalistes et des médias à l’information d’État et aux accréditations, et en garantissant des voies de recours rapides et efficaces contre les refus arbitraires d’accréditation (Categorynet, 2024).

Au cours des dernières semaines, Macron a évoqué un paquet de réformes plus large portant sur les relations entre « démocratie et réseaux sociaux », qui comprend plusieurs volets : le relèvement à quinze ans de l’âge de la « majorité numérique », une plus grande transparence des algorithmes, ainsi que l’introduction d’une procédure judiciaire accélérée pour stopper rapidement la diffusion de fausses informations manifestes sur les réseaux sociaux. Selon la presse française, ces éléments devraient être consacrés par des textes législatifs concrets au début de l’année 2026, le projet de loi Dati fournissant vraisemblablement le cadre de ces mesures du point de vue du système médiatique.

Le débat sur la certification est en partie distinct de cet ensemble. Macron a suggéré à plusieurs reprises qu’un label de qualité, géré sur une base professionnelle, pour les « médias de confiance » pourrait renforcer la confiance du public et contribuer à la lutte contre la désinformation. Cette idée a toutefois suscité de vives réactions de la part des médias appartenant au groupe Bolloré et de la droite. En réponse, Dati a affirmé à plusieurs reprises que l’État ne créerait pas de dispositif de certification étatique. La réflexion sur la certification découle de propositions professionnelles formulées lors de la consultation de l’EGI, et, même si un tel système devait voir le jour, il ne pourrait prendre au mieux que la forme d’une initiative volontaire, gérée par la profession. Pour les milieux professionnels, il est essentiel que la future loi Dati ne puisse, au plus, tenir compte de manière indirecte de systèmes de notation tiers – par exemple lors de la répartition de la publicité ou des aides publiques –, comme l’initiative Journalism Trust Initiative de Reporters sans frontières, mais qu’elle ne crée pas de filtre étatique établissant juridiquement une distinction entre « bons » et « mauvais » médias (Reporters sans frontières, 2021 ; Le Monde, 2025).

À la lumière des informations disponibles, il apparaît que le projet de loi Dati traite principalement des questions structurelles du système médiatique – propriété, pluralisme, indépendance – et n’est lié que de manière indirecte à la régulation directe de la désinformation en ligne et des plateformes numériques. Ces dernières devraient être abordées par des instruments distincts (DSA, législation française sur le numérique, et une éventuelle nouvelle loi française spécifiquement consacrée aux réseaux sociaux, qui régirait la protection des mineurs, les discours de haine et la responsabilité des plateformes – en relançant en partie la loi de 2023 et en recourant en partie à de nouveaux instruments).

Références