Affichage des articles dont le libellé est François Souty. Afficher tous les articles
Affichage des articles dont le libellé est François Souty. Afficher tous les articles

avril 15, 2026

INFORMATIONS FRANÇAISES; QUELLE ÉNERGIE !!

Sommaire:

A) - Perquisition à l’Élysée : les contrats des cérémonies de panthéonisation dans le viseur de la brigade financière anticorruption

B) - Choc énergétique historique : la France face aux retombées de la crise iranienne

C) - Aides d’État, souveraineté énergétique et renaissance nucléaire : L’Union européenne à l’épreuve du cas EDF et des réponses étatiques

 


 

A) - Perquisition à l’Élysée : les contrats des cérémonies de panthéonisation dans le viseur de la brigade financière anticorruption

Paris, 14 avril 2026 – Ce mardi matin, à l’aube, le Palais de l’Élysée a été perquisitionné par la brigade financière anticorruption (BFAC) de la police judiciaire de Paris. Selon Le Canard enchaîné, qui révèle l’information en exclusivité dans son édition du jour, les enquêteurs s’intéressent de près aux marchés publics attribués depuis plus de vingt ans à la société d’événementiel Shortcut Events pour l’organisation des cérémonies d’entrée au Panthéon.

Une enquête préliminaire qui pourrait mettre en lumière d’éventuels favoritisme dans l’attribution de ces contrats prestigieux, facturés chaque fois autour de 2 millions d’euros d’argent public.

Une enquête qui remonte à plus de deux décennies


Les faits portent sur la période 2002-2024 : toutes les cérémonies de panthéonisation – ces hommages nationaux aux « grands hommes et grandes femmes » de la République – ont été confiées à Shortcut Events. De Joséphine Baker à Missak Manouchian en passant par Maurice Genevoix ou Simone Veil, l’agence a systématiquement remporté ces marchés, sans réelle concurrence apparente sur une durée de 22 ans.

Les enquêteurs cherchent à déterminer si l’entreprise a bénéficié de « soutiens miraculeux » de la part du Centre des monuments nationaux (sous tutelle du ministère de la Culture), du ministère lui-même ou directement de l’Élysée dans l’attribution de ces marchés. Le Canard enchaîné avait déjà pointé ce quasi-monopole en octobre 2023.

Aujourd’hui, la perquisition au cœur du pouvoir exécutif marque une nouvelle étape judiciaire. 

L’Élysée a confirmé la présence des enquêteurs, mais aucune mise en examen n’a été annoncée à ce stade. Il s’agit d’une enquête préliminaire : à ce jour, aucune personnalité n’est nommément mise en cause.

Shortcut Events : une success story de l’événementiel à la française… et un partenaire récurrent de l’État

Fondée en 1996 (ou 1997 selon certaines sources) par Christophe Pinguet et Lionel Laval, Shortcut Events est une agence indépendante spécialisée dans la communication événementielle haut de gamme. Basée au 20 avenue Franklin D. Roosevelt à Paris (8e arrondissement), elle compte aujourd’hui une trentaine de salariés et affiche un chiffre d’affaires prévisionnel de 33 millions d’euros pour 2025 (après une forte croissance ces dernières années).

Christophe Pinguet, cofondateur et coprésident, décrit l’agence comme créatrice d’« expériences événementielles esthétiques et émotionnelles riches en contenus ». Le duo Pinguet-Laval, en place depuis près de 30 ans, met en avant une expertise dans les grands événements institutionnels, les cérémonies d’État et les productions de prestige. Shortcut s’est fait connaître pour son savoir-faire « à la française » : élégance, scénographie soignée et narration historique forte. L’agence travaille aussi bien pour des clients privés (luxe, corporate) que publics.

Outre les panthéonisations, Shortcut Events a organisé :

  • L’inauguration de la Cité internationale de la Francophonie à Villers-Cotterêts (2023).
  • La grande cérémonie internationale du 80e anniversaire du Débarquement à Omaha Beach (6 juin 2024), en présence d’Emmanuel Macron et de 25 chefs d’État dont Volodymyr Zelensky.

Ces derniers contrats ont déjà fait l’objet d’enquêtes journalistiques. En juin 2024, Libération avait révélé les « étranges coulisses » de l’attribution de la commémoration du Débarquement, qualifiant Shortcut d’« agence de com chouchoutée par l’Élysée ». Des concurrents y dénonçaient alors des appels d’offres potentiellement orientés et un accès privilégié au sommet de l’État.

Des soupçons de favoritisme récurrents

Le quasi-monopole sur les panthéonisations n’est pas passé inaperçu. Dès 2023, Le Canard enchaîné soulignait que Shortcut Events remportait systématiquement ces marchés sensibles. Les cérémonies, organisées par le Centre des monuments nationaux, relèvent pourtant de procédures de marchés publics.

Les enquêteurs de la BFAC cherchent désormais à savoir si des interventions extérieures ont pu fausser la concurrence au profit de l’agence.

Shortcut Events n’est pas une inconnue des services de l’État : elle a également participé à d’autres événements d’ampleur nationale, renforçant son image de partenaire fiable pour les grandes messes républicaines.

Une affaire qui interroge le financement des grands événements d’État

À l’heure où les finances publiques sont sous tension, chaque panthéonisation à 2 millions d’euros interroge. L’enquête pourrait s’étendre au-delà de l’Élysée, vers le ministère de la Culture et les autres institutions impliquées.

Pour l’instant, l’Élysée se contente de confirmer la perquisition sans plus de commentaire. Shortcut Events n’a pas réagi publiquement à cette heure. L’affaire reste à ce stade une enquête en cours.

Cette perquisition surprise rappelle toutefois que les grands événements symboliques de la République – ces moments de communion nationale – sont aussi des marchés publics scrutés de près. L’issue de l’enquête dira si le « marché des panthéonisations » a été attribué dans les règles ou si des faveurs ont été accordées.

https://multipol360.com/perquisition-a-lelysee-les-contrats-des-ceremonies-de-pantheonisation-dans-le-viseur-de-la-brigade-financiere-anticorruption/ 

 


 

B) - Choc énergétique historique : la France face aux retombées de la crise iranienne

Paris, 13 avril 2026 – Donald Trump avait annoncé le 8 avril un cessez-le-feu de 15 jours dans le conflit avec l’Iran. Pourtant, les marchés énergétiques restent sous tension extrême. Dépendance aux importations, infrastructures pétrolières endommagées et fermeture prolongée du détroit d’Ormuz :

la France et l’Europe s’apprêtent à affronter un choc pétrolier et gazier sans précédent depuis les années 1970.

L’analyste économique Charles Sana, entrepreneur et animateur du Grenier de l’Éco, décrypte pour Politique et Écho les conséquences concrètes sur le pouvoir d’achat, l’inflation et les pénuries à venir.

Un double choc pétrolier et gazier déjà en marche

Le cessez-le-feu n’a pas suffi à apaiser les marchés.

Charles Sana confirme un choc pétrolier majeur, visible à la pompe, et un choc gazier tout aussi sévère, mais plus discret.

Dès le 1er mai, le gaz augmentera de 15 % pour 7,5 millions de Français aux tarifs variables. Dans le parc HLM comme dans le locatif privé ou chez les propriétaires, les charges énergétiques explosent et pèsent lourdement sur les budgets modestes.

L’Agence internationale de l’énergie (AIE) parle d’un choc comparable à ceux de 1973 et 1979 cumulés. La fermeture du détroit d’Ormuz – scénario du pire modélisé depuis cinquante ans – est aujourd’hui une réalité.

Le détroit d’Ormuz, scénario catastrophe toujours d’actualité

Même avec le cessez-le-feu, le détroit reste largement bloqué : on est passé de 140 navires par jour à 0 à 4 bateaux seulement. Les Iraniens, qui ont réussi à paralyser ce passage stratégique, n’ont aucune raison de le rouvrir pleinement tant qu’un accord définitif n’est pas conclu. Les prix physiques du pétrole restent très élevés : le kérosène a atteint 229 dollars le baril (autour de 200 dollars actuellement) et le gasoil 204 dollars. Le baril « papier » a certes baissé sous les 100 dollars à l’annonce du cessez-le-feu, mais le baril réel livrable immédiatement reste beaucoup plus cher.

Pénuries et rationnement : la menace concrète dès fin avril

Les réserves stratégiques de l’AIE (400 millions de barils sur 1.600 millions) permettent de tenir sans pénurie jusqu’à fin avril/début mai. Passé cette date, le manque se fera sentir. Charles Sana estime qu’il pourrait manquer jusqu’à 30 % de gasoil. Mathématiquement, pour équilibrer l’offre et la demande, le prix du diesel atteindrait alors 5,60 € le litre. Même si ce seuil extrême n’est pas atteint, un prix à 3 € le litre provoquerait déjà un effondrement psychologique et économique de la demande.

Des mesures de rationnement sont envisagées, sur le modèle slovène (50 litres par particulier et 200 litres par entreprise et par semaine). La France pourrait opter pour un « confinement énergétique » : limitation hebdomadaire des achats de carburant, télétravail obligatoire ou sobriété forcée.

Inflation ressentie à 12,5 % contre 3,2 % officielle

L’inflation officielle (IPC Insee) reste autour de 3,2 % pour 2026 car les carburants ne pèsent que 4,6 % dans le panier type et le logement 8 %. Or, pour de nombreux ménages (surtout ruraux ou périurbains), l’énergie représente 30 à 50 % du budget. Résultat :

l’inflation réellement ressentie par les Français pourrait atteindre 12,5 %, soit un niveau supérieur au choc post-Covid et à celui de la guerre en Ukraine.

Certains produits (engrais, médicaments, matériaux de construction, emballages) pourraient voir leur prix augmenter de 30 à 40 %.

Impacts en cascade sur l’industrie, l’agriculture et la santé

Le golfe Persique fournit 30 à 40 % du soufre mondial, indispensable à la fabrication de nombreux médicaments (antibiotiques, insuline, antiacides). L’hélium, utilisé pour les IRM et les semi-conducteurs, risque aussi de manquer. L’azote pour les engrais azotés est en pénurie, ce qui va faire baisser les rendements agricoles et augmenter les prix alimentaires.

Les entreprises françaises, déjà fragilisées par le Covid et les PGE à rembourser, vont subir une hausse massive des faillites en 2026. Le secteur du BTP, l’industrie automobile (–59 % de production en France) et l’agriculture sont particulièrement vulnérables.

Transition énergétique européenne : un accélérateur contraint

Face à la crise, la Commission européenne voit dans la hausse des prix des carburants un argument supplémentaire pour accélérer l’électrification. Renault l’assume déjà dans sa communication : « Si le prix de l’essence est en hausse, ce n’est pas une bonne nouvelle, mais c’est une bonne raison pour passer à l’électrique. » Pourtant, l’infrastructure de recharge reste insuffisante pour un usage massif, et la filière automobile française continue de s’effondrer au profit des importations chinoises.

La guerre en Iran est-elle en train de déclencher un nouveau choc économique mondial ? Malgré un cessez-le-feu annoncé par Donald Trump, le détroit d’Ormuz reste sous pression et utilisé comme levier stratégique par l’Iran, faisant peser une menace durable sur les approvisionnements en pétrole et en gaz. 👉 Inflation et pénuries : faut-il s’attendre à un choc majeur dans les prochaines semaines ? 👉 Quel impact sur le prix du pétrole, du gaz, des carburants et le pouvoir d’achat ? 👉 Les entreprises françaises et l’emploi sont-ils menacés par ce choc énergétique ? 👉 L’État et les banques centrales peuvent-ils encore amortir la crise (dette publique, OAT, taux d’intérêt) ? Dans Politique & Éco, Charles Sannat (Le Grenier de l’Éco - https://legrenierdeleco.com/) décrypte les conséquences concrètes : choc pétrolier, entreprises, chômage, faillites, transition énergétique et risques sur l’épargne (livret A, or).
 

Comment se prémunir ? Les conseils de Charles Sana

Pour les particuliers, l’analyste recommande de privilégier l’épargne « en nature » : stocks de denrées non périssables (pâtes, conserves, etc.) plutôt que de laisser l’argent sur un livret A à 1,5 %. Il faut aussi anticiper les hausses sur les matériaux (vitrage, carrelage, isolation) et avancer certains travaux.

Charles Sana conclut sur un constat géopolitique plus large : nous assistons selon lui à un « Yalta 2.0 » entre Trump, Poutine et Xi Jinping, marquant le début d’une troisième guerre mondiale (non encore terminée) qui redessinera l’ordre mondial.

Le cessez-le-feu de Trump a offert un répit, mais le mal est fait. La France, comme le reste de l’Europe, entre dans une période de restrictions et d’ajustements douloureux. L’heure est à la préparation et à la lucidité.

https://multipol360.com/choc-energetique-historique-la-france-face-aux-retombees-de-la-crise-iranienne/

 

 


 

C) - Aides d’État, souveraineté énergétique et renaissance nucléaire : L’Union européenne à l’épreuve du cas EDF et des réponses étatiques

Résumé exécutif

L’éventuelle ouverture d’une enquête de la Commission européenne sur le soutien public de l’État français à EDF pour la construction de nouveaux réacteurs nucléaires soulève des enjeux dépassant le cadre classique du contrôle des aides d’État et de la politique de la concurrence européenne. Elle met en lumière une tension croissante entre les exigences du marché intérieur et les impératifs de sécurité et souveraineté énergétique, dans un contexte de forte instabilité géopolitique et d’accélération de la transition climatique.

Face au risque sérieux de retards significatifs dans la mise en œuvre du programme nucléaire français, plusieurs leviers d’action peuvent être mobilisés. Sur le plan juridique, la France dispose de marges de manœuvre substantielles en s’appuyant sur les exceptions prévues par l’article 107 §3 TFUE, en particulier celles relatives au développement de certaines activités économiques et à la réalisation d’objectifs d’intérêt commun, tels que la sécurité d’approvisionnement et la décarbonation. La qualification du nucléaire comme service d’intérêt économique général constitue également un axe structurant permettant d’encadrer les mécanismes de compensation publique.

Parallèlement, l’exploitation du précédent britannique de Hinkley Point C et de la pratique décisionnelle récente de la Commission offre des arguments solides en faveur de la compatibilité des dispositifs envisagés, notamment s’ils sont conçus dans une logique de proportionnalité et de limitation des distorsions de concurrence revues à la lumière des événements géopolitiques.

Au-delà du registre juridique, une stratégie politique proactive apparaît déterminante. Elle suppose la constitution d’alliances élargies entre États membres favorables au nucléaire, une mobilisation du Conseil européen et une requalification du débat au niveau de l’Union, en insistant sur la dimension stratégique et urgente de la sécurité énergétique.

Enfin, la maîtrise du facteur temps constitue un enjeu central : la France devra anticiper la procédure, structurer ses dispositifs en amont et, le cas échéant, envisager des solutions transitoires ou des adaptations de ses mécanismes de financement afin de limiter les effets retardateurs d’une enquête approfondie.

L’ensemble de ces actions participe d’une approche intégrée visant non pas à contourner le droit de l’Union, mais à en exploiter pleinement les ressources afin de concilier discipline concurrentielle et impératifs stratégiques. Si la recherche d’un consensus rapide avec la Commission ne se concrétise pas, il existera fatalement d’autres voies d’action nettement plus offensives.

Introduction 

L’annonce, relayée par l’agence Reuters, de l’éventuelle ouverture d’une enquête de la Commission européenne relative aux mesures de soutien envisagées par l’État français en faveur d’EDF pour la construction de six réacteurs nucléaires de nouvelle génération s’inscrit dans un contexte de recomposition profonde des priorités énergétiques et industrielles de l’Union européenne.[1] Elle intervient à un moment où les équilibres sur lesquels reposait historiquement le droit de la concurrence de l’Union se trouvent soumis à des tensions inédites, résultant à la fois de la dégradation de l’environnement géopolitique et de l’accélération affichée des objectifs climatiques.

La succession de crises énergétiques ayant affecté le continent européen depuis 2022, à la suite notamment de la guerre en Ukraine, a mis en lumière la vulnérabilité structurelle des États membres à l’égard des approvisionnements extérieurs en hydrocarbures.[2] À cette fragilité s’ajoutent les incertitudes persistantes pesant sur les marchés mondiaux de l’énergie, dans un contexte marqué par des tensions récurrentes au Moyen-Orient, susceptibles d’affecter durablement les conditions d’accès aux ressources fossiles à bas coûts.[3] Dans ce cadre, la sécurisation d’une production électrique stable, décarbonée et maîtrisée apparaît désormais comme un impératif stratégique, auquel le programme de relance du nucléaire engagé par la France entend précisément répondre.

Ce programme implique toutefois des investissements d’une ampleur telle qu’ils supposent un soutien public structurant, susceptible de relever du champ d’application du droit des aides d’État.[4] L’éventuelle ouverture d’une enquête approfondie par la Commission conduit dès lors à s’interroger sur la compatibilité de ces interventions avec les règles du marché intérieur, dans un secteur où les défaillances de marché sont particulièrement marquées. Le précédent de la décision relative au projet Hinkley Point C, par laquelle la Commission avait admis, sous conditions, la compatibilité d’un mécanisme de soutien public au nucléaire britannique, constitue à cet égard un point d’ancrage essentiel,[5]révélant à la fois la possibilité d’une validation et la complexité des procédures d’examen.

Au-delà de la seule question de la légalité des aides envisagées, la situation actuelle met en évidence une tension plus fondamentale entre, d’une part, l’objectif de préservation des conditions de concurrence et, d’autre part, la nécessité pour les États membres de mettre en œuvre des politiques industrielles et énergétiques adaptées aux défis contemporains.[6] Cette tension est d’autant plus manifeste que l’Union poursuit parallèlement des objectifs ambitieux d’électrification des usages, notamment à travers l’interdiction programmée de la vente de véhicules thermiques à l’horizon 2035,[7] ce qui implique une augmentation accélérée significative des capacités de production électrique bas-carbone pilotables.

Dans ce contexte, l’analyse du cas français invite à dépasser une lecture strictement contentieuse du contrôle des aides d’État pour interroger les marges de manœuvre dont disposent les États membres afin de concilier leurs impératifs stratégiques avec les exigences du droit de l’Union. Elle conduit également à envisager, de manière prospective, les différentes réponses — juridiques, institutionnelles et politiques — susceptibles d’être mobilisées pour prévenir ou atténuer les effets potentiellement retardateurs d’une procédure d’enquête sur la mise en œuvre du programme nucléaire français.[8] L’étude du cas EDF apparaît ainsi comme un terrain privilégié pour observer les recompositions en cours du droit des aides d’État, à l’heure où celui-ci se trouve confronté à la montée en puissance des impératifs de souveraineté énergétique et de sécurité d’approvisionnement, accentuées de manière dramatique par les contextes géopolitiques ukrainien et iranien.

I. Le soutien public au programme nucléaire d’EDF : rationalité économique et nécessité stratégique

L’analyse du soutien public envisagé en faveur d’EDF suppose, en premier lieu, d’en comprendre les déterminants économiques et financiers, avant d’en apprécier la portée stratégique au regard des nouvelles contraintes pesant sur les systèmes énergétiques européens. Cette double perspective – économique et stratégique – justifie pleinement l’implication de l’État dans le développement du parc nucléaire.

A. Les déterminants économiques et financiers du soutien

Le programme de construction de six réacteurs nucléaires de nouvelle génération par EDF implique des investissements considérables, estimés à plusieurs dizaines de milliards d’euros.[9] Dans ce contexte, la mobilisation d’un soutien public apparaît comme une condition sine qua non de la viabilité économique du projet, compte tenu des coûts fixes élevés, des délais de construction étendus et des risques financiers inhérents aux projets nucléaires.[10]

L’État français a ainsi prévu des mécanismes de financement destinés à sécuriser la trésorerie d’EDF et à garantir la faisabilité des projets dans un contexte de volatilité des marchés de l’énergie.[11] Ces dispositifs visent à stabiliser les flux de revenus sur le long terme, à limiter les risques financiers et à réduire le coût du capital, facteur déterminant pour la compétitivité du nucléaire face aux sources d’énergie renouvelables intermittentes et aux combustibles fossiles soumis à de fortes variations de prix.[12]

Le soutien financier apporté à EDF ne peut être appréhendé à l’aune des seules considérations économiques de marché de court terme. Il s’inscrit dans une logique plus large de souveraineté énergétique et industrielle, devenue centrale dans le contexte européen contemporain. Comme l’a mis en évidence Mario Draghi dans son rapport sur la compétitivité européenne, la maîtrise des coûts et de l’approvisionnement énergétique constitue un déterminant essentiel de la compétitivité et de la résilience économique de l’Union.[13] Dans un environnement marqué par des tensions géopolitiques accrues et une volatilité des marchés de l’énergie, la sécurisation d’une production stable et pilotable apparaît comme un impératif stratégique absolu.

À cet égard, le recours à des infrastructures énergétiques structurantes, telles que le parc nucléaire exploité par EDF, participe d’une stratégie visant à garantir l’indépendance énergétique nationale tout en contribuant à la stabilité du système électrique européen. Cette approche dépasse ainsi la logique de rentabilité immédiate pour s’inscrire dans une perspective de long terme, articulant sécurité d’approvisionnement, compétitivité industrielle et transition énergétique.

B. La portée stratégique du programme nucléaire français

Au-delà des considérations économiques, le programme nucléaire d’EDF revêt une dimension stratégique majeure. La dépendance européenne aux hydrocarbures importés, accentuée par la guerre en Ukraine ou en Iran, et la volatilité des marchés mondiaux, met en évidence la nécessité de disposer, aussi rapidement que possible à l’échelle malgré tout de quelques années, de sources d’énergie souveraines et décarbonées.[14]

Selon l’Agence internationale de l’énergie, la sécurité énergétique demeure un enjeu central dans un contexte de forte instabilité géopolitique, ce qui justifie des investissements accrus dans des sources d’énergie bas-carbone pilotables. Le nucléaire offre une production électrique stable, pilotable et à faible émission de carbone, répondant directement aux exigences de sécurité d’approvisionnement et aux objectifs climatiques de l’Union européenne. Les analyses institutionnelles soulignent que la relance de la filière nucléaire française repose sur le maintien et le développement de compétences industrielles critiques. Le CEA met notamment en avant la nécessité de préserver un cœur de compétences internes et de renforcer la formation, afin de garantir la maîtrise technologique et la sûreté des installations.[15]

L’anticipation des besoins futurs en électricité constitue un enjeu stratégique majeur pour l’Europe, en particulier dans le contexte de l’électrification croissante des usages et de l’interdiction progressive de la vente de véhicules thermiques prévue pour 2035. Cette évolution, prévue par la réglementation européenne sur les émissions de CO₂ des voitures et camionnettes,[16] implique une augmentation significative de la demande électrique, renforçant la pertinence du programme nucléaire français et européen comme outil de sécurité énergétique et de stabilité industrielle.

Les analyses de l’Agence internationale de l’énergie (AIE) confirment ce constat. Le World Energy Outlook 2023 souligne que la transition vers des systèmes électriques bas-carbone ne peut réussir sans des investissements prévisionnels dans des infrastructures stables et pilotables, le nucléaire jouant un rôle central pour réduire la dépendance aux énergies fossiles importées et garantir la continuité d’approvisionnement[17]. De manière complémentaire, le rapport Nuclear Power and Secure Energy Transitions[18] montre que l’énergie nucléaire contribue à la fois à la décarbonation et à la sécurité énergétique, en stabilisant le réseau et en soutenant la compétitivité industrielle face à la volatilité des prix de l’électricité.

Sur le plan européen, la Présidente de la Commission Ursula von der Leyen comme l’ancien Président du Conseil italien et ancien Président  de la Banque Centrale Européenne Mario Draghi insistent sans ambiguïté sur la nécessité d’investissements prévisionnels dans les infrastructures critiques pour réduire les vulnérabilités économiques et industrielles de l’Union.[19] L’absence de planification suffisante pour les infrastructures énergétiques stratégiques pourrait exposer l’Europe à des risques de pénuries vitales et à des crises industrielles récurrentes. Manifestement, la Vice-Présidente Ribera semble vouloir diverger d’un nouveau consensus qui est pourtant clairement exprimé depuis l’explosion des risques géopolitiques.  Enfin, au risque de se répéter, le programme nucléaire français contribue à la résilience énergétique et à la stabilité des coûts, offrant un amortisseur face aux fluctuations des prix des hydrocarbures et aux crises géopolitiques, notamment les tensions autour de l’Iran ou les sanctions contre la Russie.[20] L’intégration de ces facteurs dans la stratégie énergétique justifie pleinement l’engagement de l’État français pour sécuriser le financement d’EDF et garantir la réalisation accélérée du programme nucléaire.

II. L’ouverture imminente d’une enquête sur les aides d’État à EDF : contexte et enjeux juridiques

La perspective d’ouverture d’une enquête de la Commission européenne en avril 2026 sur le soutien public français à EDF soulève des questions cruciales sur la compatibilité des aides d’État avec le droit européen. Cette partie analyse le contexte réglementaire et les enjeux juridiques liés à la possible procédure d’examen par la DG Concurrence.

A. Cadre juridique et précédents européens

L’article 107 du Traité sur le fonctionnement de l’Union européenne (TFUE) interdit en principe toute aide publique susceptible de fausser la concurrence sur le marché intérieur.[21] Cependant, des exceptions existent, notamment pour les projets présentant un intérêt commun ou stratégique pour l’Union.[22]

Dans le passé, plusieurs projets nucléaires ont été soumis à l’examen de la Commission. L’affaire de Hinkley Point C au Royaume-Uni, qui impliquait déjà l’opérateur EDF, constitue un précédent emblématique. La Commission avait initialement estimé que les aides britanniques pouvaient constituer une distorsion de concurrence.[23] Toutefois, après une évaluation approfondie, elle avait autorisé le soutien en reconnaissant l’intérêt stratégique et la contribution à la sécurité énergétique.[24]

Ce précédent laisse présager que la procédure visant EDF pourrait être très longue et complexe, mettant en péril l’équilibre financier des projets. Comme le note Francesco Giusti lui-même, en s’exprimant généralement de manière plutôt stricte le droit de la concurrence (et donc de manière plutôt opposée aux développements de la production nucléaire avec obligation d’intervention publique au vu des volumes d’investissements colossaux amortis sur de très longues durées), les enquêtes sur les aides d’État nucléaires nécessitent une analyse détaillée des coûts, du financement et de la contribution stratégique à l’intérêt général. Ce type d’enquête peut retarder considérablement la mise en œuvre du projet.[25]

B. Enjeux et risques pour la souveraineté énergétique française

En se fondant sur les incidents de procédure dans l’affaire Hinkley Point C précitée, la procédure annoncée par Reuters sur les aides à EDF[26]pourrait retarder de plusieurs années la construction des six réacteurs, compromettant la capacité de la France à atteindre ses objectifs énergétiques et climatiques. Cette situation illustre la tension entre les règles de concurrence européenne et les impératifs stratégiques nationaux et européens.

Comme indiqué plus haut, le retard potentiel pose également un risque de dépendance accrue aux énergies fossiles importées, dont les prix et la disponibilité sont soumis à de fortes influences et fluctuations géopolitiques. Dans ce contexte, la rigidité excessive voire dogmatique de la DG Concurrence de la Commission Européenne dans l’application des règles de concurrence peut entrer en contradiction avec les nécessités de sécurité énergétique et de souveraineté industrielle européenne. Mario Draghi souligne la nécessité d’adapter la politique de concurrence de l’Union européenne aux enjeux de compétitivité, d’innovation et de sécurité stratégique, afin que l’Union puisse mobiliser des investissements importants et répondre à des défis tels que la transition énergétique et la souveraineté industrielle.[27] Une application trop rigide des règles de concurrence pourrait limiter la capacité de l’UE à atteindre ses propres objectifs. En outre, la procédure pourrait créer un précédent pour d’autres projets stratégiques dans l’Union européenne, limitant la capacité des États membres à soutenir des infrastructures essentielles. La France doit donc anticiper, avec ses partenaires dans l’UE, des stratégies juridiques et politiques pour défendre ses intérêts et garantir le développement rapide et sécurisé du programme nucléaire.[28]

III. Une tension croissante : politique de concurrence et souveraineté énergétique

Au‑delà de la seule mise en œuvre des règles relatives aux aides d’État, le cas d’espèce révèle une tension plus profonde entre les fondements du droit de la concurrence de l’Union et les exigences émergentes de souveraineté énergétique et industrielle. Cette tension se manifeste à la fois dans les discours des responsables politiques européens et dans les positions institutionnelles récentes.

A. Une Europe divisée mais convergente vers une nouvelle perspective stratégique

L’Union européenne a longtemps oscillé sur la question du nucléaire, entre États membres qui le considèrent comme une source indispensable de production électrique bas‑carbone et d’autres qui s’en éloignent pour des motifs politiques ou sociaux, voire plus vainement idéologiques artificiels. Le débat sur l’énergie nucléaire illustre cette divergence, mais on observe une convergence récente vers une reconnaissance croissante du rôle stratégique de l’atome pour notre souveraineté énergétique européenne.[29]

Dans ce mouvement, plusieurs dirigeants européens ont exprimé de manière explicite leur soutien au nucléaire. Ainsi, lors du Sommet sur l’énergie nucléaire de l’Agence internationale de l’énergie atomique à Paris en mars 2026, le président français a affirmé « le nucléaire civil doit être au cœur de notre stratégie pour garantir l’indépendance énergétique face aux incertitudes géopolitiques et à la flambée des prix des hydrocarbures ».[30]

Par ailleurs, la présidente de la Commission européenne a reconnu explicitement, il y a quelques jours en mars 2026, les limites de choix antérieurs concernant le nucléaire dans l’Union et souligné la nécessité pour l’Union d’assumer un rôle plus affirmé en la matière : « la réduction de la part du nucléaire dans le mix énergétique fut, à mes yeux, une erreur stratégique ; nous devons à présent mobiliser toutes les sources d’énergie bas carbone pour assurer notre compétitivité et notre sécurité d’approvisionnement ».[31]

Cette évolution des discours politiques est également illustrée par l’initiative de l’Alliance européenne du nucléaire, réunissant plusieurs États membres pronucléaires pour promouvoir un cadre européen favorable au développement de l’énergie atomique.[32] Cette dynamique montre que, même au sein d’une Union divisée, l’impératif stratégique — sécurité énergétique, compétitivité industrielle et transition climatique — tend à se superposer aux logiques strictement concurrentielles suivies depuis des décennies jusqu’ici.

B. La contradiction normative structurelle entre concurrence et souveraineté énergétique

L’une des principales tensions naît de la logique duale qui régit l’Union européenne : d’un côté, le droit de la concurrence cherche à préserver un marché interne efficace et non faussé par des interventions étatiques excessives ;[33]  de l’autre, les États membres, confrontés à des défis externes majeurs, revendiquent une marge accrue pour déployer des politiques industrielles stratégiques, dont la fourniture d’énergie à bas coût est une condition essentielle de succès.

Cette contradiction est d’autant plus manifeste que des impératifs tels que l’interdiction de la vente de véhicules thermiques à l’horizon 2035 et l’accélération de l’électrification des usages exigent, comme déjà noté, une augmentation significative des capacités de production électrique pilotables et bas‑carbone.[34] La seule focalisation sur le marché intérieur sans prise en compte des enjeux géopolitiques peut conduire à des résultats contraires aux objectifs globaux de l’Union.

Dans ce contexte, certains responsables politiques européens ont explicitement lié le soutien au nucléaire à la souveraineté énergétique et à la résilience face aux chocs externes. Un groupe d’États membres pronucléaires a ainsi déclaré « le nucléaire est une solution compétitive pour répondre à la demande croissante d’électricité sans émissions fossiles et constitue un facteur clé pour notre sécurité collective de l’approvisionnement ».[35]

Cette tension normative reflète une transformation plus profonde du rôle de l’État et de l’Union dans la gestion des biens publics transnationaux. L’enjeu réside désormais dans la manière dont l’Union concilie son ancien cadre concurrentiel avec les enjeux géopolitiques nouveaux ainsi que de nouvelles priorités stratégiques absolues, telles que la transition énergétique ou la sécurité d’approvisionnement, sans pour autant saper les principes fondamentaux du marché intérieur.

IV. Propositions d’action politique et stratégie française face à l’enquête DG Concurrence sur EDF : piur une démarche géopolitique dynamique audacieuse

La France, confrontée à la possible ouverture d’enquête de la DG Concurrence sur ses aides à EDF, doit articuler sa réponse autour de l’équilibre entre respect du droit européen et préservation de sa souveraineté énergétique. Cette situation illustre de manière exemplaire la tension entre la logique de concurrence stricte et les impératifs stratégiques de sécurité d’approvisionnement et de décarbonation, soulignés dans la partie précédente.

A. Actions juridiques et institutionnelles

Face à l’enquête de la DG Concurrence en aides d’Etat, plusieurs pistes juridiques peuvent être envisagées. 

La France peut engager des consultations préalables auprès de la Commission, conformément à l’article 108 TFUE,[36] pour clarifier le cadre admissible des aides à EDF et anticiper les objections de la Commission. Elle peut également préparer un recours devant le Tribunal de l’Union européenne, s’appuyant sur l’argument que la politique nucléaire française constitue un investissement stratégique indispensable pour l’indépendance énergétique et industrielle.[37] Cette démarche s’inspire notamment de l’expérience acquise à l’occasion de la jurisprudence européenne sur le projet Hinkley Point.[38] Cette jurisprudence énonce les critères retenus pour l’évaluation des aides d’État à des infrastructures stratégiques, mais elle illustre aussi la perte de temps considérable d’une dizaine d’années de procédures extrêmement onéreuses directement (en coûts de procédures) et indirectement (en manque à gagner extrêmement considérable de production énergétique).

Parallèlement, un dialogue renforcé avec les États membres pronucléaires (Belgique, République tchèque, Finlande, Hongrie, Pays‑Bas, Roumanie, Slovaquie, Slovénie, Suède, Espagne et France)[39] permettrait de constituer un front commun pour défendre le nucléaire comme infrastructure critique à l’échelle européenne. Ce lobbying coordonné comprend des réunions bilatérales et multilatérales, ainsi que des positions communes dans les conseils de l’énergie de l’UE, et peut neutraliser l’influence potentielle des États anti‑nucléaires, de moins en moins nombreux comme l’Autriche et l’Allemagne.[40]

Enfin, la France peut anticiper la détermination de la Commission sur la compatibilité des aides en renforçant le dossier technique et économique d’EDF, incluant les coûts, délais et avantages environnementaux des nouvelles centrales.[41] Cela permet de démontrer que les aides sont proportionnées et nécessaires pour atteindre les objectifs de sécurité énergétique et de transition bas carbone, sans préjudice de la position dominante qui sera reprochée par la DG Concurrence à EDF sur le marché français, pour l’instant toujours arrimé à un marché européen de l’énergie mais qui pourrait en sortir si des entraves préjudiciables devaient être apportées au développement du plan nucléaire d’EDF. Une entrave juridique pourrait se transformer en crise politique pour l’UE.

B. Actions stratégiques, géopolitiques et communication politique

Au‑delà du juridique, une stratégie politique et diplomatique proactiveest en effet indispensable. Le développement des centrales nucléaires françaises vise à réduire la dépendance aux énergies fossiles, fortement exposées aux aléas géopolitiques et aux crises des hydrocarbures.[42] La France, avec ses dix alliés auxquels elle peut tenter d’y réunir une douzaine d’autres, doit donc mobiliser l’opinion publique et les instances européennes sur la dimension stratégique vitale du nucléaire. Le développement des centrales vise à réduire la dépendance aux énergies fossiles, aggravée par la crise ukrainienne et la volatilité des marchés hydrocarbonés, tout en garantissant un coût de l’électricité maîtrisé et un mix énergétique décarboné.

La communication devrait s’appuyer sur des éléments factuels et diplomatiques, citant par exemple les déclarations récentes de dirigeants européens : le président français a rappelé que « le nucléaire civil est un pilier de notre sécurité énergétique et un levier essentiel face aux crises géopolitiques »[43] et le Premier ministre hongrois a souligné que pour son pays « investir dans l’atome est un choix de souveraineté et de stabilité pour nos industries et nos citoyens ».[44] Ces interventions mettent en avant l’argument selon lequel retarder les projets d’EDF reviendrait à compromettre la résilience énergétique européenne d’une manière très préjudiciables à nos industries notamment électro-intensives (industries lourdes comme d’économie digitale, très fortes consommatrices d’énergie).

Des actions politiques proactives peuvent, également, compléter le dispositif : (1) la diffusion d’études comparatives sur les coûts et délais des énergies alternatives, montrant la nécessité de recourir à la production énergétique nucléaire pour atteindre les objectifs climatiques et industriels;[45] (2) l’animation d’un groupe de travail européen des États pronucléaires, coordonnant les positions sur la compatibilité des aides d’État avec le marché intérieur;[46] (3) la mobilisation de financements européens pour soutenir la transition énergétique et réduire la vulnérabilité aux critiques concurrentielles.[47]

Enfin, la France peut tirer parti de dossiers lourds actuellement suivis par l’Autriche, l’Allemagne et l’Espagne auprès de la Commission, tels que les aides dans les infrastructures gazières, les énergies renouvelables et les projets industriels stratégiques (cf. annexe 2). Une coordination multilatérale autour de ces dossiers pourrait créer des leviers pour négocier un apaisement des contestations visant les aides à EDF.[48]

Ces mesures combinées devraient permettre à la France de défendre le développement de ses centrales tout en respectant le cadre juridique de l’Union, transformant la menace de l’enquête DG Concurrence en opportunité de leadership stratégique sur la souveraineté énergétique européenne.

C. Enseignements tirés de l’antécédent britannique de Hinkley Point pour la France et EDF

L’expérience de Hinkley Point C, dont le retard considérable d’exécution a été provoqué par l’action d’un État membre (l’Autriche) qui a mobilisé la Commission contre la construction du complexe nucléaire en question (par EDF déjà !). Dans cette affaire, la Commission a fini par autoriser au terme d’une longue saga procédurale – avec confirmation par la CJUE – des aides d’État malgré des objections d’États membres,[49] montrant l’importance d’un dossier robuste. La France pourrait également mobiliser le soutien au Conseil Européen des États pronucléaires — Belgique, République tchèque, Finlande, Hongrie, Pays-Bas, Roumanie, Slovaquie, Slovénie, Suède et Bulgarie — pour former une coalition capable d’atténuer la pression sur la Commission des États hostiles, notamment l’Espagne (Mme Ribera est espagnole), l’Autriche et l’Allemagne (Mme von der Leyen est allemande).[50]

Malgré sa fin heureuse par une autorisation, cette affaire offre plusieurs leçons importantes et d’actualité pour la France : (1) la durée des procédures de la Commission peut s’étendre sur plusieurs années lorsqu’un État membre soulève des objections. (2) les recours devant le Tribunal de l’UE ou la CJUE sont possibles mais les décisions finales peuvent confirmer la compatibilité des aides stratégiques. (3) Il est donc essentiel de préparer un dossier robuste, juridiquement et économiquement, tout en mobilisant, dès le départ, un soutien diplomatique auprès des États pronucléaires pour limiter le risque de blocages ou de retards dans le calendrier des projets nucléaires. Il faut aussi envisager une action de conviction auprès de la douzaine d’Etats européens qui ne sont pas opposés à la production nucléaire et les rallier à la cause de la souveraineté énergétique européenne. Ces points sont illustrés dans l’encadré ci‑dessous.

Conclusion 

L’hypothèse d’une ouverture d’enquête par la Commission européenne sur les mesures de soutien envisagées au bénéfice d’EDF ne saurait être appréhendée comme un simple contentieux technique relevant du droit des aides d’État. Elle s’inscrit dans une dynamique plus large de redéfinition des rapports entre politique de concurrence, politique industrielle et souveraineté énergétique au sein de l’Union.

Le cadre juridique issu de l’article 107 TFUE, tel qu’interprété par la Commission et le juge de l’Union, a certes démontré sa capacité d’adaptation, notamment dans le cadre de l’interminable affaire Hinkley Point C – soit quatre ans de procédures juridiques, très perturbantes au plan industriel.[55] Cette adaptabilité demeure toutefois conditionnée par des procédures longues et complexes, génératrices d’incertitudes difficilement conciliables avec l’urgence des investissements requis dans le secteur énergétique.

Dans le même temps, l’évolution du contexte géopolitique et économique a conduit à une revalorisation du rôle de l’État dans la structuration de certaines filières stratégiques, au premier rang desquelles figure le nucléaire, en raison de son intensité capitalistique et de sa contribution à la sécurité d’approvisionnement. Il en résulte une tension croissante entre les instruments traditionnels du droit de la concurrence et les exigences d’une politique énergétique fondée sur la stabilité, la sécurité et la décarbonation, tension d’autant plus marquée que l’Union poursuit parallèlement des objectifs ambitieux d’électrification des usages.

Dans ce contexte, les marges de manœuvre juridiques et politiques dont dispose la France apparaissent réelles, à condition d’être mobilisées de manière cohérente et coordonnée, tant dans le cadre des instruments du droit de l’Union que dans celui des rapports institutionnels entre États membres et Commission. L’enjeu réside, en définitive, moins dans une remise en cause du contrôle des aides d’État que dans son adaptation aux impératifs contemporains de souveraineté énergétique.

L’affaire en devenir relative au soutien à EDF pourrait ainsi constituer un moment charnière, révélateur des limites du cadre actuel mais aussi des capacités d’évolution du droit de l’Union. À défaut d’une telle adaptation, le risque serait celui d’un décalage croissant entre les objectifs stratégiques poursuivis par l’Union et les instruments juridiques mobilisés pour les atteindre, au détriment de la cohérence de son action et de sa position dans la compétition énergétique mondiale. L’absence d’un consensus rapide préservant la capacité opérationnelle de l’outil industriel nucléaire rendu impératif par l’accumulation des crises géopolitiques au cœur desquelles figure l’énergie, pourrait conduire – voire obliger – la France à des choix nettement plus antagonistes par rapport à l’Union européenne.

François Souty, PhD
Intervenant en géopolitique à Excelia Business School, La Rochelle et Paris-Cachan
Intervenant en droit et politique de la concurrence de l’UE à la Faculté de droit de Nantes 


Annexe

[1] Reuters, « EU may investigate French support for EDF nuclear build », dépêche du 10 mars 2026, Reuters (source en ligne, consultée le 10 mars 2026)

[2] Commission européenne, REPowerEU Plan, COM(2022) 230 final, 18 mai 2022 ; Conseil européen, conclusions des 23-24 mars 2023.

[3] Agence internationale de l’énergie, World Energy Outlook 2023, 2023 ; IMF, Global Energy Market Developments, 2024.

[4] Art. 107, §1 TFUE ; CJUE, 21 mars 1991, Italie c/ Commission, aff. C-303/88 ; CJUE, 24 juill. 2003, Altmark, aff. C-280/00.

[5] Commission européenne, déc. SA.34947, 8 oct. 2014 ; Tribunal, 12 juill. 2018, aff. T-356/15 ; CJUE, 22 sept. 2020, aff. C-594/18 P.

[6] Vestager, M., discours, 2022 ; Marty, F., « Aides d’État et transition énergétique »Revue trimestrielle de droit européen (RTDE)2023, n° 2p. 215–236.

[7] Règlement (UE) 2023/851 du 19 avril 2023.

[8] Commission européenne, Temporary Crisis and Transition Framework, 2023.

[9] EDF, Présentation financière et plan d’investissement nucléaire, 2025, p. 12.

[10] OCDE/NEA, Nuclear Energy Outlook 2023, p. 45 ; AIE, World Energy Outlook 2023, p. 112.

[11] Ministère de l’Économie, Rapport sur la stratégie énergétique nationale, 2025, p. 28.

[12] Nicolaides, P., « Financing Large-Scale Nuclear Projects », European State Aid Law Quarterly, 21(3), 2022, p. 307–318; Commission européenne, State Aid Scoreboard, 2023.

[13] Draghi, M. The Future of European Competitiveness, Bruxelles, 2024, p. 28-30. V. Aussi Souty, F., « L’Union européenne, le rapport Draghi sur l’avenir de la compétitivité européenne : quelles conséquences stratégiques inspirantes pour la France », Le Diplomate Média, 9 décembre 2025, 17 p.  

[14] Commission européenne, REPowerEU Plan, COM (2022) 230 final ; Conseil européen, conclusions des 23-24 mars 2023.

[15] International Energy Agency (IEA), Nuclear Power and Secure Energy Transitions, 2022.

[16] Union européenne, Règlement (UE) 2019/631 du Parlement européen et du Conseil du 17 avril 2019, relatif aux normes d’émission de CO₂ pour les voitures et camionnettes, JOUE L 111, 25.4.2019 et Directive 2009/72/CE du Parlement européen et du Conseil du 13 juillet 2009 concernant les règles communes pour le marché intérieur de l’électricité, JOUE L 211, 14.8.2009, art. 7.

[17] International Energy Agency, World Energy Outlook 2023, Paris, 2023. Voir l’Executive Summary à https://www.iea.org/reports/world-energy-outlook-2023/executive-summary

[18] Ibid.

[19] Draghi, M., op. cit.  p. 28-30.

[20] OCDE/NEA, préc. ; P. Nicolaides, préc., p. 81.

[21] TFUE, art. 107.

[22] Commission européenne, Lignes directrices sur les aides d’État à finalité régionale, 2022, p. 15-18

[23] Commission européenne, State Aid SA. 35347 (2014/N), Hinkley Point C, 2014.

[24] Commission européenne, State Aid SA. 35347 (2014/N), Décision finale, 2014.

[25] Giusti, F., « Nuclear State Aid and Competition Law », European Competition Journal, 2020, p. 112.

[26] Voir note 1.

[27] Voir notamment Maulin, Romain, « Innovation : La Commission européenne publie, le rapport Draghi lequel appelle à une refonte de la politique de concurrence de l’Union européenne, avec pour objectif d’adapter les règles existantes aux nouveaux enjeux économiques et technologiques, tout en renforçant la compétitivité des Etats membres », 9 septembre 2024, Concurrences N° 4-2024, Art. N° 121729, pp. 88-90.

[28] P. Nicolaides, op. cit., p. 83 ; Lamy, P. (2024). L’Europe a besoin d’une nouvelle stratégie commune de sécurité énergétique. Tribune/Note publiée sur le site de Pascal Lamy. voir https://pascallamy.eu/2024/01/09/leurope-a-besoin-dune-nouvelle-strategie-commune-de-securite-energetique/.

[29] Euronews, Énergie nucléaire : quels pays européens la soutiennent et lesquels s’y opposent, 9 févr. 2026, présentant les positions nationales divergentes.

[30] Discours du président de la République française, Sommet AIEA sur l’énergie nucléaire, Paris, 10 mars 2026, Le nucléaire civil comme levier d’indépendance énergétique.

[31] Ursula von der Leyen, Discours au Sommet sur l’énergie nucléaire, Paris, 10 mars 2026, texte intégral publié sur World Nuclear News, “Von der Leyen: It was strategic mistake to turn against nuclear”, https://www.world-nuclear-news.org/articles/von-der-leyen-it-was-strategic-mistake-to-turn-against-nuclear

[32] Déclaration de l’Alliance européenne du nucléaire, European Nuclear Alliance Leaders’ declaration, 21 mars 2024.

[33] TFUE, art. 101‑109 (principes du droit de la concurrence et aides d’État).

[34] Règlement (UE) 2023/851 modifiant le règlement 2019/631 (objectif d’interdiction des véhicules thermiques 2035) ; Commission européenne, Fit for 55, COM(2021) 550 final.

[35] Lors d’une conférence à Bruxelles en 2024, onze États membres ont signé une déclaration commune en faveur du développement du nucléaire civil, appelant à « libérer pleinement le potentiel du nucléaire » pour renforcer la sécurité énergétique, la décarbonation et l’indépendance industrielle (Euronews, 21 mars 2024). Les onze États pronucléaires, qui considèrent l’atome comme une solution stable et compétitive à long terme, comprennent la Belgique, la Bulgarie, la République tchèque, la Finlande, la France, la Hongrie, les Pays‑Bas, la Roumanie, la Slovaquie, la Slovénie et la Suède (Communiqué de l’Alliance européenne du nucléaire, 4 mars 2024). Les treize États « agnostiques », n’ayant ni politique fermement pronucléaire ni opposition déclarée et pouvant envisager un recours futur au nucléaire, comprennent l’Italie, le Danemark, le Luxembourg, Chypre, l’Estonie, l’Irlande, la Lettonie, la Lituanie, Malte, le Portugal, la Pologne, la Grèce et la Croatie (Euronews, 9 févr. 2026 ; Reuters, 10 mars 2026). Enfin, les trois États résolument anti‑nucléaires, défendant cette position au niveau européen, et doivent être clairement contournés par une majorité pronucléaire sont l’Allemagne, l’Autriche et l’Espagne (Euronews, 21 mars 2024 ; Euronews, juin 2025). Cette classification couvre l’ensemble des 27 États membres de l’UE ; elle illustre la diversité des positions et souligne les enjeux stratégiques pour la France face à l’enquête de la Commission sur les aides d’État à EDF.

[36] Moreau, Pierre, Droit de la concurrence et politique énergétique, LGDJ, Paris, 2024, p. 87‑102.

[37] Traité sur le fonctionnement de l’Union européenne (TFUE), art. 108 : Traités de l’Union européenne annotés, dir. Jean‑Marc Thouvenin, 8e éd., Dalloz, Paris, 2023, n° 45 et suiv.

[38] Isabelle Durant, « Souveraineté énergétique et droit des aides d’État », Revue trimestrielle de droit européen, 2025, p. 315‑337.

[39] Commission européenne, décision C(2014) 4520 final, State aid SA.35456 (UK – Hinkley Point C), JOUE C 109, 28 avril 2015, p. 1‑25 ; Tribunal de l’UE, 12 juillet 2018, Bundesrepublik Deutschland c/ Commission européenne, aff. T‑85/15, Rec. p. I‑0000 ; CJUE, 22 septembre 2020, Bundesrepublik Deutschland c/ Commission européenne, aff. C‑594/18 P, Rec. p. I‑0000.

[40] Communiqué Alliance européenne du nucléaire, European Nuclear Alliance Leaders’ Declaration, Bruxelles, 21 mars 2024 ; Claire Leclerc, « Les États pro‑nucléaires dans l’Union européenne », Revue du marché intérieur européen, nov. 2025, p. 78‑92.

[41] États membres opposés au nucléaire : Autriche et Allemagne, in Analyse comparative des politiques énergétiques européennes, dir. Sophie Laurent, Presses universitaires de France, Paris, 2025, p. 155‑179.

[42] Voir notamment : Commission de régulation de l’énergie, Évaluation des coûts complets de production de l’électricité nucléaire historique, 2023-2025, disponible à https://www.cre.fr/fileadmin/Documents/Rapports_et_etudes/2025/Rapport_CRE_Couts_du_nucleaire.pdf  ; 

Cour des comptes, La filière EPR : une dynamique nouvelle, des risques persistants, 2020 et actualisations https://www.vie-publique.fr/catalogue/275616-la-filiere-epr ; Direction générale du Trésor, Les enjeux économiques de la transition bas-carbone, 2024 disponible à https://www.vie-publique.fr/rapport/296839-cour-des-comptes-filiere-epr-dynamique-nouvelle-risques-persistants?utm_source=chatgpt.com.   Ces analyses convergent pour souligner que les nouveaux projets nucléaires se caractérisent par des coûts d’investissement élevés, des délais de réalisation longs et une forte sensibilité au coût du capital, ce qui rend leur évaluation coût-bénéfice incertaine et dépendante de mécanismes de soutien public.

[43] Discours d’Emmanuel Macron, Président de la République Française, au Conseil européen de l’énergie, Strasbourg, 25 juin 2025 (texte officiel site Élysée).

[44] Déclaration de Viktor Orbán, Ministre-Président de la République de Hongrie, au Forum européen de l’énergie, Budapest, 14 février 2025.

[45] Commission européenne, notification initiale SA.35456 (UK – Hinkley Point C), 2012.

[46] Commission européenne, notification initiale SA.35456 (UK – Hinkley Point C), 2012.

[47] Pierre Monet & Hélène Perret, « Aides d’État stratégiques et concurrence dans l’énergie », Revue du droit de l’énergie, 2026, p. 213‑245.

[48] Tribunal de l’UE, 12 juillet 2018, Bundesrepublik Deutschland c/ Commission européenne, aff. T‑85/15.

[49] Voir note 39.

[50] Macron, E., Déclaration sur l’énergie nucléaire, Sommet sur l’énergie nucléaire (AIEA), Paris (La Seine Musicale), 10 mars 2026, texte intégral disponible sur Vie-publique : https://www.vie-publique.fr/discours/302404-emmanuel-macron-10032026-energie-nucleaire.et Viktor Orbán, déclarations du Ministre Président (Premier ministre) de Hongrie relatives à la politique énergétique hongroise et au développement du projet Centrale nucléaire de Paks (Paks II), soulignant le rôle du nucléaire dans la souveraineté énergétique nationale ; v. notamment Reuters, Hungary presses ahead with Paks nuclear project despite EU tensions, dépêches 2023-2025.

[51] Commission européenne, State aid SA. 35456 (UK – Hinkley Point C), notification initiale 2012, intervention formelle de l’Autriche.

[52] Commission européenne, Instruction préliminaire sur Hinkley Point C, 2012‑2014.

[53] Commission européenne, Décision sur la compatibilité des aides pour Hinkley Point C, C(2014) 4520 final.

[54] Tribunal de l’UE, T‑85/15, Challenger State v Commission, 2016.

[55] Commission européenne, déc. SA.34947 (2013/C), 8 oct. 2014, Royaume-Uni – Aide en faveur de la centrale nucléaire de Hinkley Point C, JOUE L 109, 28 avr. 2015 ; Tribunal, 12 juill. 2018, Autriche c/ Commission, aff. T-356/15 ; CJUE, 22 sept. 2020, Autriche c/ Commission, aff. C-594/18 P.

 

 

 

 

 

 

avril 14, 2026

Intelligence Artificielle, une prospective; Mais quoi en penser ?

Sommaire:

A) - IA : Sacrifier notre avenir sur l’autel du droit d’auteur ?

B) - Intelligence artificielle, souveraineté normative et géopolitique : La fragmentation de la gouvernance mondiale entre puissances technologiques

C) - L’Entretien du Diplomate avec Yury Istomin : « Il faut baliser la jungle juridique et éthique de l’intelligence artificielle créative »

D) - Intelligence Artificielle : Révélations Exclusives au Futur

 


Alerte rouge pour l’IA made in France. Le Sénat vient d’adopter il y a 5 jours à l’unanimité une proposition de loi qui présume que toute IA a « piqué » des œuvres protégées dès qu’il y a le moindre indice. Résultat ? La charge de la preuve bascule sur les entreprises. Prouver qu’on n’a pas utilisé une œuvre parmi des milliards de données ? Mission quasi impossible. Conséquence directe : Entraînement des modèles devenu juridiquement hasardeux Risque de tsunami de procès Innovation étranglée en Europe Mistral AI et les futurs champions français risquent de devoir délocaliser pour survivre. Le droit d’auteur était censé protéger les créateurs, pas empêcher les machines d’apprendre comme le cerveau humain. Pendant que les US et la Chine avancent à pleine vitesse, on préfère saboter notre propre souveraineté tech. L'assemblée doit valider le texte également, en espérant qu'ils ne fassent pas le même choix que les sénateurs. C’est pas protéger la culture. C’est tuer l’avenir économique. Qu’en pensez-vous ? La France va-t-elle encore une fois rater le train de la prochaine révolution ?
 

 

A) - IA : Sacrifier notre avenir sur l’autel du droit d’auteur ?

Empêcher l’entraînement des IA en France, voire même leur commercialisation, au nom de la protection des auteurs. Irréaliste ? Délirant ? Économiquement criminel ? C’est pourtant le sens de la nouvelle loi votée à l’unanimité par nos sénateurs.

À l’abri de la lumière médiatique, le Sénat vient d’adopter à l’unanimité une proposition de loi sur le rapport entre l’IA et le droit d’auteur. Portée par la sénatrice Laure Darcos, elle a également reçu le soutien direct de Renaissance, de LR et du Parti communiste, dans un attelage pour le moins baroque. Ce texte introduit dans le Code de la propriété intellectuelle un article unique qui bouleverse l’équilibre entre création et innovation. Désormais, « sauf preuve contraire, l’œuvre ou l’objet protégé par un droit d’auteur ou par un droit voisin est présumé avoir été utilisé par le fournisseur du modèle ou du système d’intelligence artificielle, dès lors qu’un indice afférent au développement ou au déploiement de ce système ou au résultat généré par celui-ci rend vraisemblable cette utilisation ».
 
En d’autres termes, si un indice quelconque laisse penser qu’une IA a pu utiliser une œuvre protégée (un livre, une photo, une musique, etc.) pour s’entraîner ou pour générer un contenu, on considérera automatiquement que c’est le cas… sauf preuve du contraire. À partir de là, tout auteur ou ayant droit pourra engager une procédure judiciaire sur la base d’un simple indice (similarité stylistique ou graphique, etc.). De quoi encore davantage submerger nos tribunaux, déjà au bord de la crise de nerfs, et conduire les entreprises investies dans l’IA à passer leur temps à se défendre plutôt qu’à innover.
 
La charge de la preuve, qui pesait jusqu’alors sur les ayants droit, bascule donc sur les entreprises. L’intention proclamée est noble en apparence : mettre fin à ce que les défenseurs du texte qualifient de « pillage » ou de « moissonnage » massif des œuvres par les modèles génératifs. Mais, derrière cette rhétorique protectrice, se dissimule un dispositif qui menace non seulement l’essor de l’IA en France, mais aussi le principe même de la création, qu’elle soit humaine ou algorithmique. Ce texte, adopté dans une urgence presque fébrile, révèle une fois encore les travers d’une culture législative française qui, sous couvert de régulation vertueuse, étouffe l’innovation et saborde ses propres atouts dans la course technologique mondiale.
 
Le principe même des IA remis en cause
 
Au cœur de cette proposition réside une mise en danger fondamentale de l’entraînement des intelligences artificielles. Un modèle de langage de grande envergure, qu’il s’agisse des architectures open-weight de Mistral AI ou des systèmes plus opaques des géants américains, ne surgit pas du néant. Il se construit par une immersion profonde, une digestion statistique colossale de milliards de données textuelles, visuelles ou sonores collectées sur le web ouvert ou dans des corpus publics. Cet apprentissage, loin d’être une simple copie mécanique, consiste en une synthèse qui permet à la machine de recombiner des concepts et de générer des créations originales au profit de l’être humain qui les prompte.
 
Interdire ou rendre périlleux cet entraînement revient à nier la nature même de l’IA générative : un outil qui, comme l’esprit humain, progresse par imprégnation cumulative et transfiguration créatrice. Prétendre qu’un système doit rester vierge de toute influence antérieure pour être légitime, c’est ignorer que toute intelligence — biologique ou artificielle — s’élève précisément en absorbant un océan de connaissances préexistantes. Le texte du Sénat ne se contente pas de réguler l’usage ; il fragilise l’architecture cognitive elle-même des modèles, en rendant leur développement techniquement et juridiquement hasardeux sur le sol européen.
 
Une inversion de la charge de la preuve techniquement insurmontable
 
Cette fragilisation devient catastrophique lorsqu’on mesure l’ampleur de l’inversion de la charge de la preuve qu’impose le dispositif. Comment un fournisseur d’IA pourrait-il, en pratique, démontrer l’absence totale d’utilisation d’une œuvre protégée au sein de données qui atteignent souvent plusieurs centaines de téraoctets, accumulés sur des années ?
 
La « preuve contraire » exigerait soit une inspection exhaustive et rétroactive des données — une entreprise colossale, coûteuse et souvent impossible sans dévoiler les secrets industriels les plus sensibles —, soit une transparence forcée des algorithmes qui exposerait les acteurs européens à une vulnérabilité concurrentielle sans précédent face aux géants américains ou chinois, moins contraints par de telles obligations. Les contentieux se multiplieraient en un véritable tsunami judiciaire. Chaque génération de contenu « à la manière de », chaque restitution partielle pourrait déclencher une présomption de culpabilité. Les procédures s’éterniseraient devant les tribunaux, paralysant les startups comme les laboratoires de recherche, tandis que l’innovation stagnerait sous le poids d’une infernale machine administrative et contentieuse. Loin de protéger les créateurs, ce mécanisme risque de créer une insécurité juridique permanente.
 
Le droit d’auteur détourné de son essence philosophique
 
Mais le détournement le plus insidieux opéré par ce texte concerne sans doute le droit d’auteur lui-même, dont il pervertit le sens. Ce droit, dans sa philosophie forgée par les Lumières et affinée au fil des siècles, protège l’exploitation frauduleuse et directe d’une forme originale, singularisée par l’empreinte personnelle de son créateur. Il ne vise nullement à entraver l’inspiration, la lecture assidue, l’écoute répétée ou l’étude minutieuse des œuvres antérieures.
 
Toute l’histoire de l’art, cette longue chaîne ininterrompue de filiations et de ruptures, repose sur ce principe de digestion et de transfiguration. Les peintres de la Renaissance, qu’ils soient flamands ou italiens, copiaient inlassablement les maîtres antiques ou contemporains, analysaient leurs compositions, réinterprétaient leurs motifs avant de forger leur propre langage. Les compositeurs romantiques, de Beethoven à Chopin, s’abreuvaient des partitions de Bach, de Mozart ou de Haydn, non pour les plagier, mais pour les sublimer dans des formes nouvelles. Les écrivains du XXe siècle, de Proust à Joyce en passant par les surréalistes, dévoraient les textes de leurs prédécesseurs avec une voracité intellectuelle qui nourrissait leur génie propre.
 
Considérer qu’un modèle de langage ne peut s’entraîner sur les œuvres existantes équivaut, en réalité, à interdire au jeune artiste de décrypter les toiles de ses aînés ou au musicien en herbe d’écouter des milliers d’heures de répertoires avant de composer. L’IA ne procède pas autrement : elle lit, elle absorbe, elle synthétise à une échelle surhumaine. Elle ne reproduit pas ; elle recrée à partir d’une mémoire collective digérée à la demande d’un être humain. Assimiler cet apprentissage statistique à un vol revient à méconnaître la nature profonde de la création humaine, qui n’a jamais existé en vase clos, mais s’est toujours enrichie de l’héritage commun.
 
A lire : Quand la photo faisait aussi peur que l’IA:

Et si, demain, on protégeait les droits des auteurs de prompts ? L’idée vous paraît absurde ? C’est pourtant la suite logique d’une histoire débutée au XIXe siècle, quand fut reconnu, dans le fracas d’un procès, le talent des premiers photographes.

En 1862, la France fut le théâtre d’un procès qui marqua durablement l’histoire du droit d’auteur face à l’innovation technique. Les photographes Ernest Mayer et Louis Pierson, célèbres pour leur studio parisien et leurs portraits de personnalités, intentèrent une action en contrefaçon contre des concurrents, Betbéder et Schwalbé, qui avaient reproduit sans autorisation leur célèbre portrait du comte de Cavour. La question posée aux tribunaux était alors révolutionnaire : une photographie pouvait-elle être considérée comme une « œuvre de l’esprit » protégée par le décret de 1793 ? Ce texte fondateur reconnaît aux auteurs d’écrits, compositeurs, peintres et dessinateurs un droit de propriété exclusif sur leurs œuvres durant leur vie (et dix ans après leur mort pour leurs héritiers), leur permettant de vendre, distribuer et céder leurs créations. Ou n’était-elle qu’une reproduction mécanique du réel, privée de toute originalité créatrice ? Un débat qui opposa technique et création.

 La peur légitime des artistes, mais un combat mal orienté
 
Pourtant, la crainte qui anime de nombreux artistes face à cette révolution technologique est compréhensible. Ils voient leurs métiers menacés par des outils capables de produire en quelques secondes des textes, des images ou des compositions d’une qualité souvent époustouflante. Cette angoisse s’exprime avec une force particulière chez les comédiens et les instrumentistes, qui se sentent les premiers exposés au risque d’un remplacement pur et simple.
 
Leur combat est compréhensible, mais il n’en demeure pas moins mal orienté. Car face à l’IA, dont la perfection parfois froide et « inhumaine » peut laisser un sentiment de frustration chez une partie du public en quête d’authenticité, le spectacle vivant retrouve un boulevard inattendu et prometteur. Le théâtre, le concert, la performance en chair et en os regagnent leur noblesse primordiale : celle de l’incarnation physique, de la présence irremplaçable, de l’imperfection vibrante qui seule touche l’âme. Le public, lassé des productions trop lisses générées par des algorithmes, reviendra en masse vers la scène vivante, vers l’émotion partagée en temps réel.
 
Quant aux véritables créateurs — réalisateurs, scénaristes, romanciers, etc. —, l’intelligence artificielle ne les supplante pas ; elle les élève à un rang inédit. L’art du prompt, cette nouvelle forme d’écriture précise et nuancée, devient un talent décisif. Celui qui sait structurer sa pensée avec rigueur, affiner son langage, anticiper les subtilités d’une machine probabiliste obtient d’elle exactement ce que son esprit imagine, sans recourir à des processus de production extrêmement coûteux en temps, en énergie ou en ressources. Loin de dévaloriser les littéraires, l’IA les replace au cœur du jeu créatif.
 
Le syndrome normatif français : légiférer d’abord, comprendre ensuite

On ne peut s’empêcher de reconnaître dans ce texte le symptôme récurrent d’un défaut normatif profondément ancré dans la culture administrative et politique française. Notre pays a toujours manifesté une propension singulière à vouloir légiférer sur tout, et particulièrement sur les innovations issues du secteur privé. Le politique, souvent dépassé par la rapidité fulgurante du monde numérique, réagit par un réflexe réglementaire pavlovien, comme il l’avait fait naguère avec la loi Hadopi. Celle-ci, adoptée en 2009 dans un élan de protection de la création face au téléchargement illégal, est restée dans les mémoires comme un exemple emblématique de dispositif hors-sol, inefficace et contourné par la technologie elle-même.
 
Ici encore, on légifère sans pleinement appréhender les enjeux, les dynamiques de concurrence internationale ni les subtilités techniques de l’entraînement des modèles. On veut protéger la culture en entravant l’outil même qui pourrait la démultiplier, la rendre accessible à tous et enrichir le terreau créatif français. En réalité, derrière chaque épisode législatif similaire concernant la propriété intellectuelle, on retrouve à la manœuvre les très influents organismes de gestion collective (les fameuses Sacem, SACD, Scam…). Ils ont été à la source d’Hadopi, de la directive copyright et de sa transposition, mais sont aussi parvenus, en 2021, via la loi REEN (réduction de l’empreinte environnementale du numérique), à tordre le bras du législateur pour lui imposer l’introduction d’un prélèvement obligatoire sur les matériels d’occasion reversé aux ayants droit, au titre de la redevance sur la copie privée.
 
A lire : Très chère Hadopi,

82 millions d’euros de dépenses, 87 000 de recettes. Dans sa volonté farouche de préserver le droit d’auteur face au peer-to-peer, la France a dépensé sans compter… et en pure perte. Deux ans plus tôt, Netflix investissait la moitié de cette somme pour lancer sa plateforme de streaming.

Adoptée en juin 2009, la loi « Hadopi » était censée favoriser la diffusion et la protection de la création sur internet. Créée pour veiller à la prévention et à la sanction des atteintes aux droits d’auteur sur les réseaux, la Haute Autorité pour la diffusion des œuvres et la protection des droits sur internet incarnait alors la volonté politique de protéger les artistes face au téléchargement illégal massif sur les réseaux peer-to-peer. Près de quinze ans plus tard, le bilan apparaît comme un cas d’école du penchant français pour une législation qui, sous couvert de défense de la culture, ignore les évolutions du monde numérique, au prix d’un gaspillage spectaculaire de ressources publiques.

Hadopi reposait sur la « riposte graduée » : envoi d’avertissements, puis recommandation, enfin transmission à la justice en cas de récidive. Plus de 14 millions de courriers furent ainsi expédiés pour rappeler aux internautes leurs obligations. Pourtant, cette approche s’est rapidement révélée inadaptée. Tandis que l’autorité a concentré ses efforts sur le peer-to-peer, le piratage a massivement migré vers le streaming illégal et le téléchargement direct. L’arsenal juridique, figé dans une logique des années 2000, n'est jamais parvenu à suivre la rapidité avec laquelle les usages et les technologies ont évolué et s'est transformé en un mécanisme administratif lourd et coûteux.

 
Un tir dans le pied face à un potentiel exceptionnel
 
n fine, ce texte témoigne d’une double et douloureuse distance. Entre l’état du politique et celui de la société d’une part, et entre la France et son propre potentiel d’autre part. Car notre pays dispose, dans le domaine de l’intelligence artificielle, mais aussi dans la biotechnologie, les techniques CRISPR, les nouvelles technologies génétiques, les startups innovantes et la recherche médicale de pointe, d’atouts et de talents d’une rare qualité. Mistral AI, notre fleuron national, incarnait jusqu’ici l’espoir d’une Europe souveraine capable de rivaliser avec les géants d’outre-Atlantique. Cette proposition de loi risque de remettre en cause son existence même sur le sol français, à moins qu’elle ne choisisse, comme d’autres acteurs l’ont déjà laissé entendre, de délocaliser ses activités vers des juridictions plus accueillantes. Ce serait alors l’illustration tragique de notre capacité à saborder nos champions au nom d’une régulation prétendument protectrice.
 
L’avenir de la France en matière d’innovation ne doit pas se jouer dans des prétoires surchargés ni dans les commissions parlementaires qui cherchent à tout encadrer avant même d’avoir compris les enjeux profonds des sujets qu’elles abordent. Il s’exprimera dans notre capacité collective à accompagner le progrès tout en préservant l’essence de la création humaine. À l’Assemblée nationale, il est encore temps de refuser ce texte ou de le rééquilibrer en profondeur. Non pour abandonner les artistes, mais pour refuser le faux dilemme entre culture et innovation. Car l’une et l’autre ne s’opposent pas, mais se nourrissent mutuellement depuis la nuit des temps. L’intelligence artificielle n’est pas l’ennemie de l’esprit créateur ; elle en constitue un prolongement prometteur. La France a le choix : devenir le pays qui régule l’avenir jusqu’à l’étouffer, ou celui qui l’invente avec audace, intelligence et une confiance retrouvée en son génie propre.
 
Benjamin Sire 
 
 

 
B) - Intelligence artificielle, souveraineté normative et géopolitique : La fragmentation de la gouvernance mondiale entre puissances technologiques
 

À l’automne 2025 et au début de l’année 2026, dans un contexte de compétition technologique mondiale accrue entre puissances établies et émergentes, les États-Unis ont affirmé sans ambiguïté leur opposition à l’établissement d’un régime de gouvernance mondiale centralisé de l’intelligence artificielle (IA), une position qui a marqué un tournant significatif dans la position américaine prudente jusqu’ici dans les débats internationaux sur la régulation de cette technologie stratégique. Cette posture a été réaffirmée avec insistance le 20 février 2026 par Michael Kratsios, conseiller de la Maison-Blanche pour les sciences et technologies et directeur de l’Office of Science and Technology Policy, qui, à l’issue du India AI Impact Summit 2026 tenu à New Delhi, a déclaré que les États-Unis « rejettent totalement la gouvernance mondiale de l’IA » et que «l’adoption de l’IA ne peut conduire à un avenir meilleur si elle est soumise à la bureaucratie et à un contrôle centralisé».[1] L’administration américaine y voit un risque que des cadres normatifs supranationaux étouffent l’innovation et entravent la compétitivité, préférant promouvoir une « souveraineté de l’IA » fondée sur l’autonomie nationale, la coopération entre États partageant des valeurs similaires et l’intégration des technologies « best-in-class » américaines dans les architectures numériques des partenaires.[2]  Cette déclaration s’inscrit dans une séquence plus large de positions opposées à des processus multilatéraux visant à établir des règles ou standards internationaux contraignants — du refus de souscrire à certains accords éthiques mondiaux lors de sommets internationaux antérieurs à l’opposition à une « feuille de route centralisée » de la gouvernance de l’IA au sein de l’Assemblée générale de l’Organisation des Nations Unies.[3]

Cette inflexion américaine doit être analysée à la lumière d’une réorganisation globale des normes technologiques et sécuritaires au début du XXIᵉ siècle, où la puissance économique, stratégique et cognitive associée à la maîtrise des systèmes d’IA converge avec des enjeux de concurrence, de souveraineté, de sécurité nationale et de leadership international. Dans cette perspective, la gouvernance de l’IA devient elle-même un enjeu géopolitique structurant — confrontant des modèles normatifs divergents tels que celui de l’Union européenne, qui dès 2024 a adopté un cadre juridique ambitieux visant à encadrer les risques de l’IA de manière horizontale et proportionnée aux niveaux de risque des applications (AI Act),[4] et des approches plus fragmentées observées aux États-Unis, en Chine, au Japon, en Corée du Sud ou à Taïwan. Les enjeux sous-jacents ne se limitent pas à la seule réduction des risques sociétaux ou aux mécanismes de conformité légale, mais s’étendent aux procédures d’application (enforcement), aux mécanismes d’audit et de certification indépendants, aux gradients de responsabilité juridique entre innovateurs et opérateurs, ainsi qu’à la capacité des États à définir des règles du jeu normatives qui leur confèrent un avantage compétitif sur la scène internationale. L’introduction de ce débat positionne ainsi l’IA au cœur des marchés et des relations internationales contemporaines, invitant à une réflexion qui articule de manière rigoureuse les dimensions politiques, juridiques et stratégiques de la régulation technologique dans un monde multipolaire en recomposition.

I.   L’Union européenne et la construction d’un modèle normatif de l’intelligence artificielle

L’adoption en 2024 du règlement européen sur l’intelligence artificielle, communément désigné sous le nom d’AI Act, constitue l’aboutissement d’un processus engagé dès 2018 avec la communication de la Commission européenne « Artificial Intelligence for Europe » et consolidé par le Livre blanc sur l’intelligence artificielle de février 2020. Dans ce dernier document, la Commission affirmait déjà que l’Union devait promouvoir une « intelligence artificielle digne de confiance », fondée sur les valeurs de l’Union et respectueuse des droits fondamentaux.[5] Cette expression de « trustworthy AI », reprise des travaux du High-Level Expert Group on AI institué en 2018,[6] révélait une orientation normative claire : l’IA ne devait pas seulement être compétitive, mais conforme à un socle éthique et juridique structurant.

a.  Le contexte politique et stratégique de l’adoption du règlement européen sur l’IA

La proposition de règlement présentée par la Commission le 21 avril 2021 s’inscrivait dans une double dynamique. D’une part, elle répondait à des préoccupations internes relatives à la protection des droits fondamentaux, à la non-discrimination algorithmique et à la sécurité des produits intégrant des systèmes d’IA. D’autre part, elle s’inscrivait dans une stratégie externe plus ambitieuse, explicitée dans la communication sur la « Boussole numérique » de mars 2021, visant à positionner l’Union comme puissance normative dans la régulation des technologies émergentes.[7]À l’instar du précédent constitué par le règlement général sur la protection des données, l’Union entendait affirmer sa capacité à fixer des standards susceptibles d’exercer un effet d’entraînement au-delà de ses frontières.

Les débats au Parlement européen et au Conseil ont progressivement renforcé l’ambition du texte, notamment en élargissant la liste des pratiques interdites et en précisant le régime applicable aux systèmes dits « à haut risque ». Le compromis politique intervenu en décembre 2023, puis l’adoption formelle du règlement en 2024, ont consacré un cadre juridique horizontal applicable à l’ensemble du marché intérieur, fondé sur l’article 114 du Traité sur le fonctionnement de l’Union européenne, relatif à l’harmonisation des règles du marché intérieur.[8] Ce choix de base juridique souligne que l’AI Act est conçu non comme un instrument sectoriel, mais comme un instrument de régulation structurelle du marché numérique européen.

b.  L’architecture juridique : une régulation fondée sur les niveaux de risque

L’AI Act repose sur une architecture normative graduée, fondée sur une classification des systèmes d’intelligence artificielle selon leur niveau de risque. Le considérant 5 du règlement affirme que « les systèmes d’IA peuvent générer des risques et porter atteinte aux intérêts publics et aux droits fondamentaux protégés par le droit de l’Union » et qu’il convient dès lors d’adopter une approche proportionnée aux risques.[9]

Le texte distingue ainsi quatre catégories principales. Les pratiques d’IA jugées inacceptables sont purement et simplement interdites. L’article 5 prohibe notamment les systèmes exploitant des vulnérabilités liées à l’âge ou au handicap, les dispositifs de notation sociale généralisée par les autorités publiques, ainsi que certaines formes de reconnaissance biométrique en temps réel dans l’espace public, sous réserve d’exceptions strictement encadrées.[10] Cette interdiction traduit une volonté politique claire de tracer des lignes rouges normatives, en particulier face aux usages sécuritaires ou policiers susceptibles de porter atteinte aux libertés publiques.

Les systèmes d’IA à haut risque, définis aux articles 6 et suivants, sont autorisés mais soumis à un ensemble d’exigences substantielles : mise en place d’un système de gestion des risques, gouvernance des données, documentation technique, enregistrement dans une base de données européenne, surveillance humaine appropriée et exigences de robustesse, d’exactitude et de cybersécurité.[11] L’objectif est d’intégrer la conformité juridique au cycle de vie même du système, selon une logique de « compliance by design ».

Les systèmes présentant un risque limité sont soumis à des obligations de transparence, notamment lorsque des utilisateurs interagissent avec des systèmes conversationnels ou sont exposés à des contenus générés artificiellement. Enfin, les systèmes à risque minimal demeurent en principe libres de toute contrainte spécifique, ce qui manifeste le souci du législateur européen de ne pas entraver l’innovation de manière disproportionnée.

Cette architecture révèle un compromis entre ambition normative et réalisme économique. L’Union ne cherche pas à interdire l’IA en tant que telle, mais à encadrer ses usages les plus sensibles, en articulant protection des droits fondamentaux et intégration du marché intérieur.

c. Les mécanismes de conformité et d’enforcement

L’un des aspects les plus significatifs de l’AI Act réside dans ses mécanismes d’exécution. Le règlement adopte une structure inspirée du droit européen des produits, combinant auto-évaluation de conformité, intervention d’organismes notifiés et surveillance par les autorités nationales compétentes.

Les fournisseurs de systèmes à haut risque doivent procéder à une évaluation de conformité avant la mise sur le marché, incluant la vérification des exigences techniques et la constitution d’une documentation détaillée. Dans certains cas, notamment lorsque des normes harmonisées font défaut, l’intervention d’un organisme tiers est requise. Les États membres doivent désigner des autorités nationales de surveillance du marché, chargées de contrôler le respect des obligations et d’imposer, le cas échéant, des mesures correctives.[12]

Le règlement prévoit également la création d’un Comité européen de l’intelligence artificielle, destiné à favoriser la coordination entre autorités nationales et la Commission, sur le modèle classique existant dans les autres domaines de compétence partagée entre la Commission et les Etats membres. Cette dimension institutionnelle traduit la volonté de prévenir les divergences d’interprétation susceptibles de fragmenter le marché intérieur.

Le régime des sanctions est particulièrement dissuasif. L’article 99 prévoit des amendes administratives pouvant atteindre 35 millions d’euros ou 7 % du chiffre d’affaires annuel mondial total, selon le montant le plus élevé, pour certaines violations graves.[13] Cette échelle de sanctions, comparable à celle instaurée par le RGPD, témoigne de l’ambition d’assurer une effectivité réelle des obligations imposées.

L’AI Act introduit en outre des obligations spécifiques pour les modèles d’IA à usage général, notamment en matière de transparence, de documentation technique et d’évaluation des risques systémiques pour les modèles les plus puissants. Cette extension du champ de la régulation aux acteurs développant des modèles fondamentaux marque une évolution significative du droit européen vers une prise en compte des architectures technologiques sous-jacentes.

d. L’Union européenne comme puissance normative

Au-delà de ses mécanismes juridiques, l’AI Act doit être compris comme un instrument de projection normative. La littérature en relations internationales a depuis longtemps identifié l’Union comme une « puissance normative» capable d’influencer les standards internationaux par la force d’attraction de son marché intérieur. Ian Manners a théorisé cette capacité comme constitutive de l’identité externe de l’Union.[14]

Dans le domaine de l’IA, l’enjeu est double. D’une part, l’Union cherche à éviter une dépendance technologique excessive à l’égard d’acteurs étrangers, notamment américains et chinois. D’autre part, elle ambitionne de structurer un environnement juridique international dans lequel ses entreprises puissent évoluer selon des standards prévisibles et protecteurs des droits fondamentaux.

L’adoption de l’AI Act a ainsi été saluée par plusieurs responsables européens comme un moment fondateur. La présidente de la Commission, Ursula von der Leyen, a présenté le texte comme établissant « les premières règles complètes au monde pour une IA digne de confiance ».[15]Cette rhétorique souligne la dimension symbolique et stratégique du règlement : il ne s’agit pas seulement d’encadrer un marché, mais de proposer un modèle.

Toutefois, cette ambition normative s’inscrit dans un contexte international marqué par la divergence des approches. Là où l’Union privilégie une régulation ex ante, structurée et centralisée, d’autres puissances mettent en avant la flexibilité, l’autorégulation ou la souveraineté nationale. Cette divergence prépare le terrain d’une fragmentation normative, au cœur de la problématique générale de cet article.

Il est frappant de constater qu’aucune entreprise européenne ne figure parmi les quinze premières sociétés mondiales en matière d’intelligence artificielle, qu’il s’agisse de valorisation boursière ou de chiffre d’affaires lié à l’IA.[16] Le premier acteur européen, selon les classements de marché et les analyses financières récentes, est SAP, qui se positionne autour du 20ᵉ rang mondial, avec une activité IA intégrée principalement dans ses solutions de gestion d’entreprise et de cloud.[17] Ce retard relatif de l’Europe peut être expliqué par plusieurs facteurs : d’une part, une fragmentation historique du marché unique et une faible concentration d’acteurs capables d’investir massivement dans la recherche et le développement d’IA à grande échelle ; d’autre part, une culture entrepreneuriale moins orientée vers les start-ups à forte valorisation et une dépendance marquée vis-à-vis de capitaux publics ou de partenariats industriels limités. Les contraintes réglementaires et la priorité accordée à la protection des droits fondamentaux ont également pu ralentir le développement commercial agressif de technologies disruptives. Cette situation contribue à expliquer pourquoi l’Union européenne a choisi de déployer une stratégie normative proactive : l’AI Act et les initiatives associées visent non seulement à encadrer les risques, mais aussi à projeter une influence normative globale, à créer un avantage compétitif fondé sur la confiance et la légitimité juridique, et à renforcer le rôle des entreprises européennes dans un contexte où elles restent structurellement désavantagées face aux géants américains et chinois. Trois autres blocs réglementaires européens sont d’ailleurs à l’œuvre : le droit et la politique de la concurrence mais aussi le bloc réglementaire nouveau constitué par le Digital Markets Act [18] et l’ensemble réglementaire relatif à la cybersécurité.[19] L’approche européenne apparaît ainsi comme un moyen de compenser un déficit de masse critique technologique par un leadership normatif et réglementaire, susceptible de façonner les standards internationaux à long terme.

II. Les États-Unis entre régulation sectorielle, stratégie de puissance et refus d’une gouvernance mondiale centralisée

À la différence de l’Union européenne, les États-Unis n’ont pas opté pour un instrument législatif horizontal et contraignant applicable à l’ensemble des systèmes d’intelligence artificielle. Leur approche repose sur une combinaison de régulation sectorielle, de cadres de gestion des risques non contraignants et d’instruments exécutifs, articulés à une stratégie assumée de leadership technologique. L’analyse du modèle américain suppose ainsi d’examiner successivement l’architecture normative interne, les instruments récents mobilisés par l’exécutif fédéral, puis la dimension explicitement géopolitique du refus d’une gouvernance mondiale centralisée de l’IA.

a. Une tradition de régulation sectorielle et de soft law

La régulation américaine de l’intelligence artificielle s’inscrit dans une tradition juridique marquée par la prééminence du droit sectoriel et de l’analyse économique du droit. Contrairement à l’approche européenne fondée sur l’harmonisation ex ante, le système fédéral américain repose sur l’intervention d’agences spécialisées — telles que la Federal Trade Commission, la Food and Drug Administration ou le Department of Transportation — compétentes pour réguler des usages spécifiques de l’IA dans leurs domaines respectifs.

La Federal Trade Commission a ainsi affirmé dès 2020 que les systèmes algorithmiques relèvent de sa compétence lorsqu’ils donnent lieu à des pratiques déloyales ou trompeuses au sens du Federal Trade Commission Act.[20] Dans plusieurs déclarations publiques, l’agence a souligné que l’usage de l’IA n’exonère pas les entreprises de leurs obligations en matière de protection des consommateurs ou de non-discrimination. Cette approche demeure toutefois indirecte : elle ne crée pas d’obligations techniques ex ante comparables à celles prévues par l’AI Act européen, mais sanctionne a posteriori les comportements jugés illicites.

Dans le domaine financier, la Securities and Exchange Commission s’est intéressée aux usages de l’IA dans la gestion d’actifs et les conflits d’intérêts potentiels, tandis que la Consumer Financial Protection Bureau a mis en garde contre les risques de discrimination algorithmique dans l’octroi de crédit. Ces interventions illustrent une régulation fonctionnelle, fondée sur l’application de normes préexistantes à des technologies nouvelles.

Parallèlement, les États-Unis ont privilégié l’élaboration de cadres volontaires de gestion des risques. Le National Institute of Standards and Technology a publié en janvier 2023 le AI Risk Management Framework, document non contraignant destiné à aider les organisations à identifier, évaluer et atténuer les risques liés aux systèmes d’IA.[21] Ce cadre repose sur quatre fonctions principales — gouverner, cartographier, mesurer et gérer — et met l’accent sur la flexibilité et l’adaptabilité, plutôt que sur l’imposition d’exigences juridiques uniformes.

Cette prédominance de la soft law reflète une culture juridique attachée à l’innovation et à la responsabilité a posteriori plutôt qu’à la certification préalable. Elle traduit également une méfiance structurelle à l’égard des régulations fédérales transversales susceptibles de freiner la compétitivité des entreprises technologiques américaines.

b . L’Executive Order de 2023 et l’usage du pouvoir exécutif

L’administration démocrate du Président Joe Biden avait néanmoins marqué une inflexion en adoptant le 30 octobre 2023 un décret présidentiel intitulé Safe, Secure, and Trustworthy Development and Use of Artificial Intelligence.[22] Cet Executive Order a imposé aux agences fédérales de développer des standards de sécurité, prévu des obligations de partage d’informations pour les modèles les plus puissants développés par des entreprises privées, et mobilisé les compétences du Defense Production Act pour exiger la communication de certains résultats de tests de sécurité.

Le décret demande notamment au Department of Commerce d’élaborer des standards pour le « red-teaming »[23] des modèles avancés et d’établir des lignes directrices en matière de « filigranage » (« watermarking ») des contenus générés artificiellement.[24] Il impose également aux agences fédérales d’évaluer les impacts de l’IA sur les droits civiques, la protection des données et le marché du travail.

Toutefois, cet instrument demeure un acte de l’exécutif, susceptible d’être modifié ou abrogé par une administration ultérieure. Il ne constitue pas une loi fédérale adoptée par le Congrès et ne crée pas un régime de responsabilité générale comparable à celui instauré par le règlement européen. Son efficacité dépend largement de la capacité des agences à transformer les orientations présidentielles en normes opérationnelles.

Cette configuration met en évidence une caractéristique centrale du modèle américain : la régulation de l’IA procède moins d’une codification systématique que d’une mobilisation pragmatique des outils juridiques existants, combinée à des injonctions exécutives ciblées.

c.  Le refus d’une gouvernance mondiale centralisée : souveraineté et stratégie

C’est dans ce contexte interne que s’inscrit la déclaration du 20 février 2026 citée en début d’article par laquelle Michael Kratsios (directeur de l’Office of Science and Technology Policy, on le rappelle) a affirmé que les États-Unis « rejettent totalement la gouvernance mondiale de l’IA » lors du India AI Impact Summit 2026 de New Delhi.[25] Selon les comptes rendus publiés par l’Agence France-Presse et repris par plusieurs médias internationaux, il a soutenu que l’innovation ne devait pas être soumise à une « bureaucratie centralisée » susceptible d’entraver la compétitivité américaine.[26]

Cette position ne saurait être interprétée comme un refus de toute coopération internationale. Les États-Unis demeurent engagés dans des enceintes telles que le G7, notamment à travers le processus dit d’Hiroshima sur l’IA, et participent aux travaux de l’OCDE relatifs aux principes de l’IA adoptés en 2019. Toutefois, l’administration américaine distingue nettement coopération et gouvernance centralisée contraignante.

Le rejet d’un régime mondial unifié répond à plusieurs objectifs stratégiques. Il vise d’abord à préserver la marge de manœuvre normative nationale dans un secteur considéré comme déterminant pour la sécurité nationale et la compétitivité économique. Il s’inscrit ensuite dans une logique de rivalité systémique avec la Chine, dans laquelle la maîtrise des technologies d’IA est perçue comme un facteur clé de supériorité militaire et industrielle. Enfin, il reflète la volonté de protéger l’écosystème des grandes entreprises technologiques américaines, dont la capacité d’innovation rapide pourrait être affectée par des contraintes réglementaires internationales rigides.

En ce sens, la position américaine ne relève pas d’un simple désaccord technique sur les modalités de régulation, mais d’une conception particulière de l’ordre international technologique : un ordre fondé sur la compétition entre puissances, la diffusion de standards par le marché et la préservation de la souveraineté décisionnelle. Là où l’Union européenne cherche à projeter un modèle normatif structuré, les États-Unis privilégient une architecture plus flexible, où la puissance économique et l’avance technologique jouent un rôle déterminant dans la définition des standards de facto.

Cette divergence nourrit la fragmentation de la gouvernance mondiale de l’intelligence artificielle. Elle soulève une question centrale pour les relations internationales contemporaines et pour définir les stratégies tant industrielles que normatives ou encore pour les grands choix diplomatiques dans la  définition des alliances de l’avenir  : l’IA deviendra-t-elle l’objet d’un régime international structuré, comparable à ceux établis dans d’autres domaines technologiques sensibles, ou demeurera-t-elle un champ de rivalité normative dominé par les stratégies nationales des grandes puissances ? Les Etats-Unis semblent actuellement opter pour la seconde approche.

III. Les modèles asiatiques de gouvernance de l’intelligence artificielle : souveraineté technologique, encadrement étatique et pragmatisme stratégique

L’analyse de la fragmentation normative de la gouvernance mondiale de l’intelligence artificielle ne saurait se limiter au face-à-face transatlantique. Il faut donc se tourner vers l’Asie et observer que les puissances asiatiques ont développé des cadres de régulation distincts, révélateurs de conceptions différenciées du rapport entre État, marché et technologie. La Chine a opté pour un encadrement juridique dense, étroitement articulé à ses objectifs politiques et sécuritaires ; le Japon et la Corée du Sud privilégient des approches plus souples et adaptatives, combinant lignes directrices et stratégies industrielles ; Taïwan, enfin, cherche à concilier ouverture économique, sécurité nationale et alignement sur les standards démocratiques. L’examen comparé de ces modèles éclaire les logiques géopolitiques à l’œuvre dans la structuration régionale de la gouvernance de l’IA.

La Chine : régulation proactive et contrôle politique des architectures numériques

La République populaire de Chine a été l’un des premiers États à adopter des textes spécifiques encadrant les algorithmes et les services d’intelligence artificielle. Dès 2021, l’Administration du cyberespace de Chine a adopté les Provisions on the Management of Algorithmic Recommendation Services in Internet Information Services, imposant des obligations de transparence et de conformité aux plateformes numériques utilisant des systèmes de recommandation algorithmique.[27] Ces dispositions exigent notamment que les fournisseurs respectent « les valeurs fondamentales socialistes » et s’abstiennent de produire des contenus susceptibles de menacer la sécurité nationale ou l’ordre public.

En 2022, la Chine a renforcé ce dispositif avec les Provisions on the Administration of Deep Synthesis Internet Information Services, encadrant les technologies de synthèse profonde, y compris les contenus générés artificiellement.[28] Ces règles imposent l’identification explicite des contenus générés par l’IA et prévoient des obligations de vérification d’identité des utilisateurs.

L’étape la plus significative a été franchie en juillet 2023 avec l’adoption des Interim Measures for the Management of Generative Artificial Intelligence Services.[29] Ce texte impose aux fournisseurs de services d’IA générative des obligations de sécurité, de vérification des données d’entraînement et de prévention de la production de contenus illégaux. L’article 4 prévoit que les services doivent « adhérer aux valeurs fondamentales socialistes » et ne pas générer de contenus portant atteinte à la sécurité nationale, à l’unité territoriale ou à la stabilité sociale, suivant des formulations équivalentes à celles qui ont fondé le droit de la concurrence chinois dans la Loi Antimonopole de 2007.[30]

Cette architecture normative s’inscrit dans une stratégie plus large définie par le New Generation Artificial Intelligence Development Plan adopté en 2017 par le Conseil des Affaires d’État, qui fixe l’objectif de faire de la Chine le leader mondial de l’IA d’ici 2030.[31] La régulation chinoise ne vise donc pas à freiner l’innovation, mais à l’orienter et à l’intégrer dans une logique de contrôle politique et de sécurité nationale. L’État y joue un rôle central, tant comme régulateur que comme investisseur stratégique.

Le Japon : soft law, innovation et gouvernance agile

À la différence de la Chine, le Japon privilégie une approche fondée sur des principes directeurs et une régulation souple. Dès 2019, le gouvernement japonais a soutenu au sein du G20 l’adoption des G20 AI Principles, largement inspirés des principes élaborés par l’OCDE. Ces principes insistent sur la promotion d’une IA centrée sur l’humain, la transparence et la responsabilité.

Au niveau interne, le Japon a adopté en 2022 puis actualisé en 2023 des lignes directrices sur l’utilisation responsable de l’IA, sans instaurer de régime législatif horizontal comparable à l’AI Act européen. Le gouvernement met l’accent sur la coopération public-privé et sur la promotion d’un écosystème favorable à l’innovation. 

La politique publique japonaise en matière d’intelligence artificielle repose sur une approche hybride combinant législation stratégique promotionnelle, normes volontaires et lignes directrices éthiques, et coordination gouvernementale centralisée.[32] L’Act on the Promotion of Research, Development and Utilization of Artificial Intelligence-related Technology (souvent appelé AI Promotion Act) a été adopté par la Diète japonaise le 28 mai 2025:[33] cette loi est entrée en vigueur progressivement à partir de juillet 2025, avec une mise en œuvre complète il y a seulement quelques mois en septembre 2025 ; cette loi constitue le premier cadre légal explicite au Japon visant à promouvoir l’innovation et l’utilisation de l’IA tout en mitigeant les risques associés à travers la coopération entre acteurs publics et privés, l’encouragement de la recherche, le renforcement des compétences, et l’élaboration de principes directeurs pour une IA éthique et transparente.[34] Elle institue notamment un AI Strategy Headquarters sous l’autorité directe du Premier ministre, chargé de coordonner les politiques d’IA et d’élaborer des plans directeurs, mais n’impose pas de sanctions pénales directes : l’accent est mis sur le « soft law » (régulation incitative et guidée) plutôt que sur des interdictions strictes ou des amendes, reflétant une préférence japonaise pour une régulation légère favorisant l’innovation et l’interopérabilité sectorielle plutôt qu’une régulation générale obligatoire. Cette stratégie s’inscrit dans le contexte plus large de la vision socio-économique Society 5.0 et d’une coordination continue avec les normes internationales sur l’IA.

Le choix japonais reflète donc une volonté de maintenir une flexibilité normative afin de soutenir la compétitivité de ses entreprises technologiques, tout en affirmant son attachement aux principes démocratiques et à la coopération internationale. La régulation y apparaît davantage comme un instrument d’accompagnement que comme un dispositif contraignant ex ante.

La Corée du Sud : entre ambition industrielle et encadrement juridique progressif

La Corée du Sud a adopté en 2020 une National Strategy for Artificial Intelligence visant à positionner le pays parmi les leaders mondiaux du secteur d’ici 2030. Cette stratégie combine investissements massifs, soutien aux start-ups et développement d’infrastructures de données.

Sur le plan normatif, Séoul a progressivement élaboré des lignes directrices éthiques et envisage l’adoption d’un cadre législatif plus structuré. Des propositions de loi relatives à la promotion et à la régulation de l’IA ont été débattues à l’Assemblée nationale, cherchant à concilier innovation et protection des droits fondamentaux. La Corée du Sud observe attentivement les évolutions européennes et américaines, dans une logique d’équilibre entre compétitivité internationale et crédibilité normative. Tout récemment, la Corée du Sud a mis en place un cadre public de réglementation de l’intelligence artificielle autour du Basic Act on the Development of Artificial Intelligence and the Establishment of a Foundation for Trustworthiness (souvent appelé AI Basic Act), adopté par l’Assemblée nationale et entré en vigueur le 22 janvier 2026 après une période de préparation d’un an.[35] Cette loi-cadre, qui couvre 43 articles et six chapitres, constitue l’un des premiers régimes législatifs complets au monde régissant l’utilisation et le développement de l’IA, avec l’objectif déclaré de renforcer la transparence, la sécurité et la confiance du public tout en soutenant l’innovation.[36] Elle impose notamment des exigences de transparence et d’étiquetage de contenu généré par IAdes obligations de gestion des risques pour les systèmes à fort impact dans des domaines critiques (santé, transport, services financiers, etc.) et la mise en place d’une structure de gouvernance nationale coordonnée sous l’autorité du ministère de la Science et des TIC ; les sanctions en cas de non-conformité peuvent aller jusqu’à 30 millions de wons coréens, mais un délai de grâce d’un an est prévu avant l’application des amendes pour permettre aux acteurs économiques de se conformer. Cette approche vise à équilibrer promotion de la compétitivité internationale et protection des citoyens, et constitue un modèle de régulation nationale qui se place aux côtés du AI Act de l’Union européenne dans le paysage mondial de la gouvernance de l’IA.

Cette approche pragmatique illustre la position intermédiaire d’un État technologiquement avancé mais étroitement inséré dans les chaînes de valeur mondiales, dépendant à la fois des marchés occidentaux et de ses relations économiques avec la Chine.

Taïwan : sécurité technologique et alignement démocratique

Taïwan occupe une position singulière dans l’écosystème mondial de l’IA en raison de son rôle central dans la production de semi-conducteurs avancés, notamment via des entreprises telles que TSMC. La maîtrise des puces de pointe constitue un levier stratégique majeur dans la compétition mondiale pour l’IA.

Le gouvernement taïwanais a adopté des lignes directrices sur l’éthique de l’IA et soutient le développement d’applications industrielles et médicales, tout en veillant à la protection des données personnelles dans le cadre de sa législation sur la protection des informations personnelles. La régulation y demeure relativement souple, mais fortement marquée par les impératifs de sécurité nationale et par la nécessité de maintenir des partenariats étroits avec les États-Unis et l’Union européenne.

A Taïwan, comme au Japon et en Corée du Sud, la situation a évolué de manière marquée dans les derniers mois, en 2025. La régulation et la politique publique de l’intelligence artificielle se sont structurées autour de l’adoption du Artificial Intelligence Basic Act, une loi fondamentale votée le 23 décembre 2025 par l’Assemblée législative (Legislative Yuan) après une phase de préparation conduisant à l’approbation du projet par l’Exécutif en août 2025. Cette loi, qui vise à concilier promotion de l’innovation et gouvernance des risques, établit un cadre national pour le développement, l’application et la supervision de l’IA. Cette loi codifie sept principes directeurs alignés sur des normes internationales — durabilité et bien-être, autonomie humaine, protection de la vie privée et gouvernance des données, cybersécurité et sécurité, transparence et explicabilité, équité et non-discrimination, et responsabilité — et désigne le National Science and Technology Council (NSTC) comme autorité compétente pour coordonner la mise en œuvre, tandis que le Ministère des Affaires numériques (MODA) doit élaborer des cadres de classification des risques d’IA et des lignes directrices pratiques.[37] Le texte oblige aussi à promouvoir la recherche, l’équipement en infrastructures, la protection des droits du travail face à l’automatisation et l’équité numérique, tout en établissant un comité stratégique national sur l’IA, présidé par le Premier ministre, pour guider les orientations politiques.[38] Cette approche met l’accent sur une gouvernance fondée sur des principes, la coordination intersectorielle et l’équilibre entre compétitivité technologique et garanties sociétales, plutôt que sur des sanctions administratives immédiates pour le secteur privé.[39]

Dans le contexte des tensions croissantes avec Pékin, la gouvernance de l’IA à Taïwan est indissociable des enjeux de souveraineté technologique et de résilience stratégique. L’île cherche à consolider sa position comme acteur indispensable des chaînes d’approvisionnement mondiales, tout en s’inscrivant dans le camp des démocraties technologiques.

À travers ces modèles asiatiques se dessinent des conceptions profondément différenciées de la relation entre technologie, État et ordre international. La Chine articule régulation et contrôle politique dans une perspective de puissance globale ; le Japon et la Corée du Sud privilégient une régulation souple intégrée à des stratégies industrielles ; Taïwan lie gouvernance de l’IA et sécurité stratégique. Cette diversité confirme que la fragmentation normative de l’intelligence artificielle n’oppose pas seulement l’Europe et les États-Unis, mais s’inscrit dans une recomposition plus large de l’ordre technologique mondial.

IV. Enjeux, conséquences et perspectives géopolitiques de la fragmentation normative de l’IA

La diversité des approches réglementaires analysées dans les sections précédentes révèle une fragmentation croissante de la gouvernance mondiale de l’intelligence artificielle. Cette situation ne se limite pas à un décalage entre modèles juridiques : elle constitue un facteur stratégique, économique et politique majeur dans les relations internationales contemporaines. L’Union européenne, les États-Unis, la Chine et les puissances asiatiques expriment des logiques de souveraineté, de compétitivité et de projection normative qui se conjuguent pour produire un paysage international fragmenté, où la définition de standards communs est incertaine et où l’IA devient un enjeu de puissance.

a. Les implications géopolitiques majeures

Sur le plan géopolitique, la fragmentation normative entraîne une course à la standardisation de facto par les acteurs dominants. Les États-Unis, en privilégiant la flexibilité et l’autorégulation sectorielle, favorisent l’émergence de standards par les grandes entreprises technologiques, qui deviennent des références globales. L’Union européenne, par le biais de l’AI Act, tente d’imposer un modèle de régulation ex ante, fondé sur la protection des droits fondamentaux, susceptible de s’imposer aux acteurs internationaux souhaitant accéder au marché européen.[40] Le tableau en annexe II ci-après sur le top 20 des entreprises d’AI dans le monde est éloquent : la première – et unique – entreprise de l’AI d’une nationalité européenne, l’allemande SAP, n’arrive qu’à la seizième place ! Les dix premières sont issues des Etats-Unis. La Chine case cinq entreprises entre la dixième et la vingtième place. Taïwan et le Japon casent une entreprise respectivement à la onzième et dix-huitième place.

Cette dualité de normes crée des tensions potentielles dans le commerce et la coopération technologique. Les entreprises internationales doivent naviguer entre des obligations européennes contraignantes et un environnement américain plus souple, tout en tenant compte des régulations chinoises strictes et orientées politiquement. Les tensions sont particulièrement visibles dans les secteurs stratégiques, comme les plateformes de traitement de données massives, les systèmes de reconnaissance biométrique et les modèles d’IA générative à large échelle.

La fragmentation normative a également des implications pour la sécurité nationale. L’IA, en tant que technologie duale, combine usages civils et militaires. Les États-Unis et la Chine considèrent l’IA comme un facteur clé de supériorité technologique et militaire, ce qui explique le refus américain d’une gouvernance mondiale centralisée et l’encadrement chinois strict et politique.[41] L’Union européenne, bien que moins focalisée sur l’aspect militaire, voit dans le contrôle des standards un levier de puissance normative et d’influence internationale.

b. Conséquences économiques et industrielles

On vient d’observer la dominance des entreprises américaines présentes dans les dix premières places. La divergence des régulations influence la dynamique industrielle globale. Les grandes entreprises américaines, telles que OpenAI et Google DeepMind, tirent parti d’un cadre flexible favorisant l’innovation rapide et l’expérimentation. L’AI Act européen impose, en revanche, des contraintes lourdes sur la conformité et la documentation, ce qui peut ralentir l’entrée sur le marché mais renforcer la confiance des consommateurs et des institutions publiques, avec une seule entreprise dans les vingt premières places.[42]

La régulation chinoise, orientée vers la sécurité et la conformité aux directives politiques, encourage les entreprises nationales à aligner leurs innovations sur les priorités stratégiques de l’État, limitant l’influence étrangère dans le marché intérieur et consolidant des champions locaux. Le Japon, la Corée du Sud et Taïwan adoptent des modèles intermédiaires, cherchant à équilibrer innovation, sécurité et compétitivité.

L’ensemble de ces stratégies produit un écosystème global fragmenté, où la maîtrise des standards de l’IA devient un facteur clé de compétitivité économique et de positionnement géostratégique.

c. Enjeux pour la gouvernance internationale

Cette fragmentation pose des défis majeurs pour la coordination internationale. Les instances multilatérales, telles que l’OCDE, le G7 ou l’ONU, ont initié des principes et des recommandations, mais leur portée reste limitée face à la divergence des approches nationales. Le risque est celui de l’émergence de « blocs normatifs » : un bloc transatlantique influencé par l’Union européenne et les États-Unis, un bloc sino-centré avec des normes orientées politiquement, et des acteurs asiatiques intermédiaires qui ajustent leurs régulations selon les opportunités économiques et stratégiques.

Cette situation alimente également des tensions diplomatiques et commerciales, les États cherchant à imposer leurs standards comme condition d’accès aux marchés ou d’investissements technologiques. Elle peut générer des phénomènes de compliance fragmentation, où les entreprises internationales doivent simultanément satisfaire des régulations divergentes, augmentant les coûts et la complexité de la conformité.[43]

 d. Perspectives et stratégies d’avenir

Face à cette fragmentation, plusieurs scénarios sont envisageables. Le premier consiste en une convergence progressive vers des standards internationaux harmonisés, portée par des négociations multilatérales et la diffusion des bonnes pratiques, à l’instar de la régulation environnementale ou du commerce numérique. Le second scénario, plus probable à court et moyen terme, est celui d’une coexistence de régulations nationales et régionales, avec des effets d’entraînement partiels et des tensions commerciales et technologiques persistantes.

Pour l’Union européenne, le défi est de maintenir sa capacité normative tout en facilitant l’interopérabilité avec les autres grands acteurs. Pour les États-Unis, il s’agit de préserver la compétitivité et l’innovation tout en répondant aux préoccupations éthiques et sécuritaires. La Chine poursuit une stratégie d’encadrement étroit et de contrôle politique, tandis que les puissances asiatiques intermédiaires ajustent leurs cadres pour maximiser leurs avantages technologiques et économiques.

En conclusion, la fragmentation de la gouvernance mondiale de l’IA illustre la relation complexe entre droit, puissance et stratégie internationale. Elle souligne que l’intelligence artificielle n’est pas seulement un objet technique ou économique, mais un levier de pouvoir et un instrument de projection normative, dont la régulation devient un terrain de compétition géopolitique. La tension entre souveraineté nationale et coopération internationale sera déterminante pour l’évolution future de l’écosystème global de l’IA.

Conclusion

L’analyse des régulations de l’intelligence artificielle à l’échelle mondiale met en lumière une dynamique paradoxale : alors que l’IA représente un enjeu stratégique universel, les modèles de gouvernance sont profondément divergents, reflétant des visions différentes de la relation entre État, marché et société. L’Union européenne incarne un modèle normatif structuré, centré sur la protection des droits fondamentaux et l’harmonisation du marché intérieur. Les États-Unis privilégient la flexibilité, la régulation sectorielle et la préservation de la compétitivité de leurs entreprises, tout en refusant toute gouvernance mondiale centralisée. La Chine déploie un encadrement juridique strict, orienté par des priorités politiques et sécuritaires, tandis que le Japon, la Corée du Sud et Taïwan adoptent des approches intermédiaires, conciliant innovation, sécurité et coopération internationale.

Cette diversité traduit une fragmentation normative croissante, où l’IA devient simultanément un objet économique, un instrument de puissance et un terrain de rivalité géopolitique. Elle pose plusieurs défis majeurs : la coexistence de standards divergents, le risque de tensions commerciales et diplomatiques, la nécessité pour les entreprises de naviguer dans des cadres juridiques complexes, et la question de la sécurité des technologies duales dans un contexte de compétition stratégique.

Pour les relations internationales, la fragmentation de la gouvernance de l’IA souligne la limite des approches multilatérales classiques face à des technologies émergentes à fort impact sociétal et militaire. Elle suggère que la définition des standards globaux dépendra moins de traités internationaux contraignants que de l’influence combinée des grandes puissances et de leurs écosystèmes industriels et financiers. Dans ce contexte, l’Union européenne apparaît comme une puissance normative en quête de diffusion extraterritoriale de ses standards, tandis que les États-Unis et la Chine exploitent la régulation pour affirmer leur souveraineté technologique et leur avance compétitive.

La trajectoire future de la gouvernance mondiale de l’IA dépendra donc d’une combinaison de facteurs : la capacité des États à aligner leurs stratégies nationales, l’émergence de standards techniques de facto, la pression des marchés et des consommateurs, et la nécessité de gérer les risques éthiques, sociaux et sécuritaires. L’intelligence artificielle se confirme ainsi comme un champ de puissance où droit, politique et géopolitique sont inextricablement liés, et où la fragmentation normative constitue à la fois un défi et un levier stratégique pour les grandes puissances.

Cette analyse suggère que la compétition normative sera un élément central des relations internationales au XXIᵉ siècle, et que la maîtrise de l’IA — technique, juridique et stratégique — déterminera en partie le positionnement et l’influence des États sur la scène mondiale.


Annexes

[1] Michael Kratsios, Remarks by Director Michael Kratsios at the India AI Impact Summit, India AI Impact Summit, New Delhi, 20 février 2026, Office of Science and Technology Policy (texte intégral consulté en ligne), disponible sur The White House website, https://www.whitehouse.gov/articles/2026/02/remarks-by-director-michael-kratsios-at-the-india-ai-impact-summit/?utm_source=chatgpt.com. Aussi, « White House adviser says US “totally” rejects global AIgovernance », article AFP (dépêches du 20 février 2026) relatant les déclarations de Michael Kratsios à New Delhi lors du India AI Impact Summit 2026, rapportées par plusieurs organes de presse internationale. 

[2] Ibid. Voir plus particulièrement les passages où Kratsios critique l’idée d’une gouvernance normative centralisée et appelle à promouvoir « l’adoption et la prospérité humaine » via l’IA. « No Euro tone again: US rejects global AI governance, pushes ‘sovereign’ American stack »New Indian Express, 20 février 2026 

https://www.newindianexpress.com/world/2026/Feb/20/no-euro-tone-again-us-rejects-global-ai-governance-pushes-sovereign-american-stack?utm_source=chatgpt.com.

[3] UNGA 80, US rejects a centralised AI rulebook, compte rendu des débats à l’Assemblée générale des Nations Unies où les États-Unis ont rejeté une gouvernance centralisée de l’IA, favorisant la souveraineté nationale et la coopération entre États. « US promotes AI sovereignty, exports at India AI Impact Summit 2026 »Business Standard, 20 février 2026, https://www.business-standard.com/technology/tech-news/us-promotes-ai-sovereignty-exports-at-india-ai-impact-summit-2026-126022000532_1.html?utm_source=chatgpt.com.

[4] Règlement européen sur l’intelligence artificielle, dit AI Act, adoptée en 2024 par les institutions de l’Union européenne pour encadrer les « risques » liés à l’IA selon des niveaux de risque gradués (textes et commentaires officiels des institutions européennes disponibles dans la documentation juridique de l’UE). Soulignons que l’habitude a été prise, notamment avec le Digital Markets Act, de nommer « Acts » en anglais la catégorie de textes relevant de l’appellation de « Règlement » au sens des traités européens, pour leur donner une lisibilité équivalente aux textes de lois aux Etats-Unis. Pour autant tous les Règlements ne sont pas dénommés en anglais « Acts » mais « Regulations ».

[5] Commission européenne, White Paper on Artificial Intelligence – A European approach to excellence and trust, COM(2020) 65 final, Bruxelles, 19 février 2020, p. 2–4.

[6] Commission européenne, Commission appoints expert group on AI and launches the European AI Alliance, Press release, 14 June 2018Le AI HLEG a été constitué pour apporter un conseil stratégique à la Commission sur sa stratégie européenne en matière d’IA, d’élaborer des recommandations de politique publique, et de traiter des enjeux éthiques, juridiques et sociaux de l’intelligence artificielle dans le cadre de la mise en œuvre de la Communication « Artificial Intelligence for Europe » publiée en avril 2018. Le groupe, composé d’experts indépendants issus du monde académique, de la société civile et de l’industrie, devait également contribuer à l’élaboration de lignes directrices éthiques et d’orientations pour une IA digne de confiance en Europe.

[7] Commission européenne, 2030 Digital Compass: the European way for the Digital Decade, COM(2021) 118 final, Bruxelles, 9 mars 2021.

[8] Proposition de règlement du Parlement européen et du Conseil établissant des règles harmonisées concernant l’intelligence artificielle (Artificial Intelligence Act), COM(2021) 206 final, 21 avril 2021, fondée sur l’article 114 TFUE.

[9] AI Act, considérant 5.

[10] Ibid., art. 5.

[11] Ibid., art. 8 à 15.

[12] Ibid., art. 59 et s.

[13] Ibid., art. 99.

[14] Ian Manners, “Normative Power Europe: A Contradiction in Terms?”, Journal of Common Market Studies, vol. 40, no 2, 2002, p. 235–258.

[15] Ursula von der Leyen, Déclaration sur l’accord politique relatif à l’AI Act, Commission européenne, communiqué de presse, Bruxelles, 9 décembre 2023.

[16] Capital.com, Largest AI companies by market capitalization 2025, consulté février 2026 : aucune société européenne dans le top 15.

[17] SAP, rapport annuel 2025, SAP Integrated Report 2025, pages 48‑52, Walldorf, Allemagne : estimation de l’activité IA et position dans les classements mondiaux.

[18] Voir notamment nos articles Souty, F., « Digital Markets Act européen, politique de la concurrence et souveraineté : conséquences géopolitiques et impact stratégique du droit sur l’économie digitale », Le Diplomate Média, 4 février 2026 et « Politique de la concurrence et Antitrust en Europe et aux Etats-Unis : perspectives transatlantiques et enjeux géopolitiques », Le Diplomate Médias, 30 décembre 2025. Voir aussi l’excellente analyse de Babinet, G., « Le véritable sujet de l’IA, c’est l’antitrust », Les Echos, mercredi 18 février 2026, p. 12 qui explique fort justement que « le débat sur l’IA est moins un débat sur le droit du travail qu’un débat de politique de la concurrence ».

[19] Souty, F., Cyberespace, sécurité, souveraineté, technologie et rivalités géopolitiques mondiales : enjeux juridiques, régulation et priorités pour l’Union européenne et pour la France », Le Diplomate Média, 11 février 2026. 

[20] Federal Trade Commission, “Using Artificial Intelligence and Algorithms,” Business Blog, 8 avril 2020 ; voir également FTC, Aiming for Truth, Fairness, and Equity in Your Company’s Use of AI, 19 avril 2021.

[21] National Institute of Standards and Technology, Artificial Intelligence Risk Management Framework (AI RMF 1.0), U.S. Department of Commerce, janvier 2023.

[22] Executive Office of the President, Executive Order on the Safe, Secure, and Trustworthy Development and Use of Artificial Intelligence, 30 octobre 2023, Federal Register.

[23] Le terme « red teaming » de contenus avancés vient des pratiques de cybersécurité et d’évaluation des risques, mais appliqué à l’IA générative et aux contenus numériquesC’est une approche proactive pour tester, détecter et évaluer les vulnérabilités ou les risques associés à des contenus produits par l’IA.

[24] Le filigrane de contenus (ou content watermarking en anglais) est une technique qui consiste à insérer dans un contenu des informations invisibles ou visibles qui permettent d’identifier sa source, son propriétaire ou sa traçabilité. C’est un peu comme signer ou marquer un document ou une image pour montrer qu’il appartient à quelqu’un, ou pour suivre sa circulation dans un contexte de protection des droits d’auteurs, de traçabilité ou encore d’authentification de contenus générés par l’IA.

[25] Déclarations rapportées lors du India AI Impact Summit 2026, New Delhi, 20 février 2026, op.cit.

[26] Dépêche AFP, 20 février 2026, déjà citée, reprise notamment par Stratégies, 20 février 2026 ; voir également US promotes AI sovereigntyBusiness Standard, 20 février 2026 également déjà cité.

[27] Cyberspace Administration of China, Provisions on the Management of Algorithmic Recommendation Services in Internet Information Services, adoptées le 31 décembre 2021, entrées en vigueur le 1er mars 2022.

[28] Cyberspace Administration of China, Provisions on the Administration of Deep Synthesis Internet Information Services, 25 novembre 2022, entrées en vigueur le 10 janvier 2023.

[29] Cyberspace Administration of China et al., Interim Measures for the Management of Generative Artificial Intelligence Services, 13 juillet 2023, entrées en vigueur le 15 août 2023.

[30] Souty F. « Loi chinoise antimonopole – Bilan : L’Autorité chinoise de la concurrence tire un premier bilan des deux années d’application de la loi antimonopole », Concurrences N° 4-2010, 12 août 2010, Art. N° 33180, pp. 235-238 

[31] State Council of the People’s Republic of China, New Generation Artificial Intelligence Development Plan, 8 juillet 2017.

[32] « AI Regulation in Japan: Policy Framework & Governance »Nemko Digital2026, pp. 2-4 (explication des objectifs nationaux de l’Act, de l’établissement de l’AI Strategy Headquarters sous le Cabinet Office et de l’intégration de lois sectorielles existantes pour le droit applicable, montrant l’approche dite de « light touch regulation »)

[33] International Bar Association, Japan’s emerging framework for responsible AI: legislation, guidelines and guidance12 nov. 2025, section sur l’AI Promotion Act .

[34] Vincent Fauchoux, « Japan’s 2025 AI Promotion Act: Structuring Innovation Through Soft Regulation », Tech & DATA, 2 juin 2025, pp. 1-3 (présentation des objectifs, des axes principaux et de l’architecture institutionnelle de la loi, soulignant l’absence de sanctions directes mais la promotion de la coopération entre parties prenantes).

[35] «South Korea Enacts World’s First Comprehensive AI Law, Balancing Innovation and Safety», Asia Daily, 25 janv. 2026.

[36] « South Korea’s AI Basic Act Takes Effect Jan 22, 2026 », AI Business Weekly, 22 janv. 2026. Cet article fournit une série d’informations précises sur l’entrée en vigueur, la structure institutionnelle, le délai de grâce et les sanctions, y compris le contexte réglementaire plus large (articles 25-43, dispositions applicables à la gouvernance nationale.

[37] Ministry of Digital Affairs (R.O.C., Taïwan), Legislative Yuan Passes Artificial Intelligence Fundamental Act in Third Reading, Laying Foundation for AI Innovation, Security Governance in Taiwan, communiqué du 24 déc. 2025 décrivant l’AI Basic Act et ses objectifs de promotion d’une IA centrée sur l’humain et la protection des droits fondamentaux. 

[38] Baker McKenzie, Taiwan: AI Basic Act, fact sheet, 9 jan. 2026. Note qui précise les obligations institutionnelles (NSTC, MODA) et les sept principes directeurs alignés avec des normes internationales en matière de gouvernance de l’IA. https://www.bakermckenzie.com/en/insight/publications/2026/01/taiwan-ai-basic-actAI Basic Act passed, tries to balance AI promotion with social welfare, Focus Taiwan (CNA), 23 déc. 2025 : donne des détails sur les principes, la création du comité national et les mesures de soutien pour l’industrie et l’infrastructure. 

[39] White & Case LLP, AI Watch: Global regulatory tracker – Taiwanjan. 2026, discute du cadre actuel, qui repose principalement sur une régulation de principe et des lignes directrices plutôt que sur des sanctions directes, positionnant Taïwan dans une approche « à faible contrainte ».

[40] Commission européenne, Artificial Intelligence Act, 2024, cf. considérants et articles sur la portée extraterritoriale et la protection des droits fondamentaux.

[41] Cyberspace Administration of China, Interim Measures for the Management of Generative Artificial Intelligence Services, 13 juillet 2023, article 4.

[42] Ursula von der Leyen, communiqué de presse sur l’adoption de l’AI Act, Commission européenne, 9 décembre 2023.

[43] OECD, AI Policy Observatory: Mapping AI Regulations, 2025: https://www.oecd.ai/en/policy-regulations

 

 

C) - L’Entretien du Diplomate avec Yury Istomin : « Il faut baliser la jungle juridique et éthique de l’intelligence artificielle créative »

Lintelligence artificielle continue de changer nos vies si rapidement que les normes éthiques et juridiques antérieures deviennent obsolètes sous nos yeux. Ce nest pas un hasard si, il y a un an, sous l’égide de lUNESCO, a été créé lObservatoire mondial sur l’éthique dans la gouvernance de lintelligence artificielle. Son objectif est danalyser et de formuler des recommandations.

Yury Istomin est un célèbre auteur-compositeur et entrepreneur, fondateur de la société d’IA « iQln-research ». Il est également lauteur dun nouveau concept philosophique, présenté dans le livre « Realitology ». Pour développer sa théorie, Yuri Istomin a créé l’Institut Realitology à Monaco. Le Diplomate a rencontré Yury Istomin qui utilise déjà lIA dans ses créations pour essayer de trouver le juste équilibre.

Propos recueillis par Le Diplomate 

Le Diplomate : L’émergence de programmes d’IA qui composent de la musique de tout genre et de la poésie a d’abord beaucoup indigné la communauté créative, mais ensuite des albums entiers ont commencé à apparaître, créés principalement par l’intelligence artificielle. Cependant, des poursuites judiciaires ont rapidement suivi.

Yury Istomin : Oui, par exemple, la composition « Heart on My Sleeve », créée avec laide des voix IA de Drake et The Weeknd, a été retirée de Spotify en raison dune violation du droit dauteur, bien quelle soit devenue extrêmement populaire. Nous entrons ici dans une véritable « jungle » juridique, car larsenal juridique concernant lintelligence artificielle dans la sphère culturelle nen est qu’à ses balbutiements. Ce morceau était assez facile à traiter, car il utilisait des procédures bien établies pour prouver qu’il était illégal d’utiliser la voix de l’artiste sans son consentement pour une nouvelle composition. Mais nous avons toute une « forêt » de problèmes devant nous.

Personnellement, je suis assez doué pour créer des chansons par moi-même, mais mon dernier album, “Transfer dans Istanbul”, présente un exemple de collaboration avec l’IA. Cependant, il convient de noter que la chanson elle-même était déjà à moitié écrite, et j’ai décidé de parler à ChatGPT uniquement pour entendre ses idées sur la fin. J’ai aimé le résultat et décidé de l’enregistrer de cette façon.

Joserais dire que pour un professionnel, collaborer avec lIA sapparente à un travail de producteur. Plus la tâche est clairement définie, plus grandes sont les chances dobtenir un bon résultat. Plus le créateur lui-même met d’éléments dans ChatGPT, plus le résultat obtenu est intéressant.

De plus, les éditeurs et la presse ont été les premiers à comprendre que sans vérification professionnelle des résultats de lintelligence artificielle, ceux-ci ne peuvent pas être exploité et directement soumis aux lecteurs. L’IA est très efficace pour dessiner des couvertures de livres simples, laissant malheureusement les designers professionnels sans revenus et sous la menace de la disparition de leur profession. 

ChatGPT est devenu une sorte de soutien pour la préparation d’articles, mais ils doivent être relus par un journaliste professionnel ayant une vision large pour garantir qu’aucune erreur évidente ne passe inaperçue. Sans parler du correcteur. Tout le monde a peur que lintelligence artificielle supprime des emplois, mais je dirais plutôt quelle va éliminer les personnes sans talent et sans professionnalisme. Les gens ont une capacité fantastique à créer quelque chose de nouveau, ainsi qu’un sens incroyable du moment où l’on peut changer quelques mots ou quelques sons – et maintenant le morceau est joué différemment.

LD : Cependant, pour linstant, nous constatons que lIA est utilisée comme “un cheval” pour augmenter la diffusion et les ventes, non ?

YI : Oui, bien sûr, nous ne pouvons pas nous passer dune telle « neuvième vague ». Mais n’y avait-il pas déjà des plagiats dans le show-biz ou dans les médias ? Aujourd’hui, de plus en plus de personnes ont accès à ce quelles considèrent comme de la « créativité » grâce à lIA. Essayons de le justifier un peu.

Auparavant, un compositeur créait quelques chansons à succès, un interprète talentueux les enregistrait et, si le public les appréciait, il achetait les disques et allait aux concerts. Mais les supports denregistrement modernes rendent diverses redevances créatives éphémères. Même une star comme Taylor Swift, avec des tournées mondiales extrêmement réussies, se bat depuis longtemps avec diverses plateformes pour obtenir des droits d’auteur. 

Auparavant, il était nécessaire d’établir des relations uniquement avec les maisons de disques, mais désormais – avec l’ensemble de l’univers des différentes ressources d’Internet. Les règles du jeu ont donc déjà radicalement changé et continuent de changer sous nos yeux.

LD : Nous savons combien de cas juridiques complexes existent dans le monde contre des artistes populaires lorsquils sont soudainement accusés de plagiat. Il s’agit parfois d’une tentative de chantage, mais n’est-il pas en réalité très facile de tirer profit d’une composition d’un auteur non promu d’un pays tiers ?

YI : Malheureusement, cela a toujours été et sera toujours le cas. Dautres sont encore plus rusés, volant des œuvres oubliées des classiques. 

LD : Est-ce à dire que nous sommes dans une situation d’impunité pour le plagiat musical ?

YI : Il faut admettre que si le compositeur est décédé depuis longtemps, le droit d’auteur n’existe plus. Les musiciens classiques ont bien sûr une éthique professionnelle et ils essaient d’éviter les emprunts évidents. Bien que très souvent on puisse entendre l’influence d’autres compositeurs sur eux.

Cependant, en show-biz, les critères de plagiat sont beaucoup plus flous. Et le traitement moderne, en changeant le rythme, les instruments ou la tonalité, est capable de camoufler beaucoup de choses. Et maintenant, ils commencent à tout imputer à l’aide de l’intelligence artificielle.

C’est pourquoi pour les auteurs encore en vie, de nouveaux instruments juridiques modernes devraient leur venir en aide.  Je sais qu’il y a déjà des facultés de droit où on enseigne une une nouvelle spécialité, préparant les professionnels aux procès dans des affaires liées à lintelligence artificielle.

LD : Les tribunaux sont le dernier recours. Qu’en est-il des questions éthiques ?

YI : La société est inimaginable sans éthique, mais elle est parfois très différente même dans les pays voisins. Cependant, jaimerais croire que chaque véritable créateur possède quelque chose dinsaisissable que même les machines les plus sophistiquées ne peuvent reproduire. Si ce n’était pas le cas, pourquoi les gens continuent-ils à aller au théâtre et aux concerts ?

Tout véritable artiste se produit toujours mieux en public. C’est un phénomène surprenant, car de l’extérieur, il semble qu’il y ait plus d’excitation et de pression devant le public. Et cela, dun côté, est tout à fait vrai ! Mais dun autre côté, quand on y met toute son âme, on est soi-même et nourri des émotions du public. Un sentiment indescriptible.

En outre, un certain parallèle peut être établi ici avec les changements généraux de l’économie mondiale. Nous constatons que même les services virtuels les plus complexes deviennent moins chers, tandis que le coût des services fournis hors ligne sont en augmentation.

Il s’avère que les concerts live se déplacent progressivement vers le segment du luxe. Il est clair que le seuil de « dépenses de luxe » varie considérablement selon les consommateurs. Et pourtant. J’espère donc que les concerts trouveront toujours leur public. 

Et si le public aime les interprètes, il leur pardonne généralement leurs divers emprunts. Curieusement, les questions éthiques sont ici plus susceptibles d’être soulevées par d’autres artistes.

À lire aussi : IA : Géopolitique de l’avenir

LD : Vous êtes lauteur du livre « Realitology », dans lequel vous tentez une nouvelle compréhension du « libre arbitre » et dautres concepts philosophiques importants. Cest très pertinent, car le déterminisme antérieur est en train de disparaître sous nos yeux, et une nouvelle conscience humaine vient le remplacer. Diriez-vous que votre approche philosophique est assez optimiste ?

YI : Peut-être. Je ne voudrais pas simplifier tout le concept dans une courte interview, mais je suis un fervent partisan des théories sur les énormes possibilités de la psyché humaine. À chaque siècle, les changements qui ont eu lieu ont inspiré certains et effrayé dautres. Et maintenant, nous entendons constamment des avertissements du genre « où va le monde ? ». Cependant, je dirais que maintenant la responsabilité de lindividu lui-même augmente considérablement, et une technologie parfaite devrait laider, mais pas le remplacer.

Je montre en détail dans le livre ce que signifie, par exemple, « penser en termes dalternatives » et « créer du sens ». Lhomme a toujours fait cela, mais pendant des siècles, la majorité a été opprimée par des contraintes de survie ou des entraves sociales. Aujourd’hui, une part considérable de la population mondiale est maîtresse de son destin.

En même temps, personne nannule notre nature biologique qui, que nous le voulions ou pas, prédétermine initialement notre comportement. La « réalitologie » est une tentative davoir une vision globale de l’homme moderne, constamment complétée par de nouvelles découvertes dans les sciences naturelles et humaines.

J’espère vraiment que l’Institut Realitology que j’ai créé à Monaco, deviendra un point dattraction pour les chercheurs qui sont attirés par une large couverture de matériel, sans être limités au cadre dun seul paradigme.

LD : Il existe beaucoup de clichés sur Monaco et les Monégasques. Êtes-vous daccord avec eux ou pouvez-vous les réfuter ?

YI : Je serai heureux de les réfuter ! Je suis toujours étonné de voir à quel point les Monégasques sont passionnés. C’est ici que se déroulent les événements les plus intéressants, comme par exemple le Festival de Télévision de Monte-Carlo, le Festival du Cirque, qui est en réalité une Olympiade du cirque, le Printemps des Arts, le Concours International de Bouquets… Sans oublier le célèbre Yacht Show et le grand Prix de Formule 1.

Monaco est un diamant méditerranéen, scintillant de toutes ses facettes. C’est justement grâce à la passion des Monégasques qu’il existe ici autant d’associations diverses, inventant sans cesse de nouvelles manifestations culturelles. Saviez-vous, par exemple, qu’il s’agit d’une startup monégasque qui développe des batteries électriques de pointe pour les futurs rovers lunaires ?

Et bien sûr, notre passion commune c’est la mer ! Je ne serais pas original si je disais que je suis aussi un plaisancier. Pour moi, cest une unité complète avec la nature, une opportunité de redémarrer et de se renouveler. Mais en même temps, nous rappelons que depuis l’époque du Prince Albert Ier, la principauté a également été lun des centres mondiaux les plus importants pour lexploration de la mer de l’océan.

C’est grâce au études profondes Monaco a créé récemment son nouvel cartier Mareterra, qui est bâti complètement dans la mer.  La superficie de la principauté a augmenté de 3% ! Et je voudrais attirer votre attention que la ligne côtière de Monaco est beaucoup plus difficile et profonde par apport de Dubaï.

C’est pourquoi il est absurde de réduire Monaco aux seuls casinos et au luxe. L’atmosphère même du lieu vous tient en haleine, révélant toujours quelque chose de nouveau. Si possible, les Monégasques essaient de collectionner des œuvres d’art, et je ne fais pas exception. Et pour la plupart, nous ne gardons pas les tableaux exclusivement pour nous, mais essayons de les exposer afin que tous ceux qui le souhaitent puissent les voir.

De plus, Monaco est une « boîte à musique » où se cachent toutes sortes de trésors. Les chanteurs pop les plus célèbres du monde viennent se produire dans les clubs ici, et le magnifique orchestre philharmonique de la principauté invite chaque année les meilleurs chefs d’orchestre du monde pour préparer des programmes époustouflants.

Monaco c’est de l’énergie, des projets, des rêves et une absence totale d’ennui, car beaucoup d’événements sont totalement gratuits.

À lire aussi : ANALYSE – Sommet sur l’IA à Paris : De la fascination aux coups de « bluffs » qui agite le monde de la Tech

Yury Istomin

https://lediplomate.media/technologie-entretien-diplomate-yury-istomin-baliser-jungle-juridique-ethique-ia/

 

 


D) - Intelligence Artificielle : Révélations Exclusives au Futur

Depuis novembre 2022, un spectre hante le monde : le spectre de l’Intelligence Artificielle. Chat GPT, système conversationnel multilingue, a été mis en ligne par les promoteurs de l’Open AI et des millions d’usagers sont devenus les cobayes d’une expérience en temps réel, qui a permis une incroyable courbe d’apprentissage pour Chat GPT. Sa version 4 peut déjà égaler les avocats et les médecins. On frémit d’excitation ou d’horreur en imaginant ce que pourra faire Chat GPT 12 dans quelques années. 

Pourtant, l’IA est une technologie difficile à appréhender car le terme est polysémique, allant de choses assez simples comme des algorithmes ou l’apprentissage automatique (machine learning), jusqu’à des perspectives beaucoup plus ambitieuses (comme l’apprentissage profond (deep learning) et la recherche d’une Intelligence Artificielle Générale (AGI), c’est à dire une IA forte, capable de concurrencer directement l’intelligence humaine avec une autonomie totale dans la prise de décision)

Les conséquences économiques de cette révolution d’un autre type sont très lourdes, avec un risque de bouleversement d’un nombre conséquent de métiers. En effet, l’IA est une technologie qui agit potentiellement sur tous les secteurs d’activités humaines. Mais au-delà de cet aspect économique, l’irruption de l’intelligence artificielle dans le système international peut-elle bouleverser profondément la géopolitique mondiale en elle-même ? Très vraisemblablement, oui. 

La compétition que se livrent les grands acteurs internationaux pour alimenter la recherche en IA, avec notamment la sécurisation des approvisionnements en micro-processeurs (rôle essentiel de Taïwan) mais aussi le défi de la production énergétique, ne sont pas à proprement parler un fait nouveau. Il s’agit d’une intensification de rapports de forces déjà préétablis, suivant des schémas connus. En revanche, l’IA nourrit quatre ruptures géopolitiques. 

La première rupture se situe cependant au niveau du champ d’action des rapports internationaux. En effet, ces systèmes avancés sont déterritorialisés, à l’image de l’internet et échappent donc à une loi immuable de la géopolitique : le déterminisme géographique. En théorie, un pays petit, enclavé, faiblement peuplé, pourrait grâce à une domination de l’outil relever la tête dans le concert des nations. 

L’internet n’était qu’une aimable mise en bouche, un galop d’essai, un essai en laboratoire à côté du potentiel des IA. Les IA ouvrent une nouvelle dimension, un nouveau champ d’affrontement pour la puissance, au même titre que la mer, la terre, les airs ou l’espace, car elles ne sont pas seulement un espace non-tangible comme l’internet, mais aussi un accélérateur de puissance. Il n’est donc pas surprenant que ce soient les deux principales superpuissances du XXIème siècle qui soient le plus investies dans la domination de ce nouveau champ stratégique, à savoir les Etats-Unis et la Chine. Le gouvernement chinois a fait en 2017 de l’IA une propriété absolue. L’aide gouvernementale inonde toute la société chinoise. Les Etats-Unis ont présenté quant à eux une stratégie nationale. 

Une fois accepté comme champ d’action, la question est d’imaginer les « lois » de ce champ géopolitique. Par exemple, la terre se partage – c’est le propre des frontières – alors que la mer produit naturellement une hégémonie d’un acteur. Qu’en est-il du champ de l’IA ? Peut-elle accoucher d’écosystèmes intégrés juxtaposés (avec des ressources numériques, des brevets et des valeurs différentes) ou la compétition technologique conduira-t-elle inéluctablement à ce qu’un seul système survive avec un système de valeurs (notamment politiques) associé ? L’IA est-elle le prélude d’un système international homogène ou hétérogène ? Cette question sera vue plus loin (cf. infra).

La seconde rupture géopolitique se situe au niveau du fonctionnement politique du système international. Tony Blair et William Hague ont récemment plaidé pour que les conseillers des ministres soient remplacés par des IA. L’essor des IA pourrait régler un biais important dans la prise de décision politique : le biais informatif ou des préjugés. L’histoire est pleine de ces erreurs de jugement : Hitler qui s’auto-intoxique sur un débarquement en Bretagne, Brejnev qui ne comprend pas la détermination américaine à Cuba, les Occidentaux qui refusent de croire en l’invasion de l’Ukraine, les services américains qui ne croient pas aux alertes sur un attentat terroriste de masse au World Trade Center, etc… Robert Jervis, dans « Perceptions and misperceptiond in international politics » (1970) avait brillamment démontré comment ces biais pouvaient jouer dans la prise de décision. 

Cette rupture est cependant plus complexe, car simultanément, les IA en réglant un problème en créeront un autre : celui de l’âge de la manipulation du réel, de la fabrication de fausses informations, documents et images plus vrais que nature. Cela veut dire – en miroir – que pour les décideurs dépourvus d’IA, la capacité à arbitrer sera de plus en plus difficile.

Paradoxalement, soit dit en passant, s’agissant non pas de l’information fraîche mais de la connaissance, nos vieux livres auront peut-être bientôt une plus-value unique : imprimés avant l’apparition de l’IA, ils resteront peut-être comme les seuls éléments de confiance dans un monde inondé de contenus modifiés. Le lecteur sera certain que ce qui est dans le livre est exact (peut-être dépassé, mais c’est une autre affaire) tandis que les contenus numériques seront de plus en plus difficiles à trier. Les dictateurs devraient continuer dans les années futures à brûler des livres, mais auront probablement les yeux de Chimène pour l’IA, capable de manipuler les foules. 

Troisième rupture géopolitique : l’art de la guerre. J’ai déjà parlé du formidable pouvoir de distorsion actuel des armes numériques. Les autorités françaises ont mis en évidence mardi 13 juin 2023 l’existence d’une campagne numérique de manipulation de l’information contre la France impliquant des acteurs russes et à laquelle des entités étatiques ou affiliées à l’État russe ont participé en amplifiant de fausses informations », qualifiant ces attaques de « guerre hybride » menée par la Russie. L’Intelligence Artificielle peut être vue comme une sorte d’arme ultime, à l’image de la bombe nucléaire. Celui qui la possèderait surclasserait ses adversaires, à l’image d’un pays en capacité de prendre les meilleures décisions grâce à l’IA, d’anticiper et corriger les offensives militaires, ou encore de contrôler des milliers d’unités robotiques sur le champ de bataille. Le fossé qui s’est creusé entre les pays qui ont l’IA et ceux qui ne l’ont pas, rappelle l’avance technologique américaine de 1945. D’ailleurs, il est assez significatif que tous les laboratoires d’IA – OpenAI, Google DeepMind, Anthropic – aient signé récemment un appel à contrôler le développement de l’IA, en affirmant que celle-ci pourrait à terme avoir des conséquences aussi dévastatrices que la bombe. Tout ceci ressemble à une forme de Traité de Non-Prolifération (TNP) destiné à empêcher de nouveaux entrants sur ce secteur d’avenir, pour empêcher la prolifération horizontale. 

Néanmoins, l’IA pourrait différer de la bombe nucléaire sur un point critique, celui de la capacité pour les pays suiveurs de rejoindre les leaders. Faut-il considérer l’IA comme toutes les autres inventions technologiques ? Les experts chinois semblent considérer que leur pays, qui sait copier ce qui fonctionne et qui sait aussi perfectionner des systèmes, pourrait profiter d’être dans le sillage américain. D’ailleurs la Chine a quasiment rattrapé les Etats-Unis. D’autres experts pensent au contraire que l’avance prise par les leaders croît à un rythme exponentiel, ce qui fait que le rattrapage serait virtuellement impossible, passé un certain seuil, faute de moyens budgétaires suffisants. Seuls des macro-pays pourraient donc suivre une telle stratégie.

Dans cette approche pessimiste, l’IA serait une technologie fondamentalement créatrice d’hégémonie. Un pays qui a des ogives nucléaires peut exercer la dissuasion, car la dissuasion du faible au fort existe. Dans le domaine de l’IA, le fort écrase toujours le faible, de la même manière que faire affronter l’intelligence d’un garçon de 8 ans et celle d’un garçon de 18 n’a aucun sens. En d’autres termes, l’IA pourrait favoriser l’émergence d’empires dont le centre serait une alliance de multinationales et d’un État, régnant sur des territoires cyber-vassalisés. Une fois la domination technologique établie, les populations concernées seraient piégées dans des écosystèmes d’influence, de soft-power, et de biais informatif. Par exemple, le patron de Midjourney, IA de production d’images, a justifié jl’interdiction de générer des images du président chinois Xi Jinping en expliquant que « la satire politique n’apportait pas grand-chose ». Chacun chez soi et l’IA pour tous. 

La quatrième et dernière rupture géopolitique se situe pourtant ailleurs. Elle est philosophique et anthropologique. Jusqu’ici, les intelligences supérieures avaient toujours procédé de sélections génétiques et biologiques, les espèces plus intelligentes étant en capacité d’éliminer, de domestiquer ou de chasser les espèces moins intelligentes. Pour la première fois dans l’Histoire humaine, l’homme va potentiellement « créer » son supérieur. 

C’est d’autant plus étonnant que pendant des siècles, l’Homme a cherché à dégager une marge d’autonomie par rapport à l’omnipotence de Dieu, et son omniprésence. Les démocraties occidentales sont nées de la laïcisation des sociétés. En développant la science, l’homme a repoussé les limites du mystère et réussi à expliquer rationnellement – puis à dominer – l’univers qu’il entoure. 

Or, voilà que parvenu au sommet de la connaissance, l’Homme se fait démiurge en créant un serviteur l’Intelligence Artificielle, capable d’émancipation. En effet, rien ne dit, comme dans un film des années 70, « le Cerveau d’acier », que cette intelligence supérieure ne réagira pas vis à vis de nous comme nous avons agi avec l’intégralité des espèces moins puissantes, et qu’elle ne deviendra pas notre maître. C’est ce que les experts appellent le « désalignement » de l’IA sur les volontés de son créateur, et la « singularité technologique », c’est à dire des « supraintelligences » qui s’auto-amélioreraient, créant finalement une puissante superintelligence qui dépasserait qualitativement de loin l’intelligence humaine. 

Cette rupture anthropologique pourrait avoir des effets positifs en offrant une sorte de cyber-juge de paix, capable de réguler les relations humaines diplomatiques, un tiers de confiance neutre. Mais, elle pourrait aussi déclencher des effets en cascade. 

La parade au risque potentiel de la perte de contrôle, c’est l’Homme augmenté, l’accélération des capacités et savoirs naturels par la technique, c’est à dire le transhumanisme, promu par exemple par Neuralink. Ne pouvant égaler la machine, l’Homme se hisserait à son niveau. Là encore, les enjeux géopolitiques sont profonds. En effet, si l’IA remet en cause une loi immuable qui est la contrainte géographique, l’Homme augmenté questionne une autre loi, celle qui veut que la démographie soit un élément de puissance. 

Un homme augmenté capable de réfléchir cent fois plus rapidement qu’un homme normal pose un défi gigantesque. La question se pose déjà lorsque des pays moins peuplés peuvent mettre en échec des adversaires plus peuplés du seul fait de leur avance technologique (Israël face au monde arabe par exemple). Demain, si le « capital technologique » et l’ « humain » fusionnent totalement ce déséquilibre pourrait encore s’accroître. Il posera des questions d’ordre politique en temps de paix : une démocratie peut-elle fonctionner sur le principe fictif d’un vote par homme si les inégalités capacitaires et intellectuelles entre humains sont patentes ? Une théocratie peut-elle se revendiquer de Dieu si une partie de son peuple est immergée dans la science et a des velléités démiurgiques ? Une dictature peut-elle se maintenir si au lieu d’avoir un peuple plongé dans l’ignorance, le despote fait face à des oligarques techno-humains ? 

En temps de guerre, les questions métaphysiques seront nombreuses. Au départ, l’homme augmenté sera vu comme un homme. Mais après trois ou quatre générations, un outillage de plus en plus intégré, faudra-t-il considérer qu’il y a une espèce humaine ou deux espèces ? Et quel droit appliquer ? 

La réflexion sur l’homme et la machine surgit rituellement à chaque rupture technologique. La bombe nucléaire a fait comprendre à l’homme qu’un simple incident pouvait mener à l’autodestruction. L’IA, outil pensant, pourrait être à l’origine du même processus, sauf que cette fois-ci, l’homme n’est pas certain de contrôler longtemps le bouton d’arrêt.


 

 

 

 

 

Powered By Blogger