Affichage des articles dont le libellé est souverainetenormative. Afficher tous les articles
Affichage des articles dont le libellé est souverainetenormative. Afficher tous les articles

avril 14, 2026

Intelligence Artificielle, une prospective; Mais quoi en penser ?

Sommaire:

A) - IA : Sacrifier notre avenir sur l’autel du droit d’auteur ?

B) - Intelligence artificielle, souveraineté normative et géopolitique : La fragmentation de la gouvernance mondiale entre puissances technologiques

C) - L’Entretien du Diplomate avec Yury Istomin : « Il faut baliser la jungle juridique et éthique de l’intelligence artificielle créative »

D) - Intelligence Artificielle : Révélations Exclusives au Futur

 


Alerte rouge pour l’IA made in France. Le Sénat vient d’adopter il y a 5 jours à l’unanimité une proposition de loi qui présume que toute IA a « piqué » des œuvres protégées dès qu’il y a le moindre indice. Résultat ? La charge de la preuve bascule sur les entreprises. Prouver qu’on n’a pas utilisé une œuvre parmi des milliards de données ? Mission quasi impossible. Conséquence directe : Entraînement des modèles devenu juridiquement hasardeux Risque de tsunami de procès Innovation étranglée en Europe Mistral AI et les futurs champions français risquent de devoir délocaliser pour survivre. Le droit d’auteur était censé protéger les créateurs, pas empêcher les machines d’apprendre comme le cerveau humain. Pendant que les US et la Chine avancent à pleine vitesse, on préfère saboter notre propre souveraineté tech. L'assemblée doit valider le texte également, en espérant qu'ils ne fassent pas le même choix que les sénateurs. C’est pas protéger la culture. C’est tuer l’avenir économique. Qu’en pensez-vous ? La France va-t-elle encore une fois rater le train de la prochaine révolution ?
 

 

A) - IA : Sacrifier notre avenir sur l’autel du droit d’auteur ?

Empêcher l’entraînement des IA en France, voire même leur commercialisation, au nom de la protection des auteurs. Irréaliste ? Délirant ? Économiquement criminel ? C’est pourtant le sens de la nouvelle loi votée à l’unanimité par nos sénateurs.

À l’abri de la lumière médiatique, le Sénat vient d’adopter à l’unanimité une proposition de loi sur le rapport entre l’IA et le droit d’auteur. Portée par la sénatrice Laure Darcos, elle a également reçu le soutien direct de Renaissance, de LR et du Parti communiste, dans un attelage pour le moins baroque. Ce texte introduit dans le Code de la propriété intellectuelle un article unique qui bouleverse l’équilibre entre création et innovation. Désormais, « sauf preuve contraire, l’œuvre ou l’objet protégé par un droit d’auteur ou par un droit voisin est présumé avoir été utilisé par le fournisseur du modèle ou du système d’intelligence artificielle, dès lors qu’un indice afférent au développement ou au déploiement de ce système ou au résultat généré par celui-ci rend vraisemblable cette utilisation ».
 
En d’autres termes, si un indice quelconque laisse penser qu’une IA a pu utiliser une œuvre protégée (un livre, une photo, une musique, etc.) pour s’entraîner ou pour générer un contenu, on considérera automatiquement que c’est le cas… sauf preuve du contraire. À partir de là, tout auteur ou ayant droit pourra engager une procédure judiciaire sur la base d’un simple indice (similarité stylistique ou graphique, etc.). De quoi encore davantage submerger nos tribunaux, déjà au bord de la crise de nerfs, et conduire les entreprises investies dans l’IA à passer leur temps à se défendre plutôt qu’à innover.
 
La charge de la preuve, qui pesait jusqu’alors sur les ayants droit, bascule donc sur les entreprises. L’intention proclamée est noble en apparence : mettre fin à ce que les défenseurs du texte qualifient de « pillage » ou de « moissonnage » massif des œuvres par les modèles génératifs. Mais, derrière cette rhétorique protectrice, se dissimule un dispositif qui menace non seulement l’essor de l’IA en France, mais aussi le principe même de la création, qu’elle soit humaine ou algorithmique. Ce texte, adopté dans une urgence presque fébrile, révèle une fois encore les travers d’une culture législative française qui, sous couvert de régulation vertueuse, étouffe l’innovation et saborde ses propres atouts dans la course technologique mondiale.
 
Le principe même des IA remis en cause
 
Au cœur de cette proposition réside une mise en danger fondamentale de l’entraînement des intelligences artificielles. Un modèle de langage de grande envergure, qu’il s’agisse des architectures open-weight de Mistral AI ou des systèmes plus opaques des géants américains, ne surgit pas du néant. Il se construit par une immersion profonde, une digestion statistique colossale de milliards de données textuelles, visuelles ou sonores collectées sur le web ouvert ou dans des corpus publics. Cet apprentissage, loin d’être une simple copie mécanique, consiste en une synthèse qui permet à la machine de recombiner des concepts et de générer des créations originales au profit de l’être humain qui les prompte.
 
Interdire ou rendre périlleux cet entraînement revient à nier la nature même de l’IA générative : un outil qui, comme l’esprit humain, progresse par imprégnation cumulative et transfiguration créatrice. Prétendre qu’un système doit rester vierge de toute influence antérieure pour être légitime, c’est ignorer que toute intelligence — biologique ou artificielle — s’élève précisément en absorbant un océan de connaissances préexistantes. Le texte du Sénat ne se contente pas de réguler l’usage ; il fragilise l’architecture cognitive elle-même des modèles, en rendant leur développement techniquement et juridiquement hasardeux sur le sol européen.
 
Une inversion de la charge de la preuve techniquement insurmontable
 
Cette fragilisation devient catastrophique lorsqu’on mesure l’ampleur de l’inversion de la charge de la preuve qu’impose le dispositif. Comment un fournisseur d’IA pourrait-il, en pratique, démontrer l’absence totale d’utilisation d’une œuvre protégée au sein de données qui atteignent souvent plusieurs centaines de téraoctets, accumulés sur des années ?
 
La « preuve contraire » exigerait soit une inspection exhaustive et rétroactive des données — une entreprise colossale, coûteuse et souvent impossible sans dévoiler les secrets industriels les plus sensibles —, soit une transparence forcée des algorithmes qui exposerait les acteurs européens à une vulnérabilité concurrentielle sans précédent face aux géants américains ou chinois, moins contraints par de telles obligations. Les contentieux se multiplieraient en un véritable tsunami judiciaire. Chaque génération de contenu « à la manière de », chaque restitution partielle pourrait déclencher une présomption de culpabilité. Les procédures s’éterniseraient devant les tribunaux, paralysant les startups comme les laboratoires de recherche, tandis que l’innovation stagnerait sous le poids d’une infernale machine administrative et contentieuse. Loin de protéger les créateurs, ce mécanisme risque de créer une insécurité juridique permanente.
 
Le droit d’auteur détourné de son essence philosophique
 
Mais le détournement le plus insidieux opéré par ce texte concerne sans doute le droit d’auteur lui-même, dont il pervertit le sens. Ce droit, dans sa philosophie forgée par les Lumières et affinée au fil des siècles, protège l’exploitation frauduleuse et directe d’une forme originale, singularisée par l’empreinte personnelle de son créateur. Il ne vise nullement à entraver l’inspiration, la lecture assidue, l’écoute répétée ou l’étude minutieuse des œuvres antérieures.
 
Toute l’histoire de l’art, cette longue chaîne ininterrompue de filiations et de ruptures, repose sur ce principe de digestion et de transfiguration. Les peintres de la Renaissance, qu’ils soient flamands ou italiens, copiaient inlassablement les maîtres antiques ou contemporains, analysaient leurs compositions, réinterprétaient leurs motifs avant de forger leur propre langage. Les compositeurs romantiques, de Beethoven à Chopin, s’abreuvaient des partitions de Bach, de Mozart ou de Haydn, non pour les plagier, mais pour les sublimer dans des formes nouvelles. Les écrivains du XXe siècle, de Proust à Joyce en passant par les surréalistes, dévoraient les textes de leurs prédécesseurs avec une voracité intellectuelle qui nourrissait leur génie propre.
 
Considérer qu’un modèle de langage ne peut s’entraîner sur les œuvres existantes équivaut, en réalité, à interdire au jeune artiste de décrypter les toiles de ses aînés ou au musicien en herbe d’écouter des milliers d’heures de répertoires avant de composer. L’IA ne procède pas autrement : elle lit, elle absorbe, elle synthétise à une échelle surhumaine. Elle ne reproduit pas ; elle recrée à partir d’une mémoire collective digérée à la demande d’un être humain. Assimiler cet apprentissage statistique à un vol revient à méconnaître la nature profonde de la création humaine, qui n’a jamais existé en vase clos, mais s’est toujours enrichie de l’héritage commun.
 
A lire : Quand la photo faisait aussi peur que l’IA:

Et si, demain, on protégeait les droits des auteurs de prompts ? L’idée vous paraît absurde ? C’est pourtant la suite logique d’une histoire débutée au XIXe siècle, quand fut reconnu, dans le fracas d’un procès, le talent des premiers photographes.

En 1862, la France fut le théâtre d’un procès qui marqua durablement l’histoire du droit d’auteur face à l’innovation technique. Les photographes Ernest Mayer et Louis Pierson, célèbres pour leur studio parisien et leurs portraits de personnalités, intentèrent une action en contrefaçon contre des concurrents, Betbéder et Schwalbé, qui avaient reproduit sans autorisation leur célèbre portrait du comte de Cavour. La question posée aux tribunaux était alors révolutionnaire : une photographie pouvait-elle être considérée comme une « œuvre de l’esprit » protégée par le décret de 1793 ? Ce texte fondateur reconnaît aux auteurs d’écrits, compositeurs, peintres et dessinateurs un droit de propriété exclusif sur leurs œuvres durant leur vie (et dix ans après leur mort pour leurs héritiers), leur permettant de vendre, distribuer et céder leurs créations. Ou n’était-elle qu’une reproduction mécanique du réel, privée de toute originalité créatrice ? Un débat qui opposa technique et création.

 La peur légitime des artistes, mais un combat mal orienté
 
Pourtant, la crainte qui anime de nombreux artistes face à cette révolution technologique est compréhensible. Ils voient leurs métiers menacés par des outils capables de produire en quelques secondes des textes, des images ou des compositions d’une qualité souvent époustouflante. Cette angoisse s’exprime avec une force particulière chez les comédiens et les instrumentistes, qui se sentent les premiers exposés au risque d’un remplacement pur et simple.
 
Leur combat est compréhensible, mais il n’en demeure pas moins mal orienté. Car face à l’IA, dont la perfection parfois froide et « inhumaine » peut laisser un sentiment de frustration chez une partie du public en quête d’authenticité, le spectacle vivant retrouve un boulevard inattendu et prometteur. Le théâtre, le concert, la performance en chair et en os regagnent leur noblesse primordiale : celle de l’incarnation physique, de la présence irremplaçable, de l’imperfection vibrante qui seule touche l’âme. Le public, lassé des productions trop lisses générées par des algorithmes, reviendra en masse vers la scène vivante, vers l’émotion partagée en temps réel.
 
Quant aux véritables créateurs — réalisateurs, scénaristes, romanciers, etc. —, l’intelligence artificielle ne les supplante pas ; elle les élève à un rang inédit. L’art du prompt, cette nouvelle forme d’écriture précise et nuancée, devient un talent décisif. Celui qui sait structurer sa pensée avec rigueur, affiner son langage, anticiper les subtilités d’une machine probabiliste obtient d’elle exactement ce que son esprit imagine, sans recourir à des processus de production extrêmement coûteux en temps, en énergie ou en ressources. Loin de dévaloriser les littéraires, l’IA les replace au cœur du jeu créatif.
 
Le syndrome normatif français : légiférer d’abord, comprendre ensuite

On ne peut s’empêcher de reconnaître dans ce texte le symptôme récurrent d’un défaut normatif profondément ancré dans la culture administrative et politique française. Notre pays a toujours manifesté une propension singulière à vouloir légiférer sur tout, et particulièrement sur les innovations issues du secteur privé. Le politique, souvent dépassé par la rapidité fulgurante du monde numérique, réagit par un réflexe réglementaire pavlovien, comme il l’avait fait naguère avec la loi Hadopi. Celle-ci, adoptée en 2009 dans un élan de protection de la création face au téléchargement illégal, est restée dans les mémoires comme un exemple emblématique de dispositif hors-sol, inefficace et contourné par la technologie elle-même.
 
Ici encore, on légifère sans pleinement appréhender les enjeux, les dynamiques de concurrence internationale ni les subtilités techniques de l’entraînement des modèles. On veut protéger la culture en entravant l’outil même qui pourrait la démultiplier, la rendre accessible à tous et enrichir le terreau créatif français. En réalité, derrière chaque épisode législatif similaire concernant la propriété intellectuelle, on retrouve à la manœuvre les très influents organismes de gestion collective (les fameuses Sacem, SACD, Scam…). Ils ont été à la source d’Hadopi, de la directive copyright et de sa transposition, mais sont aussi parvenus, en 2021, via la loi REEN (réduction de l’empreinte environnementale du numérique), à tordre le bras du législateur pour lui imposer l’introduction d’un prélèvement obligatoire sur les matériels d’occasion reversé aux ayants droit, au titre de la redevance sur la copie privée.
 
A lire : Très chère Hadopi,

82 millions d’euros de dépenses, 87 000 de recettes. Dans sa volonté farouche de préserver le droit d’auteur face au peer-to-peer, la France a dépensé sans compter… et en pure perte. Deux ans plus tôt, Netflix investissait la moitié de cette somme pour lancer sa plateforme de streaming.

Adoptée en juin 2009, la loi « Hadopi » était censée favoriser la diffusion et la protection de la création sur internet. Créée pour veiller à la prévention et à la sanction des atteintes aux droits d’auteur sur les réseaux, la Haute Autorité pour la diffusion des œuvres et la protection des droits sur internet incarnait alors la volonté politique de protéger les artistes face au téléchargement illégal massif sur les réseaux peer-to-peer. Près de quinze ans plus tard, le bilan apparaît comme un cas d’école du penchant français pour une législation qui, sous couvert de défense de la culture, ignore les évolutions du monde numérique, au prix d’un gaspillage spectaculaire de ressources publiques.

Hadopi reposait sur la « riposte graduée » : envoi d’avertissements, puis recommandation, enfin transmission à la justice en cas de récidive. Plus de 14 millions de courriers furent ainsi expédiés pour rappeler aux internautes leurs obligations. Pourtant, cette approche s’est rapidement révélée inadaptée. Tandis que l’autorité a concentré ses efforts sur le peer-to-peer, le piratage a massivement migré vers le streaming illégal et le téléchargement direct. L’arsenal juridique, figé dans une logique des années 2000, n'est jamais parvenu à suivre la rapidité avec laquelle les usages et les technologies ont évolué et s'est transformé en un mécanisme administratif lourd et coûteux.

 
Un tir dans le pied face à un potentiel exceptionnel
 
n fine, ce texte témoigne d’une double et douloureuse distance. Entre l’état du politique et celui de la société d’une part, et entre la France et son propre potentiel d’autre part. Car notre pays dispose, dans le domaine de l’intelligence artificielle, mais aussi dans la biotechnologie, les techniques CRISPR, les nouvelles technologies génétiques, les startups innovantes et la recherche médicale de pointe, d’atouts et de talents d’une rare qualité. Mistral AI, notre fleuron national, incarnait jusqu’ici l’espoir d’une Europe souveraine capable de rivaliser avec les géants d’outre-Atlantique. Cette proposition de loi risque de remettre en cause son existence même sur le sol français, à moins qu’elle ne choisisse, comme d’autres acteurs l’ont déjà laissé entendre, de délocaliser ses activités vers des juridictions plus accueillantes. Ce serait alors l’illustration tragique de notre capacité à saborder nos champions au nom d’une régulation prétendument protectrice.
 
L’avenir de la France en matière d’innovation ne doit pas se jouer dans des prétoires surchargés ni dans les commissions parlementaires qui cherchent à tout encadrer avant même d’avoir compris les enjeux profonds des sujets qu’elles abordent. Il s’exprimera dans notre capacité collective à accompagner le progrès tout en préservant l’essence de la création humaine. À l’Assemblée nationale, il est encore temps de refuser ce texte ou de le rééquilibrer en profondeur. Non pour abandonner les artistes, mais pour refuser le faux dilemme entre culture et innovation. Car l’une et l’autre ne s’opposent pas, mais se nourrissent mutuellement depuis la nuit des temps. L’intelligence artificielle n’est pas l’ennemie de l’esprit créateur ; elle en constitue un prolongement prometteur. La France a le choix : devenir le pays qui régule l’avenir jusqu’à l’étouffer, ou celui qui l’invente avec audace, intelligence et une confiance retrouvée en son génie propre.
 
Benjamin Sire 
 
 

 
B) - Intelligence artificielle, souveraineté normative et géopolitique : La fragmentation de la gouvernance mondiale entre puissances technologiques
 

À l’automne 2025 et au début de l’année 2026, dans un contexte de compétition technologique mondiale accrue entre puissances établies et émergentes, les États-Unis ont affirmé sans ambiguïté leur opposition à l’établissement d’un régime de gouvernance mondiale centralisé de l’intelligence artificielle (IA), une position qui a marqué un tournant significatif dans la position américaine prudente jusqu’ici dans les débats internationaux sur la régulation de cette technologie stratégique. Cette posture a été réaffirmée avec insistance le 20 février 2026 par Michael Kratsios, conseiller de la Maison-Blanche pour les sciences et technologies et directeur de l’Office of Science and Technology Policy, qui, à l’issue du India AI Impact Summit 2026 tenu à New Delhi, a déclaré que les États-Unis « rejettent totalement la gouvernance mondiale de l’IA » et que «l’adoption de l’IA ne peut conduire à un avenir meilleur si elle est soumise à la bureaucratie et à un contrôle centralisé».[1] L’administration américaine y voit un risque que des cadres normatifs supranationaux étouffent l’innovation et entravent la compétitivité, préférant promouvoir une « souveraineté de l’IA » fondée sur l’autonomie nationale, la coopération entre États partageant des valeurs similaires et l’intégration des technologies « best-in-class » américaines dans les architectures numériques des partenaires.[2]  Cette déclaration s’inscrit dans une séquence plus large de positions opposées à des processus multilatéraux visant à établir des règles ou standards internationaux contraignants — du refus de souscrire à certains accords éthiques mondiaux lors de sommets internationaux antérieurs à l’opposition à une « feuille de route centralisée » de la gouvernance de l’IA au sein de l’Assemblée générale de l’Organisation des Nations Unies.[3]

Cette inflexion américaine doit être analysée à la lumière d’une réorganisation globale des normes technologiques et sécuritaires au début du XXIᵉ siècle, où la puissance économique, stratégique et cognitive associée à la maîtrise des systèmes d’IA converge avec des enjeux de concurrence, de souveraineté, de sécurité nationale et de leadership international. Dans cette perspective, la gouvernance de l’IA devient elle-même un enjeu géopolitique structurant — confrontant des modèles normatifs divergents tels que celui de l’Union européenne, qui dès 2024 a adopté un cadre juridique ambitieux visant à encadrer les risques de l’IA de manière horizontale et proportionnée aux niveaux de risque des applications (AI Act),[4] et des approches plus fragmentées observées aux États-Unis, en Chine, au Japon, en Corée du Sud ou à Taïwan. Les enjeux sous-jacents ne se limitent pas à la seule réduction des risques sociétaux ou aux mécanismes de conformité légale, mais s’étendent aux procédures d’application (enforcement), aux mécanismes d’audit et de certification indépendants, aux gradients de responsabilité juridique entre innovateurs et opérateurs, ainsi qu’à la capacité des États à définir des règles du jeu normatives qui leur confèrent un avantage compétitif sur la scène internationale. L’introduction de ce débat positionne ainsi l’IA au cœur des marchés et des relations internationales contemporaines, invitant à une réflexion qui articule de manière rigoureuse les dimensions politiques, juridiques et stratégiques de la régulation technologique dans un monde multipolaire en recomposition.

I.   L’Union européenne et la construction d’un modèle normatif de l’intelligence artificielle

L’adoption en 2024 du règlement européen sur l’intelligence artificielle, communément désigné sous le nom d’AI Act, constitue l’aboutissement d’un processus engagé dès 2018 avec la communication de la Commission européenne « Artificial Intelligence for Europe » et consolidé par le Livre blanc sur l’intelligence artificielle de février 2020. Dans ce dernier document, la Commission affirmait déjà que l’Union devait promouvoir une « intelligence artificielle digne de confiance », fondée sur les valeurs de l’Union et respectueuse des droits fondamentaux.[5] Cette expression de « trustworthy AI », reprise des travaux du High-Level Expert Group on AI institué en 2018,[6] révélait une orientation normative claire : l’IA ne devait pas seulement être compétitive, mais conforme à un socle éthique et juridique structurant.

a.  Le contexte politique et stratégique de l’adoption du règlement européen sur l’IA

La proposition de règlement présentée par la Commission le 21 avril 2021 s’inscrivait dans une double dynamique. D’une part, elle répondait à des préoccupations internes relatives à la protection des droits fondamentaux, à la non-discrimination algorithmique et à la sécurité des produits intégrant des systèmes d’IA. D’autre part, elle s’inscrivait dans une stratégie externe plus ambitieuse, explicitée dans la communication sur la « Boussole numérique » de mars 2021, visant à positionner l’Union comme puissance normative dans la régulation des technologies émergentes.[7]À l’instar du précédent constitué par le règlement général sur la protection des données, l’Union entendait affirmer sa capacité à fixer des standards susceptibles d’exercer un effet d’entraînement au-delà de ses frontières.

Les débats au Parlement européen et au Conseil ont progressivement renforcé l’ambition du texte, notamment en élargissant la liste des pratiques interdites et en précisant le régime applicable aux systèmes dits « à haut risque ». Le compromis politique intervenu en décembre 2023, puis l’adoption formelle du règlement en 2024, ont consacré un cadre juridique horizontal applicable à l’ensemble du marché intérieur, fondé sur l’article 114 du Traité sur le fonctionnement de l’Union européenne, relatif à l’harmonisation des règles du marché intérieur.[8] Ce choix de base juridique souligne que l’AI Act est conçu non comme un instrument sectoriel, mais comme un instrument de régulation structurelle du marché numérique européen.

b.  L’architecture juridique : une régulation fondée sur les niveaux de risque

L’AI Act repose sur une architecture normative graduée, fondée sur une classification des systèmes d’intelligence artificielle selon leur niveau de risque. Le considérant 5 du règlement affirme que « les systèmes d’IA peuvent générer des risques et porter atteinte aux intérêts publics et aux droits fondamentaux protégés par le droit de l’Union » et qu’il convient dès lors d’adopter une approche proportionnée aux risques.[9]

Le texte distingue ainsi quatre catégories principales. Les pratiques d’IA jugées inacceptables sont purement et simplement interdites. L’article 5 prohibe notamment les systèmes exploitant des vulnérabilités liées à l’âge ou au handicap, les dispositifs de notation sociale généralisée par les autorités publiques, ainsi que certaines formes de reconnaissance biométrique en temps réel dans l’espace public, sous réserve d’exceptions strictement encadrées.[10] Cette interdiction traduit une volonté politique claire de tracer des lignes rouges normatives, en particulier face aux usages sécuritaires ou policiers susceptibles de porter atteinte aux libertés publiques.

Les systèmes d’IA à haut risque, définis aux articles 6 et suivants, sont autorisés mais soumis à un ensemble d’exigences substantielles : mise en place d’un système de gestion des risques, gouvernance des données, documentation technique, enregistrement dans une base de données européenne, surveillance humaine appropriée et exigences de robustesse, d’exactitude et de cybersécurité.[11] L’objectif est d’intégrer la conformité juridique au cycle de vie même du système, selon une logique de « compliance by design ».

Les systèmes présentant un risque limité sont soumis à des obligations de transparence, notamment lorsque des utilisateurs interagissent avec des systèmes conversationnels ou sont exposés à des contenus générés artificiellement. Enfin, les systèmes à risque minimal demeurent en principe libres de toute contrainte spécifique, ce qui manifeste le souci du législateur européen de ne pas entraver l’innovation de manière disproportionnée.

Cette architecture révèle un compromis entre ambition normative et réalisme économique. L’Union ne cherche pas à interdire l’IA en tant que telle, mais à encadrer ses usages les plus sensibles, en articulant protection des droits fondamentaux et intégration du marché intérieur.

c. Les mécanismes de conformité et d’enforcement

L’un des aspects les plus significatifs de l’AI Act réside dans ses mécanismes d’exécution. Le règlement adopte une structure inspirée du droit européen des produits, combinant auto-évaluation de conformité, intervention d’organismes notifiés et surveillance par les autorités nationales compétentes.

Les fournisseurs de systèmes à haut risque doivent procéder à une évaluation de conformité avant la mise sur le marché, incluant la vérification des exigences techniques et la constitution d’une documentation détaillée. Dans certains cas, notamment lorsque des normes harmonisées font défaut, l’intervention d’un organisme tiers est requise. Les États membres doivent désigner des autorités nationales de surveillance du marché, chargées de contrôler le respect des obligations et d’imposer, le cas échéant, des mesures correctives.[12]

Le règlement prévoit également la création d’un Comité européen de l’intelligence artificielle, destiné à favoriser la coordination entre autorités nationales et la Commission, sur le modèle classique existant dans les autres domaines de compétence partagée entre la Commission et les Etats membres. Cette dimension institutionnelle traduit la volonté de prévenir les divergences d’interprétation susceptibles de fragmenter le marché intérieur.

Le régime des sanctions est particulièrement dissuasif. L’article 99 prévoit des amendes administratives pouvant atteindre 35 millions d’euros ou 7 % du chiffre d’affaires annuel mondial total, selon le montant le plus élevé, pour certaines violations graves.[13] Cette échelle de sanctions, comparable à celle instaurée par le RGPD, témoigne de l’ambition d’assurer une effectivité réelle des obligations imposées.

L’AI Act introduit en outre des obligations spécifiques pour les modèles d’IA à usage général, notamment en matière de transparence, de documentation technique et d’évaluation des risques systémiques pour les modèles les plus puissants. Cette extension du champ de la régulation aux acteurs développant des modèles fondamentaux marque une évolution significative du droit européen vers une prise en compte des architectures technologiques sous-jacentes.

d. L’Union européenne comme puissance normative

Au-delà de ses mécanismes juridiques, l’AI Act doit être compris comme un instrument de projection normative. La littérature en relations internationales a depuis longtemps identifié l’Union comme une « puissance normative» capable d’influencer les standards internationaux par la force d’attraction de son marché intérieur. Ian Manners a théorisé cette capacité comme constitutive de l’identité externe de l’Union.[14]

Dans le domaine de l’IA, l’enjeu est double. D’une part, l’Union cherche à éviter une dépendance technologique excessive à l’égard d’acteurs étrangers, notamment américains et chinois. D’autre part, elle ambitionne de structurer un environnement juridique international dans lequel ses entreprises puissent évoluer selon des standards prévisibles et protecteurs des droits fondamentaux.

L’adoption de l’AI Act a ainsi été saluée par plusieurs responsables européens comme un moment fondateur. La présidente de la Commission, Ursula von der Leyen, a présenté le texte comme établissant « les premières règles complètes au monde pour une IA digne de confiance ».[15]Cette rhétorique souligne la dimension symbolique et stratégique du règlement : il ne s’agit pas seulement d’encadrer un marché, mais de proposer un modèle.

Toutefois, cette ambition normative s’inscrit dans un contexte international marqué par la divergence des approches. Là où l’Union privilégie une régulation ex ante, structurée et centralisée, d’autres puissances mettent en avant la flexibilité, l’autorégulation ou la souveraineté nationale. Cette divergence prépare le terrain d’une fragmentation normative, au cœur de la problématique générale de cet article.

Il est frappant de constater qu’aucune entreprise européenne ne figure parmi les quinze premières sociétés mondiales en matière d’intelligence artificielle, qu’il s’agisse de valorisation boursière ou de chiffre d’affaires lié à l’IA.[16] Le premier acteur européen, selon les classements de marché et les analyses financières récentes, est SAP, qui se positionne autour du 20ᵉ rang mondial, avec une activité IA intégrée principalement dans ses solutions de gestion d’entreprise et de cloud.[17] Ce retard relatif de l’Europe peut être expliqué par plusieurs facteurs : d’une part, une fragmentation historique du marché unique et une faible concentration d’acteurs capables d’investir massivement dans la recherche et le développement d’IA à grande échelle ; d’autre part, une culture entrepreneuriale moins orientée vers les start-ups à forte valorisation et une dépendance marquée vis-à-vis de capitaux publics ou de partenariats industriels limités. Les contraintes réglementaires et la priorité accordée à la protection des droits fondamentaux ont également pu ralentir le développement commercial agressif de technologies disruptives. Cette situation contribue à expliquer pourquoi l’Union européenne a choisi de déployer une stratégie normative proactive : l’AI Act et les initiatives associées visent non seulement à encadrer les risques, mais aussi à projeter une influence normative globale, à créer un avantage compétitif fondé sur la confiance et la légitimité juridique, et à renforcer le rôle des entreprises européennes dans un contexte où elles restent structurellement désavantagées face aux géants américains et chinois. Trois autres blocs réglementaires européens sont d’ailleurs à l’œuvre : le droit et la politique de la concurrence mais aussi le bloc réglementaire nouveau constitué par le Digital Markets Act [18] et l’ensemble réglementaire relatif à la cybersécurité.[19] L’approche européenne apparaît ainsi comme un moyen de compenser un déficit de masse critique technologique par un leadership normatif et réglementaire, susceptible de façonner les standards internationaux à long terme.

II. Les États-Unis entre régulation sectorielle, stratégie de puissance et refus d’une gouvernance mondiale centralisée

À la différence de l’Union européenne, les États-Unis n’ont pas opté pour un instrument législatif horizontal et contraignant applicable à l’ensemble des systèmes d’intelligence artificielle. Leur approche repose sur une combinaison de régulation sectorielle, de cadres de gestion des risques non contraignants et d’instruments exécutifs, articulés à une stratégie assumée de leadership technologique. L’analyse du modèle américain suppose ainsi d’examiner successivement l’architecture normative interne, les instruments récents mobilisés par l’exécutif fédéral, puis la dimension explicitement géopolitique du refus d’une gouvernance mondiale centralisée de l’IA.

a. Une tradition de régulation sectorielle et de soft law

La régulation américaine de l’intelligence artificielle s’inscrit dans une tradition juridique marquée par la prééminence du droit sectoriel et de l’analyse économique du droit. Contrairement à l’approche européenne fondée sur l’harmonisation ex ante, le système fédéral américain repose sur l’intervention d’agences spécialisées — telles que la Federal Trade Commission, la Food and Drug Administration ou le Department of Transportation — compétentes pour réguler des usages spécifiques de l’IA dans leurs domaines respectifs.

La Federal Trade Commission a ainsi affirmé dès 2020 que les systèmes algorithmiques relèvent de sa compétence lorsqu’ils donnent lieu à des pratiques déloyales ou trompeuses au sens du Federal Trade Commission Act.[20] Dans plusieurs déclarations publiques, l’agence a souligné que l’usage de l’IA n’exonère pas les entreprises de leurs obligations en matière de protection des consommateurs ou de non-discrimination. Cette approche demeure toutefois indirecte : elle ne crée pas d’obligations techniques ex ante comparables à celles prévues par l’AI Act européen, mais sanctionne a posteriori les comportements jugés illicites.

Dans le domaine financier, la Securities and Exchange Commission s’est intéressée aux usages de l’IA dans la gestion d’actifs et les conflits d’intérêts potentiels, tandis que la Consumer Financial Protection Bureau a mis en garde contre les risques de discrimination algorithmique dans l’octroi de crédit. Ces interventions illustrent une régulation fonctionnelle, fondée sur l’application de normes préexistantes à des technologies nouvelles.

Parallèlement, les États-Unis ont privilégié l’élaboration de cadres volontaires de gestion des risques. Le National Institute of Standards and Technology a publié en janvier 2023 le AI Risk Management Framework, document non contraignant destiné à aider les organisations à identifier, évaluer et atténuer les risques liés aux systèmes d’IA.[21] Ce cadre repose sur quatre fonctions principales — gouverner, cartographier, mesurer et gérer — et met l’accent sur la flexibilité et l’adaptabilité, plutôt que sur l’imposition d’exigences juridiques uniformes.

Cette prédominance de la soft law reflète une culture juridique attachée à l’innovation et à la responsabilité a posteriori plutôt qu’à la certification préalable. Elle traduit également une méfiance structurelle à l’égard des régulations fédérales transversales susceptibles de freiner la compétitivité des entreprises technologiques américaines.

b . L’Executive Order de 2023 et l’usage du pouvoir exécutif

L’administration démocrate du Président Joe Biden avait néanmoins marqué une inflexion en adoptant le 30 octobre 2023 un décret présidentiel intitulé Safe, Secure, and Trustworthy Development and Use of Artificial Intelligence.[22] Cet Executive Order a imposé aux agences fédérales de développer des standards de sécurité, prévu des obligations de partage d’informations pour les modèles les plus puissants développés par des entreprises privées, et mobilisé les compétences du Defense Production Act pour exiger la communication de certains résultats de tests de sécurité.

Le décret demande notamment au Department of Commerce d’élaborer des standards pour le « red-teaming »[23] des modèles avancés et d’établir des lignes directrices en matière de « filigranage » (« watermarking ») des contenus générés artificiellement.[24] Il impose également aux agences fédérales d’évaluer les impacts de l’IA sur les droits civiques, la protection des données et le marché du travail.

Toutefois, cet instrument demeure un acte de l’exécutif, susceptible d’être modifié ou abrogé par une administration ultérieure. Il ne constitue pas une loi fédérale adoptée par le Congrès et ne crée pas un régime de responsabilité générale comparable à celui instauré par le règlement européen. Son efficacité dépend largement de la capacité des agences à transformer les orientations présidentielles en normes opérationnelles.

Cette configuration met en évidence une caractéristique centrale du modèle américain : la régulation de l’IA procède moins d’une codification systématique que d’une mobilisation pragmatique des outils juridiques existants, combinée à des injonctions exécutives ciblées.

c.  Le refus d’une gouvernance mondiale centralisée : souveraineté et stratégie

C’est dans ce contexte interne que s’inscrit la déclaration du 20 février 2026 citée en début d’article par laquelle Michael Kratsios (directeur de l’Office of Science and Technology Policy, on le rappelle) a affirmé que les États-Unis « rejettent totalement la gouvernance mondiale de l’IA » lors du India AI Impact Summit 2026 de New Delhi.[25] Selon les comptes rendus publiés par l’Agence France-Presse et repris par plusieurs médias internationaux, il a soutenu que l’innovation ne devait pas être soumise à une « bureaucratie centralisée » susceptible d’entraver la compétitivité américaine.[26]

Cette position ne saurait être interprétée comme un refus de toute coopération internationale. Les États-Unis demeurent engagés dans des enceintes telles que le G7, notamment à travers le processus dit d’Hiroshima sur l’IA, et participent aux travaux de l’OCDE relatifs aux principes de l’IA adoptés en 2019. Toutefois, l’administration américaine distingue nettement coopération et gouvernance centralisée contraignante.

Le rejet d’un régime mondial unifié répond à plusieurs objectifs stratégiques. Il vise d’abord à préserver la marge de manœuvre normative nationale dans un secteur considéré comme déterminant pour la sécurité nationale et la compétitivité économique. Il s’inscrit ensuite dans une logique de rivalité systémique avec la Chine, dans laquelle la maîtrise des technologies d’IA est perçue comme un facteur clé de supériorité militaire et industrielle. Enfin, il reflète la volonté de protéger l’écosystème des grandes entreprises technologiques américaines, dont la capacité d’innovation rapide pourrait être affectée par des contraintes réglementaires internationales rigides.

En ce sens, la position américaine ne relève pas d’un simple désaccord technique sur les modalités de régulation, mais d’une conception particulière de l’ordre international technologique : un ordre fondé sur la compétition entre puissances, la diffusion de standards par le marché et la préservation de la souveraineté décisionnelle. Là où l’Union européenne cherche à projeter un modèle normatif structuré, les États-Unis privilégient une architecture plus flexible, où la puissance économique et l’avance technologique jouent un rôle déterminant dans la définition des standards de facto.

Cette divergence nourrit la fragmentation de la gouvernance mondiale de l’intelligence artificielle. Elle soulève une question centrale pour les relations internationales contemporaines et pour définir les stratégies tant industrielles que normatives ou encore pour les grands choix diplomatiques dans la  définition des alliances de l’avenir  : l’IA deviendra-t-elle l’objet d’un régime international structuré, comparable à ceux établis dans d’autres domaines technologiques sensibles, ou demeurera-t-elle un champ de rivalité normative dominé par les stratégies nationales des grandes puissances ? Les Etats-Unis semblent actuellement opter pour la seconde approche.

III. Les modèles asiatiques de gouvernance de l’intelligence artificielle : souveraineté technologique, encadrement étatique et pragmatisme stratégique

L’analyse de la fragmentation normative de la gouvernance mondiale de l’intelligence artificielle ne saurait se limiter au face-à-face transatlantique. Il faut donc se tourner vers l’Asie et observer que les puissances asiatiques ont développé des cadres de régulation distincts, révélateurs de conceptions différenciées du rapport entre État, marché et technologie. La Chine a opté pour un encadrement juridique dense, étroitement articulé à ses objectifs politiques et sécuritaires ; le Japon et la Corée du Sud privilégient des approches plus souples et adaptatives, combinant lignes directrices et stratégies industrielles ; Taïwan, enfin, cherche à concilier ouverture économique, sécurité nationale et alignement sur les standards démocratiques. L’examen comparé de ces modèles éclaire les logiques géopolitiques à l’œuvre dans la structuration régionale de la gouvernance de l’IA.

La Chine : régulation proactive et contrôle politique des architectures numériques

La République populaire de Chine a été l’un des premiers États à adopter des textes spécifiques encadrant les algorithmes et les services d’intelligence artificielle. Dès 2021, l’Administration du cyberespace de Chine a adopté les Provisions on the Management of Algorithmic Recommendation Services in Internet Information Services, imposant des obligations de transparence et de conformité aux plateformes numériques utilisant des systèmes de recommandation algorithmique.[27] Ces dispositions exigent notamment que les fournisseurs respectent « les valeurs fondamentales socialistes » et s’abstiennent de produire des contenus susceptibles de menacer la sécurité nationale ou l’ordre public.

En 2022, la Chine a renforcé ce dispositif avec les Provisions on the Administration of Deep Synthesis Internet Information Services, encadrant les technologies de synthèse profonde, y compris les contenus générés artificiellement.[28] Ces règles imposent l’identification explicite des contenus générés par l’IA et prévoient des obligations de vérification d’identité des utilisateurs.

L’étape la plus significative a été franchie en juillet 2023 avec l’adoption des Interim Measures for the Management of Generative Artificial Intelligence Services.[29] Ce texte impose aux fournisseurs de services d’IA générative des obligations de sécurité, de vérification des données d’entraînement et de prévention de la production de contenus illégaux. L’article 4 prévoit que les services doivent « adhérer aux valeurs fondamentales socialistes » et ne pas générer de contenus portant atteinte à la sécurité nationale, à l’unité territoriale ou à la stabilité sociale, suivant des formulations équivalentes à celles qui ont fondé le droit de la concurrence chinois dans la Loi Antimonopole de 2007.[30]

Cette architecture normative s’inscrit dans une stratégie plus large définie par le New Generation Artificial Intelligence Development Plan adopté en 2017 par le Conseil des Affaires d’État, qui fixe l’objectif de faire de la Chine le leader mondial de l’IA d’ici 2030.[31] La régulation chinoise ne vise donc pas à freiner l’innovation, mais à l’orienter et à l’intégrer dans une logique de contrôle politique et de sécurité nationale. L’État y joue un rôle central, tant comme régulateur que comme investisseur stratégique.

Le Japon : soft law, innovation et gouvernance agile

À la différence de la Chine, le Japon privilégie une approche fondée sur des principes directeurs et une régulation souple. Dès 2019, le gouvernement japonais a soutenu au sein du G20 l’adoption des G20 AI Principles, largement inspirés des principes élaborés par l’OCDE. Ces principes insistent sur la promotion d’une IA centrée sur l’humain, la transparence et la responsabilité.

Au niveau interne, le Japon a adopté en 2022 puis actualisé en 2023 des lignes directrices sur l’utilisation responsable de l’IA, sans instaurer de régime législatif horizontal comparable à l’AI Act européen. Le gouvernement met l’accent sur la coopération public-privé et sur la promotion d’un écosystème favorable à l’innovation. 

La politique publique japonaise en matière d’intelligence artificielle repose sur une approche hybride combinant législation stratégique promotionnelle, normes volontaires et lignes directrices éthiques, et coordination gouvernementale centralisée.[32] L’Act on the Promotion of Research, Development and Utilization of Artificial Intelligence-related Technology (souvent appelé AI Promotion Act) a été adopté par la Diète japonaise le 28 mai 2025:[33] cette loi est entrée en vigueur progressivement à partir de juillet 2025, avec une mise en œuvre complète il y a seulement quelques mois en septembre 2025 ; cette loi constitue le premier cadre légal explicite au Japon visant à promouvoir l’innovation et l’utilisation de l’IA tout en mitigeant les risques associés à travers la coopération entre acteurs publics et privés, l’encouragement de la recherche, le renforcement des compétences, et l’élaboration de principes directeurs pour une IA éthique et transparente.[34] Elle institue notamment un AI Strategy Headquarters sous l’autorité directe du Premier ministre, chargé de coordonner les politiques d’IA et d’élaborer des plans directeurs, mais n’impose pas de sanctions pénales directes : l’accent est mis sur le « soft law » (régulation incitative et guidée) plutôt que sur des interdictions strictes ou des amendes, reflétant une préférence japonaise pour une régulation légère favorisant l’innovation et l’interopérabilité sectorielle plutôt qu’une régulation générale obligatoire. Cette stratégie s’inscrit dans le contexte plus large de la vision socio-économique Society 5.0 et d’une coordination continue avec les normes internationales sur l’IA.

Le choix japonais reflète donc une volonté de maintenir une flexibilité normative afin de soutenir la compétitivité de ses entreprises technologiques, tout en affirmant son attachement aux principes démocratiques et à la coopération internationale. La régulation y apparaît davantage comme un instrument d’accompagnement que comme un dispositif contraignant ex ante.

La Corée du Sud : entre ambition industrielle et encadrement juridique progressif

La Corée du Sud a adopté en 2020 une National Strategy for Artificial Intelligence visant à positionner le pays parmi les leaders mondiaux du secteur d’ici 2030. Cette stratégie combine investissements massifs, soutien aux start-ups et développement d’infrastructures de données.

Sur le plan normatif, Séoul a progressivement élaboré des lignes directrices éthiques et envisage l’adoption d’un cadre législatif plus structuré. Des propositions de loi relatives à la promotion et à la régulation de l’IA ont été débattues à l’Assemblée nationale, cherchant à concilier innovation et protection des droits fondamentaux. La Corée du Sud observe attentivement les évolutions européennes et américaines, dans une logique d’équilibre entre compétitivité internationale et crédibilité normative. Tout récemment, la Corée du Sud a mis en place un cadre public de réglementation de l’intelligence artificielle autour du Basic Act on the Development of Artificial Intelligence and the Establishment of a Foundation for Trustworthiness (souvent appelé AI Basic Act), adopté par l’Assemblée nationale et entré en vigueur le 22 janvier 2026 après une période de préparation d’un an.[35] Cette loi-cadre, qui couvre 43 articles et six chapitres, constitue l’un des premiers régimes législatifs complets au monde régissant l’utilisation et le développement de l’IA, avec l’objectif déclaré de renforcer la transparence, la sécurité et la confiance du public tout en soutenant l’innovation.[36] Elle impose notamment des exigences de transparence et d’étiquetage de contenu généré par IAdes obligations de gestion des risques pour les systèmes à fort impact dans des domaines critiques (santé, transport, services financiers, etc.) et la mise en place d’une structure de gouvernance nationale coordonnée sous l’autorité du ministère de la Science et des TIC ; les sanctions en cas de non-conformité peuvent aller jusqu’à 30 millions de wons coréens, mais un délai de grâce d’un an est prévu avant l’application des amendes pour permettre aux acteurs économiques de se conformer. Cette approche vise à équilibrer promotion de la compétitivité internationale et protection des citoyens, et constitue un modèle de régulation nationale qui se place aux côtés du AI Act de l’Union européenne dans le paysage mondial de la gouvernance de l’IA.

Cette approche pragmatique illustre la position intermédiaire d’un État technologiquement avancé mais étroitement inséré dans les chaînes de valeur mondiales, dépendant à la fois des marchés occidentaux et de ses relations économiques avec la Chine.

Taïwan : sécurité technologique et alignement démocratique

Taïwan occupe une position singulière dans l’écosystème mondial de l’IA en raison de son rôle central dans la production de semi-conducteurs avancés, notamment via des entreprises telles que TSMC. La maîtrise des puces de pointe constitue un levier stratégique majeur dans la compétition mondiale pour l’IA.

Le gouvernement taïwanais a adopté des lignes directrices sur l’éthique de l’IA et soutient le développement d’applications industrielles et médicales, tout en veillant à la protection des données personnelles dans le cadre de sa législation sur la protection des informations personnelles. La régulation y demeure relativement souple, mais fortement marquée par les impératifs de sécurité nationale et par la nécessité de maintenir des partenariats étroits avec les États-Unis et l’Union européenne.

A Taïwan, comme au Japon et en Corée du Sud, la situation a évolué de manière marquée dans les derniers mois, en 2025. La régulation et la politique publique de l’intelligence artificielle se sont structurées autour de l’adoption du Artificial Intelligence Basic Act, une loi fondamentale votée le 23 décembre 2025 par l’Assemblée législative (Legislative Yuan) après une phase de préparation conduisant à l’approbation du projet par l’Exécutif en août 2025. Cette loi, qui vise à concilier promotion de l’innovation et gouvernance des risques, établit un cadre national pour le développement, l’application et la supervision de l’IA. Cette loi codifie sept principes directeurs alignés sur des normes internationales — durabilité et bien-être, autonomie humaine, protection de la vie privée et gouvernance des données, cybersécurité et sécurité, transparence et explicabilité, équité et non-discrimination, et responsabilité — et désigne le National Science and Technology Council (NSTC) comme autorité compétente pour coordonner la mise en œuvre, tandis que le Ministère des Affaires numériques (MODA) doit élaborer des cadres de classification des risques d’IA et des lignes directrices pratiques.[37] Le texte oblige aussi à promouvoir la recherche, l’équipement en infrastructures, la protection des droits du travail face à l’automatisation et l’équité numérique, tout en établissant un comité stratégique national sur l’IA, présidé par le Premier ministre, pour guider les orientations politiques.[38] Cette approche met l’accent sur une gouvernance fondée sur des principes, la coordination intersectorielle et l’équilibre entre compétitivité technologique et garanties sociétales, plutôt que sur des sanctions administratives immédiates pour le secteur privé.[39]

Dans le contexte des tensions croissantes avec Pékin, la gouvernance de l’IA à Taïwan est indissociable des enjeux de souveraineté technologique et de résilience stratégique. L’île cherche à consolider sa position comme acteur indispensable des chaînes d’approvisionnement mondiales, tout en s’inscrivant dans le camp des démocraties technologiques.

À travers ces modèles asiatiques se dessinent des conceptions profondément différenciées de la relation entre technologie, État et ordre international. La Chine articule régulation et contrôle politique dans une perspective de puissance globale ; le Japon et la Corée du Sud privilégient une régulation souple intégrée à des stratégies industrielles ; Taïwan lie gouvernance de l’IA et sécurité stratégique. Cette diversité confirme que la fragmentation normative de l’intelligence artificielle n’oppose pas seulement l’Europe et les États-Unis, mais s’inscrit dans une recomposition plus large de l’ordre technologique mondial.

IV. Enjeux, conséquences et perspectives géopolitiques de la fragmentation normative de l’IA

La diversité des approches réglementaires analysées dans les sections précédentes révèle une fragmentation croissante de la gouvernance mondiale de l’intelligence artificielle. Cette situation ne se limite pas à un décalage entre modèles juridiques : elle constitue un facteur stratégique, économique et politique majeur dans les relations internationales contemporaines. L’Union européenne, les États-Unis, la Chine et les puissances asiatiques expriment des logiques de souveraineté, de compétitivité et de projection normative qui se conjuguent pour produire un paysage international fragmenté, où la définition de standards communs est incertaine et où l’IA devient un enjeu de puissance.

a. Les implications géopolitiques majeures

Sur le plan géopolitique, la fragmentation normative entraîne une course à la standardisation de facto par les acteurs dominants. Les États-Unis, en privilégiant la flexibilité et l’autorégulation sectorielle, favorisent l’émergence de standards par les grandes entreprises technologiques, qui deviennent des références globales. L’Union européenne, par le biais de l’AI Act, tente d’imposer un modèle de régulation ex ante, fondé sur la protection des droits fondamentaux, susceptible de s’imposer aux acteurs internationaux souhaitant accéder au marché européen.[40] Le tableau en annexe II ci-après sur le top 20 des entreprises d’AI dans le monde est éloquent : la première – et unique – entreprise de l’AI d’une nationalité européenne, l’allemande SAP, n’arrive qu’à la seizième place ! Les dix premières sont issues des Etats-Unis. La Chine case cinq entreprises entre la dixième et la vingtième place. Taïwan et le Japon casent une entreprise respectivement à la onzième et dix-huitième place.

Cette dualité de normes crée des tensions potentielles dans le commerce et la coopération technologique. Les entreprises internationales doivent naviguer entre des obligations européennes contraignantes et un environnement américain plus souple, tout en tenant compte des régulations chinoises strictes et orientées politiquement. Les tensions sont particulièrement visibles dans les secteurs stratégiques, comme les plateformes de traitement de données massives, les systèmes de reconnaissance biométrique et les modèles d’IA générative à large échelle.

La fragmentation normative a également des implications pour la sécurité nationale. L’IA, en tant que technologie duale, combine usages civils et militaires. Les États-Unis et la Chine considèrent l’IA comme un facteur clé de supériorité technologique et militaire, ce qui explique le refus américain d’une gouvernance mondiale centralisée et l’encadrement chinois strict et politique.[41] L’Union européenne, bien que moins focalisée sur l’aspect militaire, voit dans le contrôle des standards un levier de puissance normative et d’influence internationale.

b. Conséquences économiques et industrielles

On vient d’observer la dominance des entreprises américaines présentes dans les dix premières places. La divergence des régulations influence la dynamique industrielle globale. Les grandes entreprises américaines, telles que OpenAI et Google DeepMind, tirent parti d’un cadre flexible favorisant l’innovation rapide et l’expérimentation. L’AI Act européen impose, en revanche, des contraintes lourdes sur la conformité et la documentation, ce qui peut ralentir l’entrée sur le marché mais renforcer la confiance des consommateurs et des institutions publiques, avec une seule entreprise dans les vingt premières places.[42]

La régulation chinoise, orientée vers la sécurité et la conformité aux directives politiques, encourage les entreprises nationales à aligner leurs innovations sur les priorités stratégiques de l’État, limitant l’influence étrangère dans le marché intérieur et consolidant des champions locaux. Le Japon, la Corée du Sud et Taïwan adoptent des modèles intermédiaires, cherchant à équilibrer innovation, sécurité et compétitivité.

L’ensemble de ces stratégies produit un écosystème global fragmenté, où la maîtrise des standards de l’IA devient un facteur clé de compétitivité économique et de positionnement géostratégique.

c. Enjeux pour la gouvernance internationale

Cette fragmentation pose des défis majeurs pour la coordination internationale. Les instances multilatérales, telles que l’OCDE, le G7 ou l’ONU, ont initié des principes et des recommandations, mais leur portée reste limitée face à la divergence des approches nationales. Le risque est celui de l’émergence de « blocs normatifs » : un bloc transatlantique influencé par l’Union européenne et les États-Unis, un bloc sino-centré avec des normes orientées politiquement, et des acteurs asiatiques intermédiaires qui ajustent leurs régulations selon les opportunités économiques et stratégiques.

Cette situation alimente également des tensions diplomatiques et commerciales, les États cherchant à imposer leurs standards comme condition d’accès aux marchés ou d’investissements technologiques. Elle peut générer des phénomènes de compliance fragmentation, où les entreprises internationales doivent simultanément satisfaire des régulations divergentes, augmentant les coûts et la complexité de la conformité.[43]

 d. Perspectives et stratégies d’avenir

Face à cette fragmentation, plusieurs scénarios sont envisageables. Le premier consiste en une convergence progressive vers des standards internationaux harmonisés, portée par des négociations multilatérales et la diffusion des bonnes pratiques, à l’instar de la régulation environnementale ou du commerce numérique. Le second scénario, plus probable à court et moyen terme, est celui d’une coexistence de régulations nationales et régionales, avec des effets d’entraînement partiels et des tensions commerciales et technologiques persistantes.

Pour l’Union européenne, le défi est de maintenir sa capacité normative tout en facilitant l’interopérabilité avec les autres grands acteurs. Pour les États-Unis, il s’agit de préserver la compétitivité et l’innovation tout en répondant aux préoccupations éthiques et sécuritaires. La Chine poursuit une stratégie d’encadrement étroit et de contrôle politique, tandis que les puissances asiatiques intermédiaires ajustent leurs cadres pour maximiser leurs avantages technologiques et économiques.

En conclusion, la fragmentation de la gouvernance mondiale de l’IA illustre la relation complexe entre droit, puissance et stratégie internationale. Elle souligne que l’intelligence artificielle n’est pas seulement un objet technique ou économique, mais un levier de pouvoir et un instrument de projection normative, dont la régulation devient un terrain de compétition géopolitique. La tension entre souveraineté nationale et coopération internationale sera déterminante pour l’évolution future de l’écosystème global de l’IA.

Conclusion

L’analyse des régulations de l’intelligence artificielle à l’échelle mondiale met en lumière une dynamique paradoxale : alors que l’IA représente un enjeu stratégique universel, les modèles de gouvernance sont profondément divergents, reflétant des visions différentes de la relation entre État, marché et société. L’Union européenne incarne un modèle normatif structuré, centré sur la protection des droits fondamentaux et l’harmonisation du marché intérieur. Les États-Unis privilégient la flexibilité, la régulation sectorielle et la préservation de la compétitivité de leurs entreprises, tout en refusant toute gouvernance mondiale centralisée. La Chine déploie un encadrement juridique strict, orienté par des priorités politiques et sécuritaires, tandis que le Japon, la Corée du Sud et Taïwan adoptent des approches intermédiaires, conciliant innovation, sécurité et coopération internationale.

Cette diversité traduit une fragmentation normative croissante, où l’IA devient simultanément un objet économique, un instrument de puissance et un terrain de rivalité géopolitique. Elle pose plusieurs défis majeurs : la coexistence de standards divergents, le risque de tensions commerciales et diplomatiques, la nécessité pour les entreprises de naviguer dans des cadres juridiques complexes, et la question de la sécurité des technologies duales dans un contexte de compétition stratégique.

Pour les relations internationales, la fragmentation de la gouvernance de l’IA souligne la limite des approches multilatérales classiques face à des technologies émergentes à fort impact sociétal et militaire. Elle suggère que la définition des standards globaux dépendra moins de traités internationaux contraignants que de l’influence combinée des grandes puissances et de leurs écosystèmes industriels et financiers. Dans ce contexte, l’Union européenne apparaît comme une puissance normative en quête de diffusion extraterritoriale de ses standards, tandis que les États-Unis et la Chine exploitent la régulation pour affirmer leur souveraineté technologique et leur avance compétitive.

La trajectoire future de la gouvernance mondiale de l’IA dépendra donc d’une combinaison de facteurs : la capacité des États à aligner leurs stratégies nationales, l’émergence de standards techniques de facto, la pression des marchés et des consommateurs, et la nécessité de gérer les risques éthiques, sociaux et sécuritaires. L’intelligence artificielle se confirme ainsi comme un champ de puissance où droit, politique et géopolitique sont inextricablement liés, et où la fragmentation normative constitue à la fois un défi et un levier stratégique pour les grandes puissances.

Cette analyse suggère que la compétition normative sera un élément central des relations internationales au XXIᵉ siècle, et que la maîtrise de l’IA — technique, juridique et stratégique — déterminera en partie le positionnement et l’influence des États sur la scène mondiale.


Annexes

[1] Michael Kratsios, Remarks by Director Michael Kratsios at the India AI Impact Summit, India AI Impact Summit, New Delhi, 20 février 2026, Office of Science and Technology Policy (texte intégral consulté en ligne), disponible sur The White House website, https://www.whitehouse.gov/articles/2026/02/remarks-by-director-michael-kratsios-at-the-india-ai-impact-summit/?utm_source=chatgpt.com. Aussi, « White House adviser says US “totally” rejects global AIgovernance », article AFP (dépêches du 20 février 2026) relatant les déclarations de Michael Kratsios à New Delhi lors du India AI Impact Summit 2026, rapportées par plusieurs organes de presse internationale. 

[2] Ibid. Voir plus particulièrement les passages où Kratsios critique l’idée d’une gouvernance normative centralisée et appelle à promouvoir « l’adoption et la prospérité humaine » via l’IA. « No Euro tone again: US rejects global AI governance, pushes ‘sovereign’ American stack »New Indian Express, 20 février 2026 

https://www.newindianexpress.com/world/2026/Feb/20/no-euro-tone-again-us-rejects-global-ai-governance-pushes-sovereign-american-stack?utm_source=chatgpt.com.

[3] UNGA 80, US rejects a centralised AI rulebook, compte rendu des débats à l’Assemblée générale des Nations Unies où les États-Unis ont rejeté une gouvernance centralisée de l’IA, favorisant la souveraineté nationale et la coopération entre États. « US promotes AI sovereignty, exports at India AI Impact Summit 2026 »Business Standard, 20 février 2026, https://www.business-standard.com/technology/tech-news/us-promotes-ai-sovereignty-exports-at-india-ai-impact-summit-2026-126022000532_1.html?utm_source=chatgpt.com.

[4] Règlement européen sur l’intelligence artificielle, dit AI Act, adoptée en 2024 par les institutions de l’Union européenne pour encadrer les « risques » liés à l’IA selon des niveaux de risque gradués (textes et commentaires officiels des institutions européennes disponibles dans la documentation juridique de l’UE). Soulignons que l’habitude a été prise, notamment avec le Digital Markets Act, de nommer « Acts » en anglais la catégorie de textes relevant de l’appellation de « Règlement » au sens des traités européens, pour leur donner une lisibilité équivalente aux textes de lois aux Etats-Unis. Pour autant tous les Règlements ne sont pas dénommés en anglais « Acts » mais « Regulations ».

[5] Commission européenne, White Paper on Artificial Intelligence – A European approach to excellence and trust, COM(2020) 65 final, Bruxelles, 19 février 2020, p. 2–4.

[6] Commission européenne, Commission appoints expert group on AI and launches the European AI Alliance, Press release, 14 June 2018Le AI HLEG a été constitué pour apporter un conseil stratégique à la Commission sur sa stratégie européenne en matière d’IA, d’élaborer des recommandations de politique publique, et de traiter des enjeux éthiques, juridiques et sociaux de l’intelligence artificielle dans le cadre de la mise en œuvre de la Communication « Artificial Intelligence for Europe » publiée en avril 2018. Le groupe, composé d’experts indépendants issus du monde académique, de la société civile et de l’industrie, devait également contribuer à l’élaboration de lignes directrices éthiques et d’orientations pour une IA digne de confiance en Europe.

[7] Commission européenne, 2030 Digital Compass: the European way for the Digital Decade, COM(2021) 118 final, Bruxelles, 9 mars 2021.

[8] Proposition de règlement du Parlement européen et du Conseil établissant des règles harmonisées concernant l’intelligence artificielle (Artificial Intelligence Act), COM(2021) 206 final, 21 avril 2021, fondée sur l’article 114 TFUE.

[9] AI Act, considérant 5.

[10] Ibid., art. 5.

[11] Ibid., art. 8 à 15.

[12] Ibid., art. 59 et s.

[13] Ibid., art. 99.

[14] Ian Manners, “Normative Power Europe: A Contradiction in Terms?”, Journal of Common Market Studies, vol. 40, no 2, 2002, p. 235–258.

[15] Ursula von der Leyen, Déclaration sur l’accord politique relatif à l’AI Act, Commission européenne, communiqué de presse, Bruxelles, 9 décembre 2023.

[16] Capital.com, Largest AI companies by market capitalization 2025, consulté février 2026 : aucune société européenne dans le top 15.

[17] SAP, rapport annuel 2025, SAP Integrated Report 2025, pages 48‑52, Walldorf, Allemagne : estimation de l’activité IA et position dans les classements mondiaux.

[18] Voir notamment nos articles Souty, F., « Digital Markets Act européen, politique de la concurrence et souveraineté : conséquences géopolitiques et impact stratégique du droit sur l’économie digitale », Le Diplomate Média, 4 février 2026 et « Politique de la concurrence et Antitrust en Europe et aux Etats-Unis : perspectives transatlantiques et enjeux géopolitiques », Le Diplomate Médias, 30 décembre 2025. Voir aussi l’excellente analyse de Babinet, G., « Le véritable sujet de l’IA, c’est l’antitrust », Les Echos, mercredi 18 février 2026, p. 12 qui explique fort justement que « le débat sur l’IA est moins un débat sur le droit du travail qu’un débat de politique de la concurrence ».

[19] Souty, F., Cyberespace, sécurité, souveraineté, technologie et rivalités géopolitiques mondiales : enjeux juridiques, régulation et priorités pour l’Union européenne et pour la France », Le Diplomate Média, 11 février 2026. 

[20] Federal Trade Commission, “Using Artificial Intelligence and Algorithms,” Business Blog, 8 avril 2020 ; voir également FTC, Aiming for Truth, Fairness, and Equity in Your Company’s Use of AI, 19 avril 2021.

[21] National Institute of Standards and Technology, Artificial Intelligence Risk Management Framework (AI RMF 1.0), U.S. Department of Commerce, janvier 2023.

[22] Executive Office of the President, Executive Order on the Safe, Secure, and Trustworthy Development and Use of Artificial Intelligence, 30 octobre 2023, Federal Register.

[23] Le terme « red teaming » de contenus avancés vient des pratiques de cybersécurité et d’évaluation des risques, mais appliqué à l’IA générative et aux contenus numériquesC’est une approche proactive pour tester, détecter et évaluer les vulnérabilités ou les risques associés à des contenus produits par l’IA.

[24] Le filigrane de contenus (ou content watermarking en anglais) est une technique qui consiste à insérer dans un contenu des informations invisibles ou visibles qui permettent d’identifier sa source, son propriétaire ou sa traçabilité. C’est un peu comme signer ou marquer un document ou une image pour montrer qu’il appartient à quelqu’un, ou pour suivre sa circulation dans un contexte de protection des droits d’auteurs, de traçabilité ou encore d’authentification de contenus générés par l’IA.

[25] Déclarations rapportées lors du India AI Impact Summit 2026, New Delhi, 20 février 2026, op.cit.

[26] Dépêche AFP, 20 février 2026, déjà citée, reprise notamment par Stratégies, 20 février 2026 ; voir également US promotes AI sovereigntyBusiness Standard, 20 février 2026 également déjà cité.

[27] Cyberspace Administration of China, Provisions on the Management of Algorithmic Recommendation Services in Internet Information Services, adoptées le 31 décembre 2021, entrées en vigueur le 1er mars 2022.

[28] Cyberspace Administration of China, Provisions on the Administration of Deep Synthesis Internet Information Services, 25 novembre 2022, entrées en vigueur le 10 janvier 2023.

[29] Cyberspace Administration of China et al., Interim Measures for the Management of Generative Artificial Intelligence Services, 13 juillet 2023, entrées en vigueur le 15 août 2023.

[30] Souty F. « Loi chinoise antimonopole – Bilan : L’Autorité chinoise de la concurrence tire un premier bilan des deux années d’application de la loi antimonopole », Concurrences N° 4-2010, 12 août 2010, Art. N° 33180, pp. 235-238 

[31] State Council of the People’s Republic of China, New Generation Artificial Intelligence Development Plan, 8 juillet 2017.

[32] « AI Regulation in Japan: Policy Framework & Governance »Nemko Digital2026, pp. 2-4 (explication des objectifs nationaux de l’Act, de l’établissement de l’AI Strategy Headquarters sous le Cabinet Office et de l’intégration de lois sectorielles existantes pour le droit applicable, montrant l’approche dite de « light touch regulation »)

[33] International Bar Association, Japan’s emerging framework for responsible AI: legislation, guidelines and guidance12 nov. 2025, section sur l’AI Promotion Act .

[34] Vincent Fauchoux, « Japan’s 2025 AI Promotion Act: Structuring Innovation Through Soft Regulation », Tech & DATA, 2 juin 2025, pp. 1-3 (présentation des objectifs, des axes principaux et de l’architecture institutionnelle de la loi, soulignant l’absence de sanctions directes mais la promotion de la coopération entre parties prenantes).

[35] «South Korea Enacts World’s First Comprehensive AI Law, Balancing Innovation and Safety», Asia Daily, 25 janv. 2026.

[36] « South Korea’s AI Basic Act Takes Effect Jan 22, 2026 », AI Business Weekly, 22 janv. 2026. Cet article fournit une série d’informations précises sur l’entrée en vigueur, la structure institutionnelle, le délai de grâce et les sanctions, y compris le contexte réglementaire plus large (articles 25-43, dispositions applicables à la gouvernance nationale.

[37] Ministry of Digital Affairs (R.O.C., Taïwan), Legislative Yuan Passes Artificial Intelligence Fundamental Act in Third Reading, Laying Foundation for AI Innovation, Security Governance in Taiwan, communiqué du 24 déc. 2025 décrivant l’AI Basic Act et ses objectifs de promotion d’une IA centrée sur l’humain et la protection des droits fondamentaux. 

[38] Baker McKenzie, Taiwan: AI Basic Act, fact sheet, 9 jan. 2026. Note qui précise les obligations institutionnelles (NSTC, MODA) et les sept principes directeurs alignés avec des normes internationales en matière de gouvernance de l’IA. https://www.bakermckenzie.com/en/insight/publications/2026/01/taiwan-ai-basic-actAI Basic Act passed, tries to balance AI promotion with social welfare, Focus Taiwan (CNA), 23 déc. 2025 : donne des détails sur les principes, la création du comité national et les mesures de soutien pour l’industrie et l’infrastructure. 

[39] White & Case LLP, AI Watch: Global regulatory tracker – Taiwanjan. 2026, discute du cadre actuel, qui repose principalement sur une régulation de principe et des lignes directrices plutôt que sur des sanctions directes, positionnant Taïwan dans une approche « à faible contrainte ».

[40] Commission européenne, Artificial Intelligence Act, 2024, cf. considérants et articles sur la portée extraterritoriale et la protection des droits fondamentaux.

[41] Cyberspace Administration of China, Interim Measures for the Management of Generative Artificial Intelligence Services, 13 juillet 2023, article 4.

[42] Ursula von der Leyen, communiqué de presse sur l’adoption de l’AI Act, Commission européenne, 9 décembre 2023.

[43] OECD, AI Policy Observatory: Mapping AI Regulations, 2025: https://www.oecd.ai/en/policy-regulations

 

 

C) - L’Entretien du Diplomate avec Yury Istomin : « Il faut baliser la jungle juridique et éthique de l’intelligence artificielle créative »

Lintelligence artificielle continue de changer nos vies si rapidement que les normes éthiques et juridiques antérieures deviennent obsolètes sous nos yeux. Ce nest pas un hasard si, il y a un an, sous l’égide de lUNESCO, a été créé lObservatoire mondial sur l’éthique dans la gouvernance de lintelligence artificielle. Son objectif est danalyser et de formuler des recommandations.

Yury Istomin est un célèbre auteur-compositeur et entrepreneur, fondateur de la société d’IA « iQln-research ». Il est également lauteur dun nouveau concept philosophique, présenté dans le livre « Realitology ». Pour développer sa théorie, Yuri Istomin a créé l’Institut Realitology à Monaco. Le Diplomate a rencontré Yury Istomin qui utilise déjà lIA dans ses créations pour essayer de trouver le juste équilibre.

Propos recueillis par Le Diplomate 

Le Diplomate : L’émergence de programmes d’IA qui composent de la musique de tout genre et de la poésie a d’abord beaucoup indigné la communauté créative, mais ensuite des albums entiers ont commencé à apparaître, créés principalement par l’intelligence artificielle. Cependant, des poursuites judiciaires ont rapidement suivi.

Yury Istomin : Oui, par exemple, la composition « Heart on My Sleeve », créée avec laide des voix IA de Drake et The Weeknd, a été retirée de Spotify en raison dune violation du droit dauteur, bien quelle soit devenue extrêmement populaire. Nous entrons ici dans une véritable « jungle » juridique, car larsenal juridique concernant lintelligence artificielle dans la sphère culturelle nen est qu’à ses balbutiements. Ce morceau était assez facile à traiter, car il utilisait des procédures bien établies pour prouver qu’il était illégal d’utiliser la voix de l’artiste sans son consentement pour une nouvelle composition. Mais nous avons toute une « forêt » de problèmes devant nous.

Personnellement, je suis assez doué pour créer des chansons par moi-même, mais mon dernier album, “Transfer dans Istanbul”, présente un exemple de collaboration avec l’IA. Cependant, il convient de noter que la chanson elle-même était déjà à moitié écrite, et j’ai décidé de parler à ChatGPT uniquement pour entendre ses idées sur la fin. J’ai aimé le résultat et décidé de l’enregistrer de cette façon.

Joserais dire que pour un professionnel, collaborer avec lIA sapparente à un travail de producteur. Plus la tâche est clairement définie, plus grandes sont les chances dobtenir un bon résultat. Plus le créateur lui-même met d’éléments dans ChatGPT, plus le résultat obtenu est intéressant.

De plus, les éditeurs et la presse ont été les premiers à comprendre que sans vérification professionnelle des résultats de lintelligence artificielle, ceux-ci ne peuvent pas être exploité et directement soumis aux lecteurs. L’IA est très efficace pour dessiner des couvertures de livres simples, laissant malheureusement les designers professionnels sans revenus et sous la menace de la disparition de leur profession. 

ChatGPT est devenu une sorte de soutien pour la préparation d’articles, mais ils doivent être relus par un journaliste professionnel ayant une vision large pour garantir qu’aucune erreur évidente ne passe inaperçue. Sans parler du correcteur. Tout le monde a peur que lintelligence artificielle supprime des emplois, mais je dirais plutôt quelle va éliminer les personnes sans talent et sans professionnalisme. Les gens ont une capacité fantastique à créer quelque chose de nouveau, ainsi qu’un sens incroyable du moment où l’on peut changer quelques mots ou quelques sons – et maintenant le morceau est joué différemment.

LD : Cependant, pour linstant, nous constatons que lIA est utilisée comme “un cheval” pour augmenter la diffusion et les ventes, non ?

YI : Oui, bien sûr, nous ne pouvons pas nous passer dune telle « neuvième vague ». Mais n’y avait-il pas déjà des plagiats dans le show-biz ou dans les médias ? Aujourd’hui, de plus en plus de personnes ont accès à ce quelles considèrent comme de la « créativité » grâce à lIA. Essayons de le justifier un peu.

Auparavant, un compositeur créait quelques chansons à succès, un interprète talentueux les enregistrait et, si le public les appréciait, il achetait les disques et allait aux concerts. Mais les supports denregistrement modernes rendent diverses redevances créatives éphémères. Même une star comme Taylor Swift, avec des tournées mondiales extrêmement réussies, se bat depuis longtemps avec diverses plateformes pour obtenir des droits d’auteur. 

Auparavant, il était nécessaire d’établir des relations uniquement avec les maisons de disques, mais désormais – avec l’ensemble de l’univers des différentes ressources d’Internet. Les règles du jeu ont donc déjà radicalement changé et continuent de changer sous nos yeux.

LD : Nous savons combien de cas juridiques complexes existent dans le monde contre des artistes populaires lorsquils sont soudainement accusés de plagiat. Il s’agit parfois d’une tentative de chantage, mais n’est-il pas en réalité très facile de tirer profit d’une composition d’un auteur non promu d’un pays tiers ?

YI : Malheureusement, cela a toujours été et sera toujours le cas. Dautres sont encore plus rusés, volant des œuvres oubliées des classiques. 

LD : Est-ce à dire que nous sommes dans une situation d’impunité pour le plagiat musical ?

YI : Il faut admettre que si le compositeur est décédé depuis longtemps, le droit d’auteur n’existe plus. Les musiciens classiques ont bien sûr une éthique professionnelle et ils essaient d’éviter les emprunts évidents. Bien que très souvent on puisse entendre l’influence d’autres compositeurs sur eux.

Cependant, en show-biz, les critères de plagiat sont beaucoup plus flous. Et le traitement moderne, en changeant le rythme, les instruments ou la tonalité, est capable de camoufler beaucoup de choses. Et maintenant, ils commencent à tout imputer à l’aide de l’intelligence artificielle.

C’est pourquoi pour les auteurs encore en vie, de nouveaux instruments juridiques modernes devraient leur venir en aide.  Je sais qu’il y a déjà des facultés de droit où on enseigne une une nouvelle spécialité, préparant les professionnels aux procès dans des affaires liées à lintelligence artificielle.

LD : Les tribunaux sont le dernier recours. Qu’en est-il des questions éthiques ?

YI : La société est inimaginable sans éthique, mais elle est parfois très différente même dans les pays voisins. Cependant, jaimerais croire que chaque véritable créateur possède quelque chose dinsaisissable que même les machines les plus sophistiquées ne peuvent reproduire. Si ce n’était pas le cas, pourquoi les gens continuent-ils à aller au théâtre et aux concerts ?

Tout véritable artiste se produit toujours mieux en public. C’est un phénomène surprenant, car de l’extérieur, il semble qu’il y ait plus d’excitation et de pression devant le public. Et cela, dun côté, est tout à fait vrai ! Mais dun autre côté, quand on y met toute son âme, on est soi-même et nourri des émotions du public. Un sentiment indescriptible.

En outre, un certain parallèle peut être établi ici avec les changements généraux de l’économie mondiale. Nous constatons que même les services virtuels les plus complexes deviennent moins chers, tandis que le coût des services fournis hors ligne sont en augmentation.

Il s’avère que les concerts live se déplacent progressivement vers le segment du luxe. Il est clair que le seuil de « dépenses de luxe » varie considérablement selon les consommateurs. Et pourtant. J’espère donc que les concerts trouveront toujours leur public. 

Et si le public aime les interprètes, il leur pardonne généralement leurs divers emprunts. Curieusement, les questions éthiques sont ici plus susceptibles d’être soulevées par d’autres artistes.

À lire aussi : IA : Géopolitique de l’avenir

LD : Vous êtes lauteur du livre « Realitology », dans lequel vous tentez une nouvelle compréhension du « libre arbitre » et dautres concepts philosophiques importants. Cest très pertinent, car le déterminisme antérieur est en train de disparaître sous nos yeux, et une nouvelle conscience humaine vient le remplacer. Diriez-vous que votre approche philosophique est assez optimiste ?

YI : Peut-être. Je ne voudrais pas simplifier tout le concept dans une courte interview, mais je suis un fervent partisan des théories sur les énormes possibilités de la psyché humaine. À chaque siècle, les changements qui ont eu lieu ont inspiré certains et effrayé dautres. Et maintenant, nous entendons constamment des avertissements du genre « où va le monde ? ». Cependant, je dirais que maintenant la responsabilité de lindividu lui-même augmente considérablement, et une technologie parfaite devrait laider, mais pas le remplacer.

Je montre en détail dans le livre ce que signifie, par exemple, « penser en termes dalternatives » et « créer du sens ». Lhomme a toujours fait cela, mais pendant des siècles, la majorité a été opprimée par des contraintes de survie ou des entraves sociales. Aujourd’hui, une part considérable de la population mondiale est maîtresse de son destin.

En même temps, personne nannule notre nature biologique qui, que nous le voulions ou pas, prédétermine initialement notre comportement. La « réalitologie » est une tentative davoir une vision globale de l’homme moderne, constamment complétée par de nouvelles découvertes dans les sciences naturelles et humaines.

J’espère vraiment que l’Institut Realitology que j’ai créé à Monaco, deviendra un point dattraction pour les chercheurs qui sont attirés par une large couverture de matériel, sans être limités au cadre dun seul paradigme.

LD : Il existe beaucoup de clichés sur Monaco et les Monégasques. Êtes-vous daccord avec eux ou pouvez-vous les réfuter ?

YI : Je serai heureux de les réfuter ! Je suis toujours étonné de voir à quel point les Monégasques sont passionnés. C’est ici que se déroulent les événements les plus intéressants, comme par exemple le Festival de Télévision de Monte-Carlo, le Festival du Cirque, qui est en réalité une Olympiade du cirque, le Printemps des Arts, le Concours International de Bouquets… Sans oublier le célèbre Yacht Show et le grand Prix de Formule 1.

Monaco est un diamant méditerranéen, scintillant de toutes ses facettes. C’est justement grâce à la passion des Monégasques qu’il existe ici autant d’associations diverses, inventant sans cesse de nouvelles manifestations culturelles. Saviez-vous, par exemple, qu’il s’agit d’une startup monégasque qui développe des batteries électriques de pointe pour les futurs rovers lunaires ?

Et bien sûr, notre passion commune c’est la mer ! Je ne serais pas original si je disais que je suis aussi un plaisancier. Pour moi, cest une unité complète avec la nature, une opportunité de redémarrer et de se renouveler. Mais en même temps, nous rappelons que depuis l’époque du Prince Albert Ier, la principauté a également été lun des centres mondiaux les plus importants pour lexploration de la mer de l’océan.

C’est grâce au études profondes Monaco a créé récemment son nouvel cartier Mareterra, qui est bâti complètement dans la mer.  La superficie de la principauté a augmenté de 3% ! Et je voudrais attirer votre attention que la ligne côtière de Monaco est beaucoup plus difficile et profonde par apport de Dubaï.

C’est pourquoi il est absurde de réduire Monaco aux seuls casinos et au luxe. L’atmosphère même du lieu vous tient en haleine, révélant toujours quelque chose de nouveau. Si possible, les Monégasques essaient de collectionner des œuvres d’art, et je ne fais pas exception. Et pour la plupart, nous ne gardons pas les tableaux exclusivement pour nous, mais essayons de les exposer afin que tous ceux qui le souhaitent puissent les voir.

De plus, Monaco est une « boîte à musique » où se cachent toutes sortes de trésors. Les chanteurs pop les plus célèbres du monde viennent se produire dans les clubs ici, et le magnifique orchestre philharmonique de la principauté invite chaque année les meilleurs chefs d’orchestre du monde pour préparer des programmes époustouflants.

Monaco c’est de l’énergie, des projets, des rêves et une absence totale d’ennui, car beaucoup d’événements sont totalement gratuits.

À lire aussi : ANALYSE – Sommet sur l’IA à Paris : De la fascination aux coups de « bluffs » qui agite le monde de la Tech

Yury Istomin

https://lediplomate.media/technologie-entretien-diplomate-yury-istomin-baliser-jungle-juridique-ethique-ia/

 

 


D) - Intelligence Artificielle : Révélations Exclusives au Futur

Depuis novembre 2022, un spectre hante le monde : le spectre de l’Intelligence Artificielle. Chat GPT, système conversationnel multilingue, a été mis en ligne par les promoteurs de l’Open AI et des millions d’usagers sont devenus les cobayes d’une expérience en temps réel, qui a permis une incroyable courbe d’apprentissage pour Chat GPT. Sa version 4 peut déjà égaler les avocats et les médecins. On frémit d’excitation ou d’horreur en imaginant ce que pourra faire Chat GPT 12 dans quelques années. 

Pourtant, l’IA est une technologie difficile à appréhender car le terme est polysémique, allant de choses assez simples comme des algorithmes ou l’apprentissage automatique (machine learning), jusqu’à des perspectives beaucoup plus ambitieuses (comme l’apprentissage profond (deep learning) et la recherche d’une Intelligence Artificielle Générale (AGI), c’est à dire une IA forte, capable de concurrencer directement l’intelligence humaine avec une autonomie totale dans la prise de décision)

Les conséquences économiques de cette révolution d’un autre type sont très lourdes, avec un risque de bouleversement d’un nombre conséquent de métiers. En effet, l’IA est une technologie qui agit potentiellement sur tous les secteurs d’activités humaines. Mais au-delà de cet aspect économique, l’irruption de l’intelligence artificielle dans le système international peut-elle bouleverser profondément la géopolitique mondiale en elle-même ? Très vraisemblablement, oui. 

La compétition que se livrent les grands acteurs internationaux pour alimenter la recherche en IA, avec notamment la sécurisation des approvisionnements en micro-processeurs (rôle essentiel de Taïwan) mais aussi le défi de la production énergétique, ne sont pas à proprement parler un fait nouveau. Il s’agit d’une intensification de rapports de forces déjà préétablis, suivant des schémas connus. En revanche, l’IA nourrit quatre ruptures géopolitiques. 

La première rupture se situe cependant au niveau du champ d’action des rapports internationaux. En effet, ces systèmes avancés sont déterritorialisés, à l’image de l’internet et échappent donc à une loi immuable de la géopolitique : le déterminisme géographique. En théorie, un pays petit, enclavé, faiblement peuplé, pourrait grâce à une domination de l’outil relever la tête dans le concert des nations. 

L’internet n’était qu’une aimable mise en bouche, un galop d’essai, un essai en laboratoire à côté du potentiel des IA. Les IA ouvrent une nouvelle dimension, un nouveau champ d’affrontement pour la puissance, au même titre que la mer, la terre, les airs ou l’espace, car elles ne sont pas seulement un espace non-tangible comme l’internet, mais aussi un accélérateur de puissance. Il n’est donc pas surprenant que ce soient les deux principales superpuissances du XXIème siècle qui soient le plus investies dans la domination de ce nouveau champ stratégique, à savoir les Etats-Unis et la Chine. Le gouvernement chinois a fait en 2017 de l’IA une propriété absolue. L’aide gouvernementale inonde toute la société chinoise. Les Etats-Unis ont présenté quant à eux une stratégie nationale. 

Une fois accepté comme champ d’action, la question est d’imaginer les « lois » de ce champ géopolitique. Par exemple, la terre se partage – c’est le propre des frontières – alors que la mer produit naturellement une hégémonie d’un acteur. Qu’en est-il du champ de l’IA ? Peut-elle accoucher d’écosystèmes intégrés juxtaposés (avec des ressources numériques, des brevets et des valeurs différentes) ou la compétition technologique conduira-t-elle inéluctablement à ce qu’un seul système survive avec un système de valeurs (notamment politiques) associé ? L’IA est-elle le prélude d’un système international homogène ou hétérogène ? Cette question sera vue plus loin (cf. infra).

La seconde rupture géopolitique se situe au niveau du fonctionnement politique du système international. Tony Blair et William Hague ont récemment plaidé pour que les conseillers des ministres soient remplacés par des IA. L’essor des IA pourrait régler un biais important dans la prise de décision politique : le biais informatif ou des préjugés. L’histoire est pleine de ces erreurs de jugement : Hitler qui s’auto-intoxique sur un débarquement en Bretagne, Brejnev qui ne comprend pas la détermination américaine à Cuba, les Occidentaux qui refusent de croire en l’invasion de l’Ukraine, les services américains qui ne croient pas aux alertes sur un attentat terroriste de masse au World Trade Center, etc… Robert Jervis, dans « Perceptions and misperceptiond in international politics » (1970) avait brillamment démontré comment ces biais pouvaient jouer dans la prise de décision. 

Cette rupture est cependant plus complexe, car simultanément, les IA en réglant un problème en créeront un autre : celui de l’âge de la manipulation du réel, de la fabrication de fausses informations, documents et images plus vrais que nature. Cela veut dire – en miroir – que pour les décideurs dépourvus d’IA, la capacité à arbitrer sera de plus en plus difficile.

Paradoxalement, soit dit en passant, s’agissant non pas de l’information fraîche mais de la connaissance, nos vieux livres auront peut-être bientôt une plus-value unique : imprimés avant l’apparition de l’IA, ils resteront peut-être comme les seuls éléments de confiance dans un monde inondé de contenus modifiés. Le lecteur sera certain que ce qui est dans le livre est exact (peut-être dépassé, mais c’est une autre affaire) tandis que les contenus numériques seront de plus en plus difficiles à trier. Les dictateurs devraient continuer dans les années futures à brûler des livres, mais auront probablement les yeux de Chimène pour l’IA, capable de manipuler les foules. 

Troisième rupture géopolitique : l’art de la guerre. J’ai déjà parlé du formidable pouvoir de distorsion actuel des armes numériques. Les autorités françaises ont mis en évidence mardi 13 juin 2023 l’existence d’une campagne numérique de manipulation de l’information contre la France impliquant des acteurs russes et à laquelle des entités étatiques ou affiliées à l’État russe ont participé en amplifiant de fausses informations », qualifiant ces attaques de « guerre hybride » menée par la Russie. L’Intelligence Artificielle peut être vue comme une sorte d’arme ultime, à l’image de la bombe nucléaire. Celui qui la possèderait surclasserait ses adversaires, à l’image d’un pays en capacité de prendre les meilleures décisions grâce à l’IA, d’anticiper et corriger les offensives militaires, ou encore de contrôler des milliers d’unités robotiques sur le champ de bataille. Le fossé qui s’est creusé entre les pays qui ont l’IA et ceux qui ne l’ont pas, rappelle l’avance technologique américaine de 1945. D’ailleurs, il est assez significatif que tous les laboratoires d’IA – OpenAI, Google DeepMind, Anthropic – aient signé récemment un appel à contrôler le développement de l’IA, en affirmant que celle-ci pourrait à terme avoir des conséquences aussi dévastatrices que la bombe. Tout ceci ressemble à une forme de Traité de Non-Prolifération (TNP) destiné à empêcher de nouveaux entrants sur ce secteur d’avenir, pour empêcher la prolifération horizontale. 

Néanmoins, l’IA pourrait différer de la bombe nucléaire sur un point critique, celui de la capacité pour les pays suiveurs de rejoindre les leaders. Faut-il considérer l’IA comme toutes les autres inventions technologiques ? Les experts chinois semblent considérer que leur pays, qui sait copier ce qui fonctionne et qui sait aussi perfectionner des systèmes, pourrait profiter d’être dans le sillage américain. D’ailleurs la Chine a quasiment rattrapé les Etats-Unis. D’autres experts pensent au contraire que l’avance prise par les leaders croît à un rythme exponentiel, ce qui fait que le rattrapage serait virtuellement impossible, passé un certain seuil, faute de moyens budgétaires suffisants. Seuls des macro-pays pourraient donc suivre une telle stratégie.

Dans cette approche pessimiste, l’IA serait une technologie fondamentalement créatrice d’hégémonie. Un pays qui a des ogives nucléaires peut exercer la dissuasion, car la dissuasion du faible au fort existe. Dans le domaine de l’IA, le fort écrase toujours le faible, de la même manière que faire affronter l’intelligence d’un garçon de 8 ans et celle d’un garçon de 18 n’a aucun sens. En d’autres termes, l’IA pourrait favoriser l’émergence d’empires dont le centre serait une alliance de multinationales et d’un État, régnant sur des territoires cyber-vassalisés. Une fois la domination technologique établie, les populations concernées seraient piégées dans des écosystèmes d’influence, de soft-power, et de biais informatif. Par exemple, le patron de Midjourney, IA de production d’images, a justifié jl’interdiction de générer des images du président chinois Xi Jinping en expliquant que « la satire politique n’apportait pas grand-chose ». Chacun chez soi et l’IA pour tous. 

La quatrième et dernière rupture géopolitique se situe pourtant ailleurs. Elle est philosophique et anthropologique. Jusqu’ici, les intelligences supérieures avaient toujours procédé de sélections génétiques et biologiques, les espèces plus intelligentes étant en capacité d’éliminer, de domestiquer ou de chasser les espèces moins intelligentes. Pour la première fois dans l’Histoire humaine, l’homme va potentiellement « créer » son supérieur. 

C’est d’autant plus étonnant que pendant des siècles, l’Homme a cherché à dégager une marge d’autonomie par rapport à l’omnipotence de Dieu, et son omniprésence. Les démocraties occidentales sont nées de la laïcisation des sociétés. En développant la science, l’homme a repoussé les limites du mystère et réussi à expliquer rationnellement – puis à dominer – l’univers qu’il entoure. 

Or, voilà que parvenu au sommet de la connaissance, l’Homme se fait démiurge en créant un serviteur l’Intelligence Artificielle, capable d’émancipation. En effet, rien ne dit, comme dans un film des années 70, « le Cerveau d’acier », que cette intelligence supérieure ne réagira pas vis à vis de nous comme nous avons agi avec l’intégralité des espèces moins puissantes, et qu’elle ne deviendra pas notre maître. C’est ce que les experts appellent le « désalignement » de l’IA sur les volontés de son créateur, et la « singularité technologique », c’est à dire des « supraintelligences » qui s’auto-amélioreraient, créant finalement une puissante superintelligence qui dépasserait qualitativement de loin l’intelligence humaine. 

Cette rupture anthropologique pourrait avoir des effets positifs en offrant une sorte de cyber-juge de paix, capable de réguler les relations humaines diplomatiques, un tiers de confiance neutre. Mais, elle pourrait aussi déclencher des effets en cascade. 

La parade au risque potentiel de la perte de contrôle, c’est l’Homme augmenté, l’accélération des capacités et savoirs naturels par la technique, c’est à dire le transhumanisme, promu par exemple par Neuralink. Ne pouvant égaler la machine, l’Homme se hisserait à son niveau. Là encore, les enjeux géopolitiques sont profonds. En effet, si l’IA remet en cause une loi immuable qui est la contrainte géographique, l’Homme augmenté questionne une autre loi, celle qui veut que la démographie soit un élément de puissance. 

Un homme augmenté capable de réfléchir cent fois plus rapidement qu’un homme normal pose un défi gigantesque. La question se pose déjà lorsque des pays moins peuplés peuvent mettre en échec des adversaires plus peuplés du seul fait de leur avance technologique (Israël face au monde arabe par exemple). Demain, si le « capital technologique » et l’ « humain » fusionnent totalement ce déséquilibre pourrait encore s’accroître. Il posera des questions d’ordre politique en temps de paix : une démocratie peut-elle fonctionner sur le principe fictif d’un vote par homme si les inégalités capacitaires et intellectuelles entre humains sont patentes ? Une théocratie peut-elle se revendiquer de Dieu si une partie de son peuple est immergée dans la science et a des velléités démiurgiques ? Une dictature peut-elle se maintenir si au lieu d’avoir un peuple plongé dans l’ignorance, le despote fait face à des oligarques techno-humains ? 

En temps de guerre, les questions métaphysiques seront nombreuses. Au départ, l’homme augmenté sera vu comme un homme. Mais après trois ou quatre générations, un outillage de plus en plus intégré, faudra-t-il considérer qu’il y a une espèce humaine ou deux espèces ? Et quel droit appliquer ? 

La réflexion sur l’homme et la machine surgit rituellement à chaque rupture technologique. La bombe nucléaire a fait comprendre à l’homme qu’un simple incident pouvait mener à l’autodestruction. L’IA, outil pensant, pourrait être à l’origine du même processus, sauf que cette fois-ci, l’homme n’est pas certain de contrôler longtemps le bouton d’arrêt.


 

 

 

 

 

Powered By Blogger