Affichage des articles dont le libellé est souverainetenumerique. Afficher tous les articles
Affichage des articles dont le libellé est souverainetenumerique. Afficher tous les articles

mai 16, 2026

Intelligence artificielle à savoir en ce mois de mai 2026

Sommaire:

A) - Santé et Éducation : la grande fusion qui vient.

B) - Intelligence artificielle, souveraineté normative et géopolitique : La fragmentation de la gouvernance mondiale entre puissances technologiques

C) - L'IA d'Anthropic progresse à une vitesse alarmante selon les experts en sécurité

D) - Pour nous être utile, l'IA ne doit pas penser à notre place

E) - ChatGPT sur iPhone : OpenAI est vexé et cherche un moyen pour rompre avec Apple


 

A) - Santé et Éducation : la grande fusion qui vient.

l est des évidences que l’Histoire met des siècles à reconnaître. Celle-ci en est une : la santé et l’éducation ne sont pas deux politiques publiques juxtaposées, deux activités commerciales privées ; elles sont les deux faces d’une même réalité : la capacité d’un être humain à faire le meilleur usage de son temps.

L’état de santé est un déterminant majeur de la trajectoire scolaire, universitaire, et professionnelle : une adolescente dont le TDAH non diagnostiqué est confondu avec de la paresse, un collégien souffrant de dépression que ses professeurs perçoivent comme désintéressé, un étudiant qui souffre d’un trouble de l’attention, n’ont pas les mêmes moyens que d’autres pour se former puis pour travailler et pour vivre. Et tout démontre qu’informer un enseignant que son élève souffre d’un trouble bipolaire ou d’une maladie peut favoriser l’accompagnement et écarte des préjugés.

À l’inverse, l’éducation agit sur la santé : le niveau d’instruction est, avec l’exercice physique et l’absence de consommation de drogue, le prédicteur le plus robuste de l’espérance de vie en bonne santé.  Plus encore : la curiosité active le circuit dopaminergique de la récompense, améliore la mémoire et installe un plasticité cognitive généralisée.

Dans un monde où l’espérance de vie active dépasse soixante-dix ans, où les métiers se reconfigurent tous les dix ans et où la formation permanente est une condition de réussite économique et humaine, la mise en commun des données de santé et d’éducation devient une évidence.

Pourtant, le dossier médical et le dossier scolaire d’un même individu sont encore presque partout cloisonnés.

La résistance est triple : silos institutionnels, corporatismes professionnels, et protection des données. Cela cédera, sous la pression conjointe des coûts des systèmes de santé, de l’intelligence artificielle, d’une compétition internationale qui ne laissera aucune marge à l’inefficience pédagogique et de la demande de chacun de pouvoir vivre la meilleure vie possible.

Cela pourra se faire dans le respect de la vie privée ou en installant la pire des dictatures. Tel est le véritable enjeu.

Quelques pays sont assez avancés dans cette direction.

Du côté démocratique, le plus avancé est le Royaume-Uni, où une base de données contient les dossiers croisés de près de 20 millions de personnes (hospitalisations, passages aux urgences, consultations externes, résultats scolaires, absentéisme et recours aux services sociaux), ce qui permet par exemple de mettre en place un soutien scolaire avant même que les signaux d’alerte n’apparaissent sur les bulletins scolaires. L’Estonie a aussi mis en place un dialogue entre les données de santé et les registres scolaires pour identifier les enfants à risque d’échec. En Finlande, des équipes pluridisciplinaires intégrant médecins scolaires, psychologues et enseignants ont accès au profil individualisé de chaque élève, mis à jour en continu. La Corée du Sud développe des algorithmes d’apprentissage adaptatif qui intègrent des données sur l’état de fatigue physiologique et le niveau de stress des élèves, mesuré sur des bracelets connectés.  Au Japon, on a commencé l’intégration des données de santé mentale dans les parcours pédagogiques individualisés, sans que le cadre réglementaire de protection des données ne permette d’aller plus loin. La France dispose des instruments nécessaires (Mon Espace Santé, fichier APAE de l’Éducation nationale, entre autres) mais ne les autorisent pas à communiquer de façon numérique, le partage restant informel, sur papier, à la discrétion des enseignants et de la médecine scolaire.

Parmi les pays autoritaires, Singapour couple depuis peu les données de santé collectées en milieu scolaire avec les plateformes d’apprentissage, permettant d’adapter les programmes aux besoins de chacun, avec déjà une réduction de 18 % des décrochages scolaires. La Chine déploie à grande échelle des systèmes de surveillance biométrique en classe, dont la finalité est au moins autant sécuritaire qu’éducative ; une plateforme offre un tutorat personnalisé à des millions d’élèves en ajustant en temps réel le contenu, selon leurs lacunes et leur rythme d’apprentissage, à partir de données comportementales.

On ira bientôt beaucoup plus loin : L’IA rend en effet possible de croiser des millions de variables hétérogènes (génomique, microbiome, données de sommeil, historique scolaire et universitaire, carrière professionnelle, niveau de formation continue, profil neuropsychologique, contexte socioéconomique) ; des objets connectés (montres ou bagues mesurant le sommeil, l’activité physique et l’état émotionnel) peuvent désormais produire aussi des flux de données de santé en continu. Tout cela permettra de fournir, en temps réel, des recommandations pédagogiques et thérapeutiques personnalisées. Un essai mené par Khan Academy a montré que les élèves accompagnés par une IA, en tenant compte de leur état émotionnel détecté en temps réel, progressent deux fois plus vite en mathématiques que leurs pairs.  D’autres expérimentations en Corée du Sud démontrent que des tuteurs IA personnalisés réduisent significativement l’absentéisme parmi les élèves à risque.

Dans les pays où les données personnelles resteront une marchandise, tels les Etats Unis, comme dans ceux où ces données sont un moyen de contrôle politique, tels la Chine, cela ira vite, avec l’appui dans les deux cas de compagnies d’assurance (qui moduleront les primes en fonction de la participation des assurés à des modules d’apprentissage certifiés, d’abord sur la nutrition et la gestion du stress) ; l’assureur, l’employeur, l’institution scolaire et l’Etat *auront accès* à ce profil intégral ; on y aura alors construit la plus sophistiquée des cages.

Dans d’autres pays, en particulier en Europe, soucieux de préserver la démocratie et la vie privée, on fera en sorte que ces données personnelles intégrées ne soient communiquées, en continu, qu’à chaque citoyen qui décidera seul de l’usage qu’il en fait ; on y aura alors établi une formidable base pour l’exercice de la liberté individuelle.

Jacques Attali


Jacques Attali est docteur en économie, polytechnicien et conseiller d’État. Conseiller spécial du Président de la République François Mitterrand pendant 10 ans, il est le fondateur de 4 institutions internationales : Action contre la faim, Eureka, BERD, Positive Planet.

Jacques Attali est l’auteur de 86 livres (dont plus de 30 consacrés à l’analyse de l’avenir), vendus à 10 millions d’exemplaires et traduits en 22 langues. Il est éditorialiste pour les quotidiens économiques Les Échos et Nikkei après l’avoir été pour L’Express. 

Il dirige régulièrement des orchestres à travers le monde.

https://www.attali.com/biographie/

 


B) - Intelligence artificielle, souveraineté normative et géopolitique : La fragmentation de la gouvernance mondiale entre puissances technologiques

À l’automne 2025 et au début de l’année 2026, dans un contexte de compétition technologique mondiale accrue entre puissances établies et émergentes, les États-Unis ont affirmé sans ambiguïté leur opposition à l’établissement d’un régime de gouvernance mondiale centralisé de l’intelligence artificielle (IA), une position qui a marqué un tournant significatif dans la position américaine prudente jusqu’ici dans les débats internationaux sur la régulation de cette technologie stratégique. Cette posture a été réaffirmée avec insistance le 20 février 2026 par Michael Kratsios, conseiller de la Maison-Blanche pour les sciences et technologies et directeur de l’Office of Science and Technology Policy, qui, à l’issue du India AI Impact Summit 2026 tenu à New Delhi, a déclaré que les États-Unis « rejettent totalement la gouvernance mondiale de l’IA » et que «l’adoption de l’IA ne peut conduire à un avenir meilleur si elle est soumise à la bureaucratie et à un contrôle centralisé».[1] L’administration américaine y voit un risque que des cadres normatifs supranationaux étouffent l’innovation et entravent la compétitivité, préférant promouvoir une « souveraineté de l’IA » fondée sur l’autonomie nationale, la coopération entre États partageant des valeurs similaires et l’intégration des technologies « best-in-class » américaines dans les architectures numériques des partenaires.[2]  Cette déclaration s’inscrit dans une séquence plus large de positions opposées à des processus multilatéraux visant à établir des règles ou standards internationaux contraignants — du refus de souscrire à certains accords éthiques mondiaux lors de sommets internationaux antérieurs à l’opposition à une « feuille de route centralisée » de la gouvernance de l’IA au sein de l’Assemblée générale de l’Organisation des Nations Unies.[3]

Cette inflexion américaine doit être analysée à la lumière d’une réorganisation globale des normes technologiques et sécuritaires au début du XXIᵉ siècle, où la puissance économique, stratégique et cognitive associée à la maîtrise des systèmes d’IA converge avec des enjeux de concurrence, de souveraineté, de sécurité nationale et de leadership international. Dans cette perspective, la gouvernance de l’IA devient elle-même un enjeu géopolitique structurant — confrontant des modèles normatifs divergents tels que celui de l’Union européenne, qui dès 2024 a adopté un cadre juridique ambitieux visant à encadrer les risques de l’IA de manière horizontale et proportionnée aux niveaux de risque des applications (AI Act),[4] et des approches plus fragmentées observées aux États-Unis, en Chine, au Japon, en Corée du Sud ou à Taïwan. Les enjeux sous-jacents ne se limitent pas à la seule réduction des risques sociétaux ou aux mécanismes de conformité légale, mais s’étendent aux procédures d’application (enforcement), aux mécanismes d’audit et de certification indépendants, aux gradients de responsabilité juridique entre innovateurs et opérateurs, ainsi qu’à la capacité des États à définir des règles du jeu normatives qui leur confèrent un avantage compétitif sur la scène internationale. L’introduction de ce débat positionne ainsi l’IA au cœur des marchés et des relations internationales contemporaines, invitant à une réflexion qui articule de manière rigoureuse les dimensions politiques, juridiques et stratégiques de la régulation technologique dans un monde multipolaire en recomposition.

I.   L’Union européenne et la construction d’un modèle normatif de l’intelligence artificielle

L’adoption en 2024 du règlement européen sur l’intelligence artificielle, communément désigné sous le nom d’AI Act, constitue l’aboutissement d’un processus engagé dès 2018 avec la communication de la Commission européenne « Artificial Intelligence for Europe » et consolidé par le Livre blanc sur l’intelligence artificielle de février 2020. Dans ce dernier document, la Commission affirmait déjà que l’Union devait promouvoir une « intelligence artificielle digne de confiance », fondée sur les valeurs de l’Union et respectueuse des droits fondamentaux.[5] Cette expression de « trustworthy AI », reprise des travaux du High-Level Expert Group on AI institué en 2018,[6] révélait une orientation normative claire : l’IA ne devait pas seulement être compétitive, mais conforme à un socle éthique et juridique structurant.

a.  Le contexte politique et stratégique de l’adoption du règlement européen sur l’IA

La proposition de règlement présentée par la Commission le 21 avril 2021 s’inscrivait dans une double dynamique. D’une part, elle répondait à des préoccupations internes relatives à la protection des droits fondamentaux, à la non-discrimination algorithmique et à la sécurité des produits intégrant des systèmes d’IA. D’autre part, elle s’inscrivait dans une stratégie externe plus ambitieuse, explicitée dans la communication sur la « Boussole numérique » de mars 2021, visant à positionner l’Union comme puissance normative dans la régulation des technologies émergentes.[7]À l’instar du précédent constitué par le règlement général sur la protection des données, l’Union entendait affirmer sa capacité à fixer des standards susceptibles d’exercer un effet d’entraînement au-delà de ses frontières.

Les débats au Parlement européen et au Conseil ont progressivement renforcé l’ambition du texte, notamment en élargissant la liste des pratiques interdites et en précisant le régime applicable aux systèmes dits « à haut risque ». Le compromis politique intervenu en décembre 2023, puis l’adoption formelle du règlement en 2024, ont consacré un cadre juridique horizontal applicable à l’ensemble du marché intérieur, fondé sur l’article 114 du Traité sur le fonctionnement de l’Union européenne, relatif à l’harmonisation des règles du marché intérieur.[8] Ce choix de base juridique souligne que l’AI Act est conçu non comme un instrument sectoriel, mais comme un instrument de régulation structurelle du marché numérique européen.

b.  L’architecture juridique : une régulation fondée sur les niveaux de risque

L’AI Act repose sur une architecture normative graduée, fondée sur une classification des systèmes d’intelligence artificielle selon leur niveau de risque. Le considérant 5 du règlement affirme que « les systèmes d’IA peuvent générer des risques et porter atteinte aux intérêts publics et aux droits fondamentaux protégés par le droit de l’Union » et qu’il convient dès lors d’adopter une approche proportionnée aux risques.[9]

Le texte distingue ainsi quatre catégories principales. Les pratiques d’IA jugées inacceptables sont purement et simplement interdites. L’article 5 prohibe notamment les systèmes exploitant des vulnérabilités liées à l’âge ou au handicap, les dispositifs de notation sociale généralisée par les autorités publiques, ainsi que certaines formes de reconnaissance biométrique en temps réel dans l’espace public, sous réserve d’exceptions strictement encadrées.[10] Cette interdiction traduit une volonté politique claire de tracer des lignes rouges normatives, en particulier face aux usages sécuritaires ou policiers susceptibles de porter atteinte aux libertés publiques.

Les systèmes d’IA à haut risque, définis aux articles 6 et suivants, sont autorisés mais soumis à un ensemble d’exigences substantielles : mise en place d’un système de gestion des risques, gouvernance des données, documentation technique, enregistrement dans une base de données européenne, surveillance humaine appropriée et exigences de robustesse, d’exactitude et de cybersécurité.[11] L’objectif est d’intégrer la conformité juridique au cycle de vie même du système, selon une logique de « compliance by design ».

Les systèmes présentant un risque limité sont soumis à des obligations de transparence, notamment lorsque des utilisateurs interagissent avec des systèmes conversationnels ou sont exposés à des contenus générés artificiellement. Enfin, les systèmes à risque minimal demeurent en principe libres de toute contrainte spécifique, ce qui manifeste le souci du législateur européen de ne pas entraver l’innovation de manière disproportionnée.

Cette architecture révèle un compromis entre ambition normative et réalisme économique. L’Union ne cherche pas à interdire l’IA en tant que telle, mais à encadrer ses usages les plus sensibles, en articulant protection des droits fondamentaux et intégration du marché intérieur.

c. Les mécanismes de conformité et d’enforcement

L’un des aspects les plus significatifs de l’AI Act réside dans ses mécanismes d’exécution. Le règlement adopte une structure inspirée du droit européen des produits, combinant auto-évaluation de conformité, intervention d’organismes notifiés et surveillance par les autorités nationales compétentes.

Les fournisseurs de systèmes à haut risque doivent procéder à une évaluation de conformité avant la mise sur le marché, incluant la vérification des exigences techniques et la constitution d’une documentation détaillée. Dans certains cas, notamment lorsque des normes harmonisées font défaut, l’intervention d’un organisme tiers est requise. Les États membres doivent désigner des autorités nationales de surveillance du marché, chargées de contrôler le respect des obligations et d’imposer, le cas échéant, des mesures correctives.[12]

Le règlement prévoit également la création d’un Comité européen de l’intelligence artificielle, destiné à favoriser la coordination entre autorités nationales et la Commission, sur le modèle classique existant dans les autres domaines de compétence partagée entre la Commission et les Etats membres. Cette dimension institutionnelle traduit la volonté de prévenir les divergences d’interprétation susceptibles de fragmenter le marché intérieur.

Le régime des sanctions est particulièrement dissuasif. L’article 99 prévoit des amendes administratives pouvant atteindre 35 millions d’euros ou 7 % du chiffre d’affaires annuel mondial total, selon le montant le plus élevé, pour certaines violations graves.[13] Cette échelle de sanctions, comparable à celle instaurée par le RGPD, témoigne de l’ambition d’assurer une effectivité réelle des obligations imposées.

L’AI Act introduit en outre des obligations spécifiques pour les modèles d’IA à usage général, notamment en matière de transparence, de documentation technique et d’évaluation des risques systémiques pour les modèles les plus puissants. Cette extension du champ de la régulation aux acteurs développant des modèles fondamentaux marque une évolution significative du droit européen vers une prise en compte des architectures technologiques sous-jacentes.

d. L’Union européenne comme puissance normative

Au-delà de ses mécanismes juridiques, l’AI Act doit être compris comme un instrument de projection normative. La littérature en relations internationales a depuis longtemps identifié l’Union comme une « puissance normative» capable d’influencer les standards internationaux par la force d’attraction de son marché intérieur. Ian Manners a théorisé cette capacité comme constitutive de l’identité externe de l’Union.[14]

Dans le domaine de l’IA, l’enjeu est double. D’une part, l’Union cherche à éviter une dépendance technologique excessive à l’égard d’acteurs étrangers, notamment américains et chinois. D’autre part, elle ambitionne de structurer un environnement juridique international dans lequel ses entreprises puissent évoluer selon des standards prévisibles et protecteurs des droits fondamentaux.

L’adoption de l’AI Act a ainsi été saluée par plusieurs responsables européens comme un moment fondateur. La présidente de la Commission, Ursula von der Leyen, a présenté le texte comme établissant « les premières règles complètes au monde pour une IA digne de confiance ».[15]Cette rhétorique souligne la dimension symbolique et stratégique du règlement : il ne s’agit pas seulement d’encadrer un marché, mais de proposer un modèle.

Toutefois, cette ambition normative s’inscrit dans un contexte international marqué par la divergence des approches. Là où l’Union privilégie une régulation ex ante, structurée et centralisée, d’autres puissances mettent en avant la flexibilité, l’autorégulation ou la souveraineté nationale. Cette divergence prépare le terrain d’une fragmentation normative, au cœur de la problématique générale de cet article.

Il est frappant de constater qu’aucune entreprise européenne ne figure parmi les quinze premières sociétés mondiales en matière d’intelligence artificielle, qu’il s’agisse de valorisation boursière ou de chiffre d’affaires lié à l’IA.[16] Le premier acteur européen, selon les classements de marché et les analyses financières récentes, est SAP, qui se positionne autour du 20ᵉ rang mondial, avec une activité IA intégrée principalement dans ses solutions de gestion d’entreprise et de cloud.[17] Ce retard relatif de l’Europe peut être expliqué par plusieurs facteurs : d’une part, une fragmentation historique du marché unique et une faible concentration d’acteurs capables d’investir massivement dans la recherche et le développement d’IA à grande échelle ; d’autre part, une culture entrepreneuriale moins orientée vers les start-ups à forte valorisation et une dépendance marquée vis-à-vis de capitaux publics ou de partenariats industriels limités. Les contraintes réglementaires et la priorité accordée à la protection des droits fondamentaux ont également pu ralentir le développement commercial agressif de technologies disruptives. Cette situation contribue à expliquer pourquoi l’Union européenne a choisi de déployer une stratégie normative proactive : l’AI Act et les initiatives associées visent non seulement à encadrer les risques, mais aussi à projeter une influence normative globale, à créer un avantage compétitif fondé sur la confiance et la légitimité juridique, et à renforcer le rôle des entreprises européennes dans un contexte où elles restent structurellement désavantagées face aux géants américains et chinois. Trois autres blocs réglementaires européens sont d’ailleurs à l’œuvre : le droit et la politique de la concurrence mais aussi le bloc réglementaire nouveau constitué par le Digital Markets Act [18] et l’ensemble réglementaire relatif à la cybersécurité.[19] L’approche européenne apparaît ainsi comme un moyen de compenser un déficit de masse critique technologique par un leadership normatif et réglementaire, susceptible de façonner les standards internationaux à long terme.

II. Les États-Unis entre régulation sectorielle, stratégie de puissance et refus d’une gouvernance mondiale centralisée

À la différence de l’Union européenne, les États-Unis n’ont pas opté pour un instrument législatif horizontal et contraignant applicable à l’ensemble des systèmes d’intelligence artificielle. Leur approche repose sur une combinaison de régulation sectorielle, de cadres de gestion des risques non contraignants et d’instruments exécutifs, articulés à une stratégie assumée de leadership technologique. L’analyse du modèle américain suppose ainsi d’examiner successivement l’architecture normative interne, les instruments récents mobilisés par l’exécutif fédéral, puis la dimension explicitement géopolitique du refus d’une gouvernance mondiale centralisée de l’IA.

a. Une tradition de régulation sectorielle et de soft law

La régulation américaine de l’intelligence artificielle s’inscrit dans une tradition juridique marquée par la prééminence du droit sectoriel et de l’analyse économique du droit. Contrairement à l’approche européenne fondée sur l’harmonisation ex ante, le système fédéral américain repose sur l’intervention d’agences spécialisées — telles que la Federal Trade Commission, la Food and Drug Administration ou le Department of Transportation — compétentes pour réguler des usages spécifiques de l’IA dans leurs domaines respectifs.

La Federal Trade Commission a ainsi affirmé dès 2020 que les systèmes algorithmiques relèvent de sa compétence lorsqu’ils donnent lieu à des pratiques déloyales ou trompeuses au sens du Federal Trade Commission Act.[20] Dans plusieurs déclarations publiques, l’agence a souligné que l’usage de l’IA n’exonère pas les entreprises de leurs obligations en matière de protection des consommateurs ou de non-discrimination. Cette approche demeure toutefois indirecte : elle ne crée pas d’obligations techniques ex ante comparables à celles prévues par l’AI Act européen, mais sanctionne a posteriori les comportements jugés illicites.

Dans le domaine financier, la Securities and Exchange Commission s’est intéressée aux usages de l’IA dans la gestion d’actifs et les conflits d’intérêts potentiels, tandis que la Consumer Financial Protection Bureau a mis en garde contre les risques de discrimination algorithmique dans l’octroi de crédit. Ces interventions illustrent une régulation fonctionnelle, fondée sur l’application de normes préexistantes à des technologies nouvelles.

Parallèlement, les États-Unis ont privilégié l’élaboration de cadres volontaires de gestion des risques. Le National Institute of Standards and Technology a publié en janvier 2023 le AI Risk Management Framework, document non contraignant destiné à aider les organisations à identifier, évaluer et atténuer les risques liés aux systèmes d’IA.[21] Ce cadre repose sur quatre fonctions principales — gouverner, cartographier, mesurer et gérer — et met l’accent sur la flexibilité et l’adaptabilité, plutôt que sur l’imposition d’exigences juridiques uniformes.

Cette prédominance de la soft law reflète une culture juridique attachée à l’innovation et à la responsabilité a posteriori plutôt qu’à la certification préalable. Elle traduit également une méfiance structurelle à l’égard des régulations fédérales transversales susceptibles de freiner la compétitivité des entreprises technologiques américaines.

b . L’Executive Order de 2023 et l’usage du pouvoir exécutif

L’administration démocrate du Président Joe Biden avait néanmoins marqué une inflexion en adoptant le 30 octobre 2023 un décret présidentiel intitulé Safe, Secure, and Trustworthy Development and Use of Artificial Intelligence.[22] Cet Executive Order a imposé aux agences fédérales de développer des standards de sécurité, prévu des obligations de partage d’informations pour les modèles les plus puissants développés par des entreprises privées, et mobilisé les compétences du Defense Production Act pour exiger la communication de certains résultats de tests de sécurité.

Le décret demande notamment au Department of Commerce d’élaborer des standards pour le « red-teaming »[23] des modèles avancés et d’établir des lignes directrices en matière de « filigranage » (« watermarking ») des contenus générés artificiellement.[24] Il impose également aux agences fédérales d’évaluer les impacts de l’IA sur les droits civiques, la protection des données et le marché du travail.

Toutefois, cet instrument demeure un acte de l’exécutif, susceptible d’être modifié ou abrogé par une administration ultérieure. Il ne constitue pas une loi fédérale adoptée par le Congrès et ne crée pas un régime de responsabilité générale comparable à celui instauré par le règlement européen. Son efficacité dépend largement de la capacité des agences à transformer les orientations présidentielles en normes opérationnelles.

Cette configuration met en évidence une caractéristique centrale du modèle américain : la régulation de l’IA procède moins d’une codification systématique que d’une mobilisation pragmatique des outils juridiques existants, combinée à des injonctions exécutives ciblées.

c.  Le refus d’une gouvernance mondiale centralisée : souveraineté et stratégie

C’est dans ce contexte interne que s’inscrit la déclaration du 20 février 2026 citée en début d’article par laquelle Michael Kratsios (directeur de l’Office of Science and Technology Policy, on le rappelle) a affirmé que les États-Unis « rejettent totalement la gouvernance mondiale de l’IA » lors du India AI Impact Summit 2026 de New Delhi.[25] Selon les comptes rendus publiés par l’Agence France-Presse et repris par plusieurs médias internationaux, il a soutenu que l’innovation ne devait pas être soumise à une « bureaucratie centralisée » susceptible d’entraver la compétitivité américaine.[26]

Cette position ne saurait être interprétée comme un refus de toute coopération internationale. Les États-Unis demeurent engagés dans des enceintes telles que le G7, notamment à travers le processus dit d’Hiroshima sur l’IA, et participent aux travaux de l’OCDE relatifs aux principes de l’IA adoptés en 2019. Toutefois, l’administration américaine distingue nettement coopération et gouvernance centralisée contraignante.

Le rejet d’un régime mondial unifié répond à plusieurs objectifs stratégiques. Il vise d’abord à préserver la marge de manœuvre normative nationale dans un secteur considéré comme déterminant pour la sécurité nationale et la compétitivité économique. Il s’inscrit ensuite dans une logique de rivalité systémique avec la Chine, dans laquelle la maîtrise des technologies d’IA est perçue comme un facteur clé de supériorité militaire et industrielle. Enfin, il reflète la volonté de protéger l’écosystème des grandes entreprises technologiques américaines, dont la capacité d’innovation rapide pourrait être affectée par des contraintes réglementaires internationales rigides.

En ce sens, la position américaine ne relève pas d’un simple désaccord technique sur les modalités de régulation, mais d’une conception particulière de l’ordre international technologique : un ordre fondé sur la compétition entre puissances, la diffusion de standards par le marché et la préservation de la souveraineté décisionnelle. Là où l’Union européenne cherche à projeter un modèle normatif structuré, les États-Unis privilégient une architecture plus flexible, où la puissance économique et l’avance technologique jouent un rôle déterminant dans la définition des standards de facto.

Cette divergence nourrit la fragmentation de la gouvernance mondiale de l’intelligence artificielle. Elle soulève une question centrale pour les relations internationales contemporaines et pour définir les stratégies tant industrielles que normatives ou encore pour les grands choix diplomatiques dans la  définition des alliances de l’avenir  : l’IA deviendra-t-elle l’objet d’un régime international structuré, comparable à ceux établis dans d’autres domaines technologiques sensibles, ou demeurera-t-elle un champ de rivalité normative dominé par les stratégies nationales des grandes puissances ? Les Etats-Unis semblent actuellement opter pour la seconde approche.

III. Les modèles asiatiques de gouvernance de l’intelligence artificielle : souveraineté technologique, encadrement étatique et pragmatisme stratégique

L’analyse de la fragmentation normative de la gouvernance mondiale de l’intelligence artificielle ne saurait se limiter au face-à-face transatlantique. Il faut donc se tourner vers l’Asie et observer que les puissances asiatiques ont développé des cadres de régulation distincts, révélateurs de conceptions différenciées du rapport entre État, marché et technologie. La Chine a opté pour un encadrement juridique dense, étroitement articulé à ses objectifs politiques et sécuritaires ; le Japon et la Corée du Sud privilégient des approches plus souples et adaptatives, combinant lignes directrices et stratégies industrielles ; Taïwan, enfin, cherche à concilier ouverture économique, sécurité nationale et alignement sur les standards démocratiques. L’examen comparé de ces modèles éclaire les logiques géopolitiques à l’œuvre dans la structuration régionale de la gouvernance de l’IA.

La Chine : régulation proactive et contrôle politique des architectures numériques

La République populaire de Chine a été l’un des premiers États à adopter des textes spécifiques encadrant les algorithmes et les services d’intelligence artificielle. Dès 2021, l’Administration du cyberespace de Chine a adopté les Provisions on the Management of Algorithmic Recommendation Services in Internet Information Services, imposant des obligations de transparence et de conformité aux plateformes numériques utilisant des systèmes de recommandation algorithmique.[27] Ces dispositions exigent notamment que les fournisseurs respectent « les valeurs fondamentales socialistes » et s’abstiennent de produire des contenus susceptibles de menacer la sécurité nationale ou l’ordre public.

En 2022, la Chine a renforcé ce dispositif avec les Provisions on the Administration of Deep Synthesis Internet Information Services, encadrant les technologies de synthèse profonde, y compris les contenus générés artificiellement.[28] Ces règles imposent l’identification explicite des contenus générés par l’IA et prévoient des obligations de vérification d’identité des utilisateurs.

L’étape la plus significative a été franchie en juillet 2023 avec l’adoption des Interim Measures for the Management of Generative Artificial Intelligence Services.[29] Ce texte impose aux fournisseurs de services d’IA générative des obligations de sécurité, de vérification des données d’entraînement et de prévention de la production de contenus illégaux. L’article 4 prévoit que les services doivent « adhérer aux valeurs fondamentales socialistes » et ne pas générer de contenus portant atteinte à la sécurité nationale, à l’unité territoriale ou à la stabilité sociale, suivant des formulations équivalentes à celles qui ont fondé le droit de la concurrence chinois dans la Loi Antimonopole de 2007.[30]

Cette architecture normative s’inscrit dans une stratégie plus large définie par le New Generation Artificial Intelligence Development Plan adopté en 2017 par le Conseil des Affaires d’État, qui fixe l’objectif de faire de la Chine le leader mondial de l’IA d’ici 2030.[31] La régulation chinoise ne vise donc pas à freiner l’innovation, mais à l’orienter et à l’intégrer dans une logique de contrôle politique et de sécurité nationale. L’État y joue un rôle central, tant comme régulateur que comme investisseur stratégique.

Le Japon : soft law, innovation et gouvernance agile

À la différence de la Chine, le Japon privilégie une approche fondée sur des principes directeurs et une régulation souple. Dès 2019, le gouvernement japonais a soutenu au sein du G20 l’adoption des G20 AI Principles, largement inspirés des principes élaborés par l’OCDE. Ces principes insistent sur la promotion d’une IA centrée sur l’humain, la transparence et la responsabilité.

Au niveau interne, le Japon a adopté en 2022 puis actualisé en 2023 des lignes directrices sur l’utilisation responsable de l’IA, sans instaurer de régime législatif horizontal comparable à l’AI Act européen. Le gouvernement met l’accent sur la coopération public-privé et sur la promotion d’un écosystème favorable à l’innovation. 

La politique publique japonaise en matière d’intelligence artificielle repose sur une approche hybride combinant législation stratégique promotionnelle, normes volontaires et lignes directrices éthiques, et coordination gouvernementale centralisée.[32] L’Act on the Promotion of Research, Development and Utilization of Artificial Intelligence-related Technology (souvent appelé AI Promotion Act) a été adopté par la Diète japonaise le 28 mai 2025:[33] cette loi est entrée en vigueur progressivement à partir de juillet 2025, avec une mise en œuvre complète il y a seulement quelques mois en septembre 2025 ; cette loi constitue le premier cadre légal explicite au Japon visant à promouvoir l’innovation et l’utilisation de l’IA tout en mitigeant les risques associés à travers la coopération entre acteurs publics et privés, l’encouragement de la recherche, le renforcement des compétences, et l’élaboration de principes directeurs pour une IA éthique et transparente.[34] Elle institue notamment un AI Strategy Headquarters sous l’autorité directe du Premier ministre, chargé de coordonner les politiques d’IA et d’élaborer des plans directeurs, mais n’impose pas de sanctions pénales directes : l’accent est mis sur le « soft law » (régulation incitative et guidée) plutôt que sur des interdictions strictes ou des amendes, reflétant une préférence japonaise pour une régulation légère favorisant l’innovation et l’interopérabilité sectorielle plutôt qu’une régulation générale obligatoire. Cette stratégie s’inscrit dans le contexte plus large de la vision socio-économique Society 5.0 et d’une coordination continue avec les normes internationales sur l’IA.

Le choix japonais reflète donc une volonté de maintenir une flexibilité normative afin de soutenir la compétitivité de ses entreprises technologiques, tout en affirmant son attachement aux principes démocratiques et à la coopération internationale. La régulation y apparaît davantage comme un instrument d’accompagnement que comme un dispositif contraignant ex ante.

La Corée du Sud : entre ambition industrielle et encadrement juridique progressif

La Corée du Sud a adopté en 2020 une National Strategy for Artificial Intelligence visant à positionner le pays parmi les leaders mondiaux du secteur d’ici 2030. Cette stratégie combine investissements massifs, soutien aux start-ups et développement d’infrastructures de données.

Sur le plan normatif, Séoul a progressivement élaboré des lignes directrices éthiques et envisage l’adoption d’un cadre législatif plus structuré. Des propositions de loi relatives à la promotion et à la régulation de l’IA ont été débattues à l’Assemblée nationale, cherchant à concilier innovation et protection des droits fondamentaux. La Corée du Sud observe attentivement les évolutions européennes et américaines, dans une logique d’équilibre entre compétitivité internationale et crédibilité normative. Tout récemment, la Corée du Sud a mis en place un cadre public de réglementation de l’intelligence artificielle autour du Basic Act on the Development of Artificial Intelligence and the Establishment of a Foundation for Trustworthiness (souvent appelé AI Basic Act), adopté par l’Assemblée nationale et entré en vigueur le 22 janvier 2026 après une période de préparation d’un an.[35] Cette loi-cadre, qui couvre 43 articles et six chapitres, constitue l’un des premiers régimes législatifs complets au monde régissant l’utilisation et le développement de l’IA, avec l’objectif déclaré de renforcer la transparence, la sécurité et la confiance du public tout en soutenant l’innovation.[36] Elle impose notamment des exigences de transparence et d’étiquetage de contenu généré par IAdes obligations de gestion des risques pour les systèmes à fort impact dans des domaines critiques (santé, transport, services financiers, etc.) et la mise en place d’une structure de gouvernance nationale coordonnée sous l’autorité du ministère de la Science et des TIC ; les sanctions en cas de non-conformité peuvent aller jusqu’à 30 millions de wons coréens, mais un délai de grâce d’un an est prévu avant l’application des amendes pour permettre aux acteurs économiques de se conformer. Cette approche vise à équilibrer promotion de la compétitivité internationale et protection des citoyens, et constitue un modèle de régulation nationale qui se place aux côtés du AI Act de l’Union européenne dans le paysage mondial de la gouvernance de l’IA.

Cette approche pragmatique illustre la position intermédiaire d’un État technologiquement avancé mais étroitement inséré dans les chaînes de valeur mondiales, dépendant à la fois des marchés occidentaux et de ses relations économiques avec la Chine.

Taïwan : sécurité technologique et alignement démocratique

Taïwan occupe une position singulière dans l’écosystème mondial de l’IA en raison de son rôle central dans la production de semi-conducteurs avancés, notamment via des entreprises telles que TSMC. La maîtrise des puces de pointe constitue un levier stratégique majeur dans la compétition mondiale pour l’IA.

Le gouvernement taïwanais a adopté des lignes directrices sur l’éthique de l’IA et soutient le développement d’applications industrielles et médicales, tout en veillant à la protection des données personnelles dans le cadre de sa législation sur la protection des informations personnelles. La régulation y demeure relativement souple, mais fortement marquée par les impératifs de sécurité nationale et par la nécessité de maintenir des partenariats étroits avec les États-Unis et l’Union européenne.

A Taïwan, comme au Japon et en Corée du Sud, la situation a évolué de manière marquée dans les derniers mois, en 2025. La régulation et la politique publique de l’intelligence artificielle se sont structurées autour de l’adoption du Artificial Intelligence Basic Act, une loi fondamentale votée le 23 décembre 2025 par l’Assemblée législative (Legislative Yuan) après une phase de préparation conduisant à l’approbation du projet par l’Exécutif en août 2025. Cette loi, qui vise à concilier promotion de l’innovation et gouvernance des risques, établit un cadre national pour le développement, l’application et la supervision de l’IA. Cette loi codifie sept principes directeurs alignés sur des normes internationales — durabilité et bien-être, autonomie humaine, protection de la vie privée et gouvernance des données, cybersécurité et sécurité, transparence et explicabilité, équité et non-discrimination, et responsabilité — et désigne le National Science and Technology Council (NSTC) comme autorité compétente pour coordonner la mise en œuvre, tandis que le Ministère des Affaires numériques (MODA) doit élaborer des cadres de classification des risques d’IA et des lignes directrices pratiques.[37] Le texte oblige aussi à promouvoir la recherche, l’équipement en infrastructures, la protection des droits du travail face à l’automatisation et l’équité numérique, tout en établissant un comité stratégique national sur l’IA, présidé par le Premier ministre, pour guider les orientations politiques.[38] Cette approche met l’accent sur une gouvernance fondée sur des principes, la coordination intersectorielle et l’équilibre entre compétitivité technologique et garanties sociétales, plutôt que sur des sanctions administratives immédiates pour le secteur privé.[39]

Dans le contexte des tensions croissantes avec Pékin, la gouvernance de l’IA à Taïwan est indissociable des enjeux de souveraineté technologique et de résilience stratégique. L’île cherche à consolider sa position comme acteur indispensable des chaînes d’approvisionnement mondiales, tout en s’inscrivant dans le camp des démocraties technologiques.

À travers ces modèles asiatiques se dessinent des conceptions profondément différenciées de la relation entre technologie, État et ordre international. La Chine articule régulation et contrôle politique dans une perspective de puissance globale ; le Japon et la Corée du Sud privilégient une régulation souple intégrée à des stratégies industrielles ; Taïwan lie gouvernance de l’IA et sécurité stratégique. Cette diversité confirme que la fragmentation normative de l’intelligence artificielle n’oppose pas seulement l’Europe et les États-Unis, mais s’inscrit dans une recomposition plus large de l’ordre technologique mondial.

IV. Enjeux, conséquences et perspectives géopolitiques de la fragmentation normative de l’IA

La diversité des approches réglementaires analysées dans les sections précédentes révèle une fragmentation croissante de la gouvernance mondiale de l’intelligence artificielle. Cette situation ne se limite pas à un décalage entre modèles juridiques : elle constitue un facteur stratégique, économique et politique majeur dans les relations internationales contemporaines. L’Union européenne, les États-Unis, la Chine et les puissances asiatiques expriment des logiques de souveraineté, de compétitivité et de projection normative qui se conjuguent pour produire un paysage international fragmenté, où la définition de standards communs est incertaine et où l’IA devient un enjeu de puissance.

a. Les implications géopolitiques majeures

Sur le plan géopolitique, la fragmentation normative entraîne une course à la standardisation de facto par les acteurs dominants. Les États-Unis, en privilégiant la flexibilité et l’autorégulation sectorielle, favorisent l’émergence de standards par les grandes entreprises technologiques, qui deviennent des références globales. L’Union européenne, par le biais de l’AI Act, tente d’imposer un modèle de régulation ex ante, fondé sur la protection des droits fondamentaux, susceptible de s’imposer aux acteurs internationaux souhaitant accéder au marché européen.[40] Le tableau en annexe II ci-après sur le top 20 des entreprises d’AI dans le monde est éloquent : la première – et unique – entreprise de l’AI d’une nationalité européenne, l’allemande SAP, n’arrive qu’à la seizième place ! Les dix premières sont issues des Etats-Unis. La Chine case cinq entreprises entre la dixième et la vingtième place. Taïwan et le Japon casent une entreprise respectivement à la onzième et dix-huitième place.

Cette dualité de normes crée des tensions potentielles dans le commerce et la coopération technologique. Les entreprises internationales doivent naviguer entre des obligations européennes contraignantes et un environnement américain plus souple, tout en tenant compte des régulations chinoises strictes et orientées politiquement. Les tensions sont particulièrement visibles dans les secteurs stratégiques, comme les plateformes de traitement de données massives, les systèmes de reconnaissance biométrique et les modèles d’IA générative à large échelle.

La fragmentation normative a également des implications pour la sécurité nationale. L’IA, en tant que technologie duale, combine usages civils et militaires. Les États-Unis et la Chine considèrent l’IA comme un facteur clé de supériorité technologique et militaire, ce qui explique le refus américain d’une gouvernance mondiale centralisée et l’encadrement chinois strict et politique.[41] L’Union européenne, bien que moins focalisée sur l’aspect militaire, voit dans le contrôle des standards un levier de puissance normative et d’influence internationale.

b. Conséquences économiques et industrielles
(
La Revue de Presse est en ligne https://jovanovic.com/blog.htm ( ou quotidien.com ) le hit-parade des IA en tant que traders - la pomme de terre a pris 704% - le M2 vous donne le futur de l'or et de la bourse - Manipulation de l'or - Les BC raflent tout - @commerzbank exécute 3000 de ses banquiers - @AnthropicAI et @claudeai - Spécial @billgates @WHO Epstein et Hantavirus - Lingots d'argent dispos - et bcp bcp + RV à NICE le ven 29 mai et conf le 30 mai dès 14h (enregistrez vous: https://www.billetweb.fr/conference-pierre-jovanovic&src... ) - les photos de Vierzon, Bruxelles et Clermond en ligne jovanovic.com/genie.htm - Amitiés ❤️ ❤️❤️ à vous toutes et tous... un extrait: LA POMME DE TERRE ET LES VACHES PULVERISENT LES CRYPTOS
du 11 au 15 mai 2026
Le monde de la crypto est en émoi. Les passionnés de haute techno, d'ordinateurs, et d'échanges / paiements instantanés avec du BTC ou de l'Ethereum ont découvert que le prix au kilo de la pomme de terre (monde high tech Vs monde agricole) a dépassé les rendements de leurs cryptos préférées.

photo: POMME6DE6TERRE6VS6ETHEREUM6MAI2026.JPG

Ash Crypto en est dégoûté: «si vous aviez placé 125.000 dollars en avril dans les patates, vous seriez millionnaire aujourd'hui car le prix au kilo a pris 704%. Mon pote, on est même dépassés par des simples patates (...) Les 125.000 investis dans l'ETH il y a 5 ans ne valent plus que 73.400 dollars, alors que la même somme investie il y a juste 1 mois vaut maintenant 1.000.000 de dollars ».

photo: vaches-chicago-mai2026.jpg

S'il n'y avait que la pomme de terre! Au CME de Chicago, le bétail, lui, a pris 525% depuis 2022 constate Hedgeye. Amusant car Blythe Masters, à l'époque, avait formalisé tout cela: «seules les matières premières donnent une garantie totale car on en aura toujours besoin ».

Les agriculteurs producteurs de pommes de terre ont pris leur revanche sur les technos et cela vous montre à quel point ils sont toujours aussi déconnectés de la réalité. A nouveau, la phrase de Lénine «l'éternel retour du concret» se rappelle à leur bon souvenir. Le plus drôle est que certains producteurs américains exigent désormais (voir le mois dernier) d'être pays non pas en Bitcoins mais en pièces d'or. Revue de Presse par Pierre Jovanovic © 2008-2026 ➤ NICE - CANNES - MONACO Dédicace le ven 29 apm à la librairie Osiris Nice + le samedi 30 mai CONFERENCE « Sauvez votre Epargne » réservez votre place lien ici de 14h30 à 18h00 Splendid Hôtel, Nice ➤ TOURS sam 6 juin 2026 - ➤ SAINT MALO sam 13 juin 2026 - ➤ PARIS sam 27 juin 2026 - ➤ CONFLANS ST HONORINE sam 7 novembre 2026 - ➤ LYON sam 14 novembre 2026 - ➤ BRUXELLES sam 5 décembre 2026 - ❤ Soutenez cette Revue de Presse en commandant ici (lien) - les 2008, 666, 777 & 888 favoris des lecteurs ✸ La Revue de Presse continue sur le fil X ici Abonnez-vous ➤ Les videos des livres sont ici — Recevez le catalogue couleurs gratuit chez vous. ➤ Partagez cette information (et envoyez-la aussi à votre banquier) par :)

 

On vient d’observer la dominance des entreprises américaines présentes dans les dix premières places. La divergence des régulations influence la dynamique industrielle globale. Les grandes entreprises américaines, telles que OpenAI et Google DeepMind, tirent parti d’un cadre flexible favorisant l’innovation rapide et l’expérimentation. L’AI Act européen impose, en revanche, des contraintes lourdes sur la conformité et la documentation, ce qui peut ralentir l’entrée sur le marché mais renforcer la confiance des consommateurs et des institutions publiques, avec une seule entreprise dans les vingt premières places.[42]

La régulation chinoise, orientée vers la sécurité et la conformité aux directives politiques, encourage les entreprises nationales à aligner leurs innovations sur les priorités stratégiques de l’État, limitant l’influence étrangère dans le marché intérieur et consolidant des champions locaux. Le Japon, la Corée du Sud et Taïwan adoptent des modèles intermédiaires, cherchant à équilibrer innovation, sécurité et compétitivité.

L’ensemble de ces stratégies produit un écosystème global fragmenté, où la maîtrise des standards de l’IA devient un facteur clé de compétitivité économique et de positionnement géostratégique.

c. Enjeux pour la gouvernance internationale

Cette fragmentation pose des défis majeurs pour la coordination internationale. Les instances multilatérales, telles que l’OCDE, le G7 ou l’ONU, ont initié des principes et des recommandations, mais leur portée reste limitée face à la divergence des approches nationales. Le risque est celui de l’émergence de « blocs normatifs » : un bloc transatlantique influencé par l’Union européenne et les États-Unis, un bloc sino-centré avec des normes orientées politiquement, et des acteurs asiatiques intermédiaires qui ajustent leurs régulations selon les opportunités économiques et stratégiques.

Cette situation alimente également des tensions diplomatiques et commerciales, les États cherchant à imposer leurs standards comme condition d’accès aux marchés ou d’investissements technologiques. Elle peut générer des phénomènes de compliance fragmentation, où les entreprises internationales doivent simultanément satisfaire des régulations divergentes, augmentant les coûts et la complexité de la conformité.[43]

 d. Perspectives et stratégies d’avenir

Face à cette fragmentation, plusieurs scénarios sont envisageables. Le premier consiste en une convergence progressive vers des standards internationaux harmonisés, portée par des négociations multilatérales et la diffusion des bonnes pratiques, à l’instar de la régulation environnementale ou du commerce numérique. Le second scénario, plus probable à court et moyen terme, est celui d’une coexistence de régulations nationales et régionales, avec des effets d’entraînement partiels et des tensions commerciales et technologiques persistantes.

Pour l’Union européenne, le défi est de maintenir sa capacité normative tout en facilitant l’interopérabilité avec les autres grands acteurs. Pour les États-Unis, il s’agit de préserver la compétitivité et l’innovation tout en répondant aux préoccupations éthiques et sécuritaires. La Chine poursuit une stratégie d’encadrement étroit et de contrôle politique, tandis que les puissances asiatiques intermédiaires ajustent leurs cadres pour maximiser leurs avantages technologiques et économiques.

En conclusion, la fragmentation de la gouvernance mondiale de l’IA illustre la relation complexe entre droit, puissance et stratégie internationale. Elle souligne que l’intelligence artificielle n’est pas seulement un objet technique ou économique, mais un levier de pouvoir et un instrument de projection normative, dont la régulation devient un terrain de compétition géopolitique. La tension entre souveraineté nationale et coopération internationale sera déterminante pour l’évolution future de l’écosystème global de l’IA.

Conclusion

L’analyse des régulations de l’intelligence artificielle à l’échelle mondiale met en lumière une dynamique paradoxale : alors que l’IA représente un enjeu stratégique universel, les modèles de gouvernance sont profondément divergents, reflétant des visions différentes de la relation entre État, marché et société. L’Union européenne incarne un modèle normatif structuré, centré sur la protection des droits fondamentaux et l’harmonisation du marché intérieur. Les États-Unis privilégient la flexibilité, la régulation sectorielle et la préservation de la compétitivité de leurs entreprises, tout en refusant toute gouvernance mondiale centralisée. La Chine déploie un encadrement juridique strict, orienté par des priorités politiques et sécuritaires, tandis que le Japon, la Corée du Sud et Taïwan adoptent des approches intermédiaires, conciliant innovation, sécurité et coopération internationale.

Cette diversité traduit une fragmentation normative croissante, où l’IA devient simultanément un objet économique, un instrument de puissance et un terrain de rivalité géopolitique. Elle pose plusieurs défis majeurs : la coexistence de standards divergents, le risque de tensions commerciales et diplomatiques, la nécessité pour les entreprises de naviguer dans des cadres juridiques complexes, et la question de la sécurité des technologies duales dans un contexte de compétition stratégique.

Pour les relations internationales, la fragmentation de la gouvernance de l’IA souligne la limite des approches multilatérales classiques face à des technologies émergentes à fort impact sociétal et militaire. Elle suggère que la définition des standards globaux dépendra moins de traités internationaux contraignants que de l’influence combinée des grandes puissances et de leurs écosystèmes industriels et financiers. Dans ce contexte, l’Union européenne apparaît comme une puissance normative en quête de diffusion extraterritoriale de ses standards, tandis que les États-Unis et la Chine exploitent la régulation pour affirmer leur souveraineté technologique et leur avance compétitive.

La trajectoire future de la gouvernance mondiale de l’IA dépendra donc d’une combinaison de facteurs : la capacité des États à aligner leurs stratégies nationales, l’émergence de standards techniques de facto, la pression des marchés et des consommateurs, et la nécessité de gérer les risques éthiques, sociaux et sécuritaires. L’intelligence artificielle se confirme ainsi comme un champ de puissance où droit, politique et géopolitique sont inextricablement liés, et où la fragmentation normative constitue à la fois un défi et un levier stratégique pour les grandes puissances.

Cette analyse suggère que la compétition normative sera un élément central des relations internationales au XXIᵉ siècle, et que la maîtrise de l’IA — technique, juridique et stratégique — déterminera en partie le positionnement et l’influence des États sur la scène mondiale.


François Souty, PhD
Intervenant en géopolitique à Excelia Business School, La Rochelle et Paris-Cachan
Intervenant en droit et politique de la concurrence de l’UE à la Faculté de droit de Nantes 

Sources :

Capitalisation et revenus IA : estimations basées sur les classements Largest AI companies by market capitalization 2025 (Capital.com), les rapports financiers publics 2025-2026 et les analyses sectorielles disponibles en accès libre.
– Source : Largest AI companies by market cap 2025, Capital.com, consulté février 2026.
– Source: Top AI & Machine Learning Revenue Leaders 2025, analyses SIG AI Rankings, AEO SIG.

Valorisation des sociétés privées (OpenAI, Anthropic, ByteDance) : estimations tirées de communiqués institutionnels, dépêches financières et revues spécialisées. Pour les sociétés non cotées (ex. OpenAI, Anthropic), les valorisations sont des estimations récentes communiquées publiquement.
– Source : Financial Times, OpenAI raises $X billion, 2026 ;
– Source : The Guardian, Anthropic funding round, 2026.

Business model et revenus IA : estimation fondée sur les documents annuels ou intermédiaires (rapports 2025/2026) des entreprises, indiquant la part de revenus liée à des activités IA, cloud ou plateformes intelligence avancée.

[1] Michael Kratsios, Remarks by Director Michael Kratsios at the India AI Impact Summit, India AI Impact Summit, New Delhi, 20 février 2026, Office of Science and Technology Policy (texte intégral consulté en ligne), disponible sur The White House website, https://www.whitehouse.gov/articles/2026/02/remarks-by-director-michael-kratsios-at-the-india-ai-impact-summit/?utm_source=chatgpt.com. Aussi, « White House adviser says US “totally” rejects global AIgovernance », article AFP (dépêches du 20 février 2026) relatant les déclarations de Michael Kratsios à New Delhi lors du India AI Impact Summit 2026, rapportées par plusieurs organes de presse internationale. 

[2] Ibid. Voir plus particulièrement les passages où Kratsios critique l’idée d’une gouvernance normative centralisée et appelle à promouvoir « l’adoption et la prospérité humaine » via l’IA. « No Euro tone again: US rejects global AI governance, pushes ‘sovereign’ American stack », New Indian Express, 20 février 2026 

https://www.newindianexpress.com/world/2026/Feb/20/no-euro-tone-again-us-rejects-global-ai-governance-pushes-sovereign-american-stack?utm_source=chatgpt.com.

[3] UNGA 80, US rejects a centralised AI rulebook, compte rendu des débats à l’Assemblée générale des Nations Unies où les États-Unis ont rejeté une gouvernance centralisée de l’IA, favorisant la souveraineté nationale et la coopération entre États. « US promotes AI sovereignty, exports at India AI Impact Summit 2026 », Business Standard, 20 février 2026, https://www.business-standard.com/technology/tech-news/us-promotes-ai-sovereignty-exports-at-india-ai-impact-summit-2026-126022000532_1.html?utm_source=chatgpt.com.

[4] Règlement européen sur l’intelligence artificielle, dit AI Act, adoptée en 2024 par les institutions de l’Union européenne pour encadrer les « risques » liés à l’IA selon des niveaux de risque gradués (textes et commentaires officiels des institutions européennes disponibles dans la documentation juridique de l’UE). Soulignons que l’habitude a été prise, notamment avec le Digital Markets Act, de nommer « Acts » en anglais la catégorie de textes relevant de l’appellation de « Règlement » au sens des traités européens, pour leur donner une lisibilité équivalente aux textes de lois aux Etats-Unis. Pour autant tous les Règlements ne sont pas dénommés en anglais « Acts » mais « Regulations ».

[5] Commission européenne, White Paper on Artificial Intelligence – A European approach to excellence and trust, COM(2020) 65 final, Bruxelles, 19 février 2020, p. 2–4.

[6] Commission européenne, Commission appoints expert group on AI and launches the European AI Alliance, Press release, 14 June 2018Le AI HLEG a été constitué pour apporter un conseil stratégique à la Commission sur sa stratégie européenne en matière d’IA, d’élaborer des recommandations de politique publique, et de traiter des enjeux éthiques, juridiques et sociaux de l’intelligence artificielle dans le cadre de la mise en œuvre de la Communication « Artificial Intelligence for Europe » publiée en avril 2018. Le groupe, composé d’experts indépendants issus du monde académique, de la société civile et de l’industrie, devait également contribuer à l’élaboration de lignes directrices éthiques et d’orientations pour une IA digne de confiance en Europe.

[7] Commission européenne, 2030 Digital Compass: the European way for the Digital Decade, COM(2021) 118 final, Bruxelles, 9 mars 2021.

[8] Proposition de règlement du Parlement européen et du Conseil établissant des règles harmonisées concernant l’intelligence artificielle (Artificial Intelligence Act), COM(2021) 206 final, 21 avril 2021, fondée sur l’article 114 TFUE.

[9] AI Act, considérant 5.

[10] Ibid., art. 5.

[11] Ibid., art. 8 à 15.

[12] Ibid., art. 59 et s.

[13] Ibid., art. 99.

[14] Ian Manners, “Normative Power Europe: A Contradiction in Terms?”, Journal of Common Market Studies, vol. 40, no 2, 2002, p. 235–258.

[15] Ursula von der Leyen, Déclaration sur l’accord politique relatif à l’AI Act, Commission européenne, communiqué de presse, Bruxelles, 9 décembre 2023.

[16] Capital.com, Largest AI companies by market capitalization 2025, consulté février 2026 : aucune société européenne dans le top 15.

[17] SAP, rapport annuel 2025, SAP Integrated Report 2025, pages 48‑52, Walldorf, Allemagne : estimation de l’activité IA et position dans les classements mondiaux.

[18] Voir notamment nos articles Souty, F., « Digital Markets Act européen, politique de la concurrence et souveraineté : conséquences géopolitiques et impact stratégique du droit sur l’économie digitale », Le Diplomate Média, 4 février 2026 et « Politique de la concurrence et Antitrust en Europe et aux Etats-Unis : perspectives transatlantiques et enjeux géopolitiques », Le Diplomate Médias, 30 décembre 2025. Voir aussi l’excellente analyse de Babinet, G., « Le véritable sujet de l’IA, c’est l’antitrust », Les Echos, mercredi 18 février 2026, p. 12 qui explique fort justement que « le débat sur l’IA est moins un débat sur le droit du travail qu’un débat de politique de la concurrence ».

[19] Souty, F., Cyberespace, sécurité, souveraineté, technologie et rivalités géopolitiques mondiales : enjeux juridiques, régulation et priorités pour l’Union européenne et pour la France », Le Diplomate Média, 11 février 2026. 

[20] Federal Trade Commission, “Using Artificial Intelligence and Algorithms,” Business Blog, 8 avril 2020 ; voir également FTC, Aiming for Truth, Fairness, and Equity in Your Company’s Use of AI, 19 avril 2021.

[21] National Institute of Standards and Technology, Artificial Intelligence Risk Management Framework (AI RMF 1.0), U.S. Department of Commerce, janvier 2023.

[22] Executive Office of the President, Executive Order on the Safe, Secure, and Trustworthy Development and Use of Artificial Intelligence, 30 octobre 2023, Federal Register.

[23] Le terme « red teaming » de contenus avancés vient des pratiques de cybersécurité et d’évaluation des risques, mais appliqué à l’IA générative et aux contenus numériquesC’est une approche proactive pour tester, détecter et évaluer les vulnérabilités ou les risques associés à des contenus produits par l’IA.

[24] Le filigrane de contenus (ou content watermarking en anglais) est une technique qui consiste à insérer dans un contenu des informations invisibles ou visibles qui permettent d’identifier sa source, son propriétaire ou sa traçabilité. C’est un peu comme signer ou marquer un document ou une image pour montrer qu’il appartient à quelqu’un, ou pour suivre sa circulation dans un contexte de protection des droits d’auteurs, de traçabilité ou encore d’authentification de contenus générés par l’IA.

[25] Déclarations rapportées lors du India AI Impact Summit 2026, New Delhi, 20 février 2026, op.cit.

[26] Dépêche AFP, 20 février 2026, déjà citée, reprise notamment par Stratégies, 20 février 2026 ; voir également US promotes AI sovereignty, Business Standard, 20 février 2026 également déjà cité.

[27] Cyberspace Administration of China, Provisions on the Management of Algorithmic Recommendation Services in Internet Information Services, adoptées le 31 décembre 2021, entrées en vigueur le 1er mars 2022.

[28] Cyberspace Administration of China, Provisions on the Administration of Deep Synthesis Internet Information Services, 25 novembre 2022, entrées en vigueur le 10 janvier 2023.

[29] Cyberspace Administration of China et al., Interim Measures for the Management of Generative Artificial Intelligence Services, 13 juillet 2023, entrées en vigueur le 15 août 2023.

[30] Souty F. « Loi chinoise antimonopole – Bilan : L’Autorité chinoise de la concurrence tire un premier bilan des deux années d’application de la loi antimonopole », Concurrences N° 4-2010, 12 août 2010, Art. N° 33180, pp. 235-238 

[31] State Council of the People’s Republic of China, New Generation Artificial Intelligence Development Plan, 8 juillet 2017.

[32] « AI Regulation in Japan: Policy Framework & Governance », Nemko Digital, 2026, pp. 2-4 (explication des objectifs nationaux de l’Act, de l’établissement de l’AI Strategy Headquarters sous le Cabinet Office et de l’intégration de lois sectorielles existantes pour le droit applicable, montrant l’approche dite de « light touch regulation »)

[33] International Bar Association, Japan’s emerging framework for responsible AI: legislation, guidelines and guidance, 12 nov. 2025, section sur l’AI Promotion Act .

[34] Vincent Fauchoux, « Japan’s 2025 AI Promotion Act: Structuring Innovation Through Soft Regulation », Tech & DATA, 2 juin 2025, pp. 1-3 (présentation des objectifs, des axes principaux et de l’architecture institutionnelle de la loi, soulignant l’absence de sanctions directes mais la promotion de la coopération entre parties prenantes).

[35] «South Korea Enacts World’s First Comprehensive AI Law, Balancing Innovation and Safety», Asia Daily, 25 janv. 2026.

[36] « South Korea’s AI Basic Act Takes Effect Jan 22, 2026 », AI Business Weekly, 22 janv. 2026. Cet article fournit une série d’informations précises sur l’entrée en vigueur, la structure institutionnelle, le délai de grâce et les sanctions, y compris le contexte réglementaire plus large (articles 25-43, dispositions applicables à la gouvernance nationale.

[37] Ministry of Digital Affairs (R.O.C., Taïwan), Legislative Yuan Passes Artificial Intelligence Fundamental Act in Third Reading, Laying Foundation for AI Innovation, Security Governance in Taiwan, communiqué du 24 déc. 2025 décrivant l’AI Basic Act et ses objectifs de promotion d’une IA centrée sur l’humain et la protection des droits fondamentaux. 

[38] Baker McKenzie, Taiwan: AI Basic Act, fact sheet, 9 jan. 2026. Note qui précise les obligations institutionnelles (NSTC, MODA) et les sept principes directeurs alignés avec des normes internationales en matière de gouvernance de l’IA. https://www.bakermckenzie.com/en/insight/publications/2026/01/taiwan-ai-basic-act. AI Basic Act passed, tries to balance AI promotion with social welfare, Focus Taiwan (CNA), 23 déc. 2025 : donne des détails sur les principes, la création du comité national et les mesures de soutien pour l’industrie et l’infrastructure. 

[39] White & Case LLP, AI Watch: Global regulatory tracker – Taiwan, jan. 2026, discute du cadre actuel, qui repose principalement sur une régulation de principe et des lignes directrices plutôt que sur des sanctions directes, positionnant Taïwan dans une approche « à faible contrainte ».

[40] Commission européenne, Artificial Intelligence Act, 2024, cf. considérants et articles sur la portée extraterritoriale et la protection des droits fondamentaux.

[41] Cyberspace Administration of China, Interim Measures for the Management of Generative Artificial Intelligence Services, 13 juillet 2023, article 4.

[42] Ursula von der Leyen, communiqué de presse sur l’adoption de l’AI Act, Commission européenne, 9 décembre 2023.

[43] OECD, AI Policy Observatory: Mapping AI Regulations, 2025: https://www.oecd.ai/en/policy-regulations

 


 

C) - L'IA d'Anthropic progresse à une vitesse alarmante selon les experts en sécurité

Un mois après son lancement, Mythos Preview surpasse déjà ses propres performances et dépasse GPT-5.5 d'OpenAI sur les tests cyber de l'AISI britannique.

Le Claude Mythos d'Anthropic, que l'entreprise considère comme trop puissant pour être diffusé au grand public, semble avoir déjà acquis de nouvelles capacités.

Dans un billet de blog, l'Institut britannique de sécurité de l'IA (AISI) indique avoir testé une version plus récente de Mythos, qui surpasse à la fois ses résultats précédents et le GPT-5.5 d'OpenAI, seulement un mois après la sortie initiale de Mythos. « Le nouveau point de contrôle Mythos Preview a complété nos deux cyber-parcours, résolvant "The Last Ones" dans 6 tentatives sur 10 et "Cooling Tower", jusque-là insoluble, dans 3 tentatives sur 10. C'était la première fois qu'un modèle complétait le second de nos deux cyber-parcours. »

Lorsqu'Anthropic a annoncé Mythos Preview et le Projet Glasswing, l'alliance de test en cybersécurité formée avec des entreprises technologiques et des laboratoires d'IA concurrents, auxquels un accès limité à Mythos a été accordé, le mois dernier, l'AISI britannique l'avait évalué, concluant que le modèle « représente un bond en avant par rapport aux modèles frontières précédents, dans un paysage où les performances en cybersécurité progressaient déjà rapidement ».

Cette perspective tierce a contribué à nuancer les affirmations selon lesquelles l'engouement autour de Mythos relevait soit uniquement du marketing, soit, à l'autre extrême, d'un bouleversement catastrophique des capacités de l'IA. La réalité de ce que le modèle peut faire se situe probablement entre les deux.

Le test mis à jour de l'AISI illustre également que les améliorations de capacités ne se limitent pas aux nouvelles versions d'un modèle, mais peuvent survenir au sein d'une même version.

Une menace cyber qui s’emballe

L'AISI a noté que les modèles d'IA progressent rapidement dans leur capacité à accomplir des tâches cybernétiques, avec des implications sérieuses pour la cybersécurité, notamment compte tenu de l'aptitude de Mythos à détecter les vulnérabilités logicielles.

« En février 2026, nous estimions en interne que la durée des tâches cyber que les modèles d'IA pouvaient accomplir avait doublé toutes les 4,7 mois depuis fin 2024, déjà une accélération par rapport à notre estimation de novembre 2025, qui était de 8 mois. Depuis, l'AISI a rendu compte de deux nouveaux modèles, Claude Mythos Preview et GPT-5.5 d'OpenAI, qui ont largement dépassé ces deux tendances de doublement. »

Les auteurs ajoutent qu'il est difficile de savoir si cette tendance se maintiendra ou si ces résultats indiquent une hausse durable. Mythos et GPT-5.5 pourraient simplement constituer des ruptures notables dans l'évolution globale des modèles.

Des tests poussés à leurs limites

L'AISI a néanmoins précisé que plusieurs inconnues n'ont pas pu être prises en compte dans ses tests. Ceux-ci plafonnaient les tâches à 2,5 millions de tokens afin de mieux comparer les performances dans le temps, ce qui « sous-estime intrinsèquement ce que les modèles frontières sont capables de faire », selon les auteurs.

« Mythos Preview et GPT-5.5 présentent de larges marges d'erreur supérieures en raison de taux de réussite proches de 100 % sur les tâches les plus longues de notre suite cyber restreinte, même avec la limite de 2,5 M de tokens. Nos tâches ne sont pas non plus suffisamment longues pour déterminer à quel point la fiabilité des modèles se dégraderait au-delà. Cela place certains des modèles les plus récents à la limite de ce que notre suite de tests restreinte peut mesurer. »

Jusqu'où peut aller Mythos ?

Si ce plafond rend difficile la mesure du point de défaillance des modèles, il signifie aussi que les taux de réussite seraient bien plus élevés sans cette contrainte, si élevés que « les horizons temporels deviennent impossibles à calculer ». Des modèles disposant d'un plus grand accès aux tokens et d'une infrastructure agentique complexe seraient bien plus performants.

« Une limite de 2,5 M de tokens est relativement basse, dans notre expérience de cyber-parcours, nous utilisons jusqu'à 100 M de tokens et constatons que les performances continueraient probablement à s'améliorer au-delà de ce budget, en particulier pour les modèles récents, qui bénéficient de manière disproportionnée de limites de tokens plus élevées. »


Source : ZDNET.com


 

D) - Pour nous être utile, l'IA ne doit pas penser à notre place

Le débat public sur l'impact de l'intelligence artificielle se concentre sur la perte d'emplois. Mais il est un risque bien plus grand, que l'économiste américain Dani Rodrik identifie à partir de sa propre pratique de l'IA.

Il y a quelques années encore, l'IA semblait n'être qu'un simple gadget : un chatbot qui simulait l'intelligence en assemblant des phrases complètes en réponse aux demandes des utilisateurs, mais qui, en fin de compte, n'était guère plus sophistiqué qu'un moteur de recherche avancé. Pourtant, aujourd'hui, elle s'est révélée être un outil incroyable, capable d'accomplir des tâches que je n'aurais jamais cru possibles de mon vivant.

Par exemple, j'ai utilisé l'IA pour localiser des ensembles de données en ligne, les manipuler, effectuer des tests statistiques et produire des tableaux et des graphiques soignés, accompagnés de commentaires pertinents sur la signification des résultats, leur lien avec la littérature scientifique, ainsi que les forces et les faiblesses de l'analyse. En moins d'une demi-heure, l'IA peut accomplir un travail qui prendrait plusieurs jours à un assistant de recherche.

https://www.lesechos.fr/idees-debats/editos-analyses/pour-nous-etre-utile-lia-ne-doit-pas-penser-a-notre-place-2231342?

 


E) - ChatGPT sur iPhone : OpenAI est vexé et cherche un moyen pour rompre avec Apple

Deux ans après avoir intégré son ChatGPT à l'iPhone, OpenAI déplore le manque de retombées de cet accord, qu'il cherche à dénoncer. Apple lui, écrit son avenir dans l'IA avec Google.


l n'y aura pas de ménage à trois entre Apple, Google et OpenAI. Pendant que le fabricant de l'iPhone se prépare à révéler le 8 juin les fruits de sa nouvelle union avec Google dans l'IA, son ancien partenaire OpenAI cherche à rompre activement.

Apple avait fait appel à lui il y a deux ans pour combler ses lacunes dans l'IA, alors que ses développements en interne pataugeaient et que les clients s'impatientaient.

https://www.lesechos.fr/tech-medias/hightech/chatgpt-sur-iphone-openai-est-vexe-et-cherche-un-moyen-pour-rompre-avec-apple-2231801

 

 

Powered By Blogger