Donald Trump veut publier un décret pour empêcher les États américains de réguler l'intelligence artificielle à leur niveau

Pour Donald Trump, le système fédéral américain semble désormais secondaire, du moins en matière d’intelligence artificielle. Le président a annoncé lundi son intention de signer, dans le courant de la semaine, un décret visant à empêcher les États américains de réguler l’IA à leur niveau. "Il ne doit y avoir qu’un seul règlement si nous voulons rester les leaders dans le domaine de l’IA (…) Mais cela ne pourra pas durer si les 50 États, dont beaucoup se comportent mal, interviennent dans les règles et leur application", a-t-il écrit sur son réseau Truth Social.
Ces efforts pour centraliser le contrôle de l’IA se heurtent toutefois à une forte opposition, tant sur le plan politique que juridique. Le mois dernier, le président avait annoncé son intention d’instaurer une "norme fédérale unique" pour encadrer l’intelligence artificielle, dénonçant la "surréglementation" des États. Cette initiative a toutefois déclenché une vive réaction au sein du Parti républicain et parmi les partisans de Trump, qui l’ont accusé de favoriser les intérêts des géants de la tech.
Il y a quelques jours, le PDG de Nvidia, Jensen Huang, s’est lui aussi opposé à l’idée de voir chaque État américain adopter ses propres lois sur l’intelligence artificielle. Face à cette hypothèse jugée dangereuse par l’industrie, les géants de la tech ont contribué à créer un "super PAC" (groupe d'influence, ndlr) baptisé "Leading the Future", destiné à défendre une ligne commune sur le sujet.
"Une réglementation de l’IA État par État paralyserait ce secteur et poserait un problème de sécurité nationale, car nous devons veiller à ce que les États-Unis fassent progresser la technologie de l’IA le plus rapidement possible", a averti Huang au média CNBC. Avant d’insister: "Une réglementation fédérale de l’IA est la solution la plus judicieuse".
Donald Trump a d’ailleurs tenté le mois dernier de pousser les parlementaires à inscrire dans la loi "NDAA" une disposition imposant une “norme fédérale unique” au-dessus des règles locales. Mais le chef de la majorité républicaine à la Chambre, Steve Scalise, a expliqué qu’il n’existait pas, à ce stade, assez de soutien politique pour l’intégrer au texte, même si le Congrès continuera d’explorer cette piste.
Fortes divergences sur la régulation
Les États américains affichent, quant à eux, de fortes divergences sur la régulation de l’IA, avec de nombreux projets de loi en discussion. Dans ce contexte, certains prennent les devants: la Californie reste pionnière avec la loi SB 53 (septembre 2025), qui impose transparence et sécurité aux modèles d’intelligence artificielle. Les entreprises développant les systèmes les plus avancés doivent désormais publier leurs protocoles de sécurité, signaler tout incident grave sous quinze jours et protéger les lanceurs d’alerte. Cette version, adoptée un an après le rejet d’une première mouture jugée trop contraignante par les géants de la tech, survient alors que des investissements colossaux affluent dans l’IA, portés par Google, Meta, OpenAI, Anthropic ou Nvidia.

Au cœur de la loi figure également l’obligation de prévenir et de déclarer tout comportement dangereux des modèles d’IA. Si un système tente de contourner ses garde-fous pour faciliter la production d’armes biologiques ou nucléaires, l’incident doit être signalé. Les promoteurs du texte assurent qu’il s’agit d’une première mondiale, destinée à anticiper des risques aux conséquences potentiellement dramatiques, confirmant "que la sécurité de l’IA est désormais prise très au sérieux".
D’autres États se sont également engagés sur le front de la régulation. Le Texas propose le Responsible AI Governance Act, qui cherche à équilibrer gouvernance et gestion des risques. New York cible la discrimination algorithmique dans le recrutement et l’octroi de crédits, le Massachusetts oblige les assureurs à divulguer leur utilisation de l’IA, tandis que la Floride et le Tennessee interdisent les deepfakes électoraux et protègent les mineurs face aux chatbots. Tout cela se déroule dans un contexte où la question politique de l’IA reste au centre des débats dans une Amérique profondément polarisée.
Une forte opposition locale
En juillet, le Congrès a, comme déjà évoqué, rejeté une tentative des Républicains visant à interdire aux États de réglementer l’intelligence artificielle. Le Sénat avait voté quasi à l’unanimité pour supprimer un moratoire de dix ans sur les réglementations locales avant l’adoption du projet de loi de politique intérieure de Trump. Peu après, l’administration a publié un plan d’action favorable à la Silicon Valley, axé sur la réduction des règles encadrant l’IA afin de renforcer la compétitivité américaine.

Cette initiative a cependant provoqué de vives critiques, alors que de nombreux rapports pointent les risques de l’IA: troubles mentaux, comportements d’automutilation, exposition des enfants à des contenus inappropriés. Le gouverneur de Floride, Ron DeSantis, a dénoncé un "abus de pouvoir du gouvernement fédéral", estimant que priver les États de leur compétence permettrait aux géants du numérique d’échapper à tout contrôle et limiterait la lutte contre la censure en ligne, la protection des enfants et la régulation énergétique des centres de données.
Des centaines d’organisations, syndicats, associations de consommateurs et établissements d’enseignement, ont également appelé le Congrès à maintenir les réglementations étatiques. "Nous sommes engagés dans une lutte pour déterminer qui profitera de l’IA: les PDG des géants de la tech ou le peuple américain", a déclaré Sacha Haworth, du Tech Oversight Project, dénonçant les risques de pertes d’emplois, de hausse du coût de la vie et d’augmentation des factures d’énergie si les géants de la tech restaient sans contrôle.