La réélection de Donald Trump à la présidence des États-Unis pourrait bien initier une reconfiguration profonde des politiques américaines en matière de régulation de l’intelligence artificielle (IA).
Avec une majorité républicaine désormais solidement ancrée au Sénat et probablement à la Chambre des représentants, les grands acteurs de l’industrie technologique, qui se sont fermement opposés à toute régulation fédérale contraignante, voient dans ce virage politique une opportunité d’assouplissement de la régulation. Trump a d’ailleurs exprimé sa ferme intention de démanteler la politique d’IA mise en place par l’administration Biden dès le début de son mandat, rejoignant ainsi les partisans d’une approche minimaliste de la régulation.
L’orientation de Biden s’est manifestée à travers l’AI Executive Order (EO) d’octobre 2023, un décret visant à combler l’inaction législative du Congrès en matière d’IA. Bien que ce décret soit avant tout incitatif, ses directives couvrent un large spectre, allant du soutien au développement de l’IA dans la santé à la mise en place de lignes directrices pour prévenir le vol de propriété intellectuelle. Deux de ses dispositions, toutefois, suscitent une controverse notable : l’une impose aux entreprises de déclarer les protocoles de formation et de sécurité de leurs modèles d’IA ainsi que les résultats des tests de vulnérabilité, et l’autre charge le National Institute of Standards and Technology (NIST) de définir des lignes directrices pour détecter et corriger les biais dans les modèles d’IA.
L’administration Biden avait également renforcé sa vigilance à l’égard des risques de l’IA en créant, en 2022, l’US AI Safety Institute (AISI) sous l’égide du Département du Commerce, un institut dédié à l’analyse des risques posés par les systèmes d’IA, y compris pour les applications militaires. Des partenariats stratégiques ont aussi été conclus avec des géants technologiques comme OpenAI et Anthropic pour tester la fiabilité de nouveaux modèles d’IA. Néanmoins, les critiques favorables à l’administration Trump estiment que ces exigences sont coûteuses et obligent les entreprises à révéler des secrets commerciaux sensibles, menaçant ainsi l’innovation et freinant les progrès technologiques tels que ceux de ChatGPT.
Dans un discours prononcé en décembre dernier à Cedar Rapids, dans l’Iowa, Donald Trump a ainsi déclaré : « Dès le premier jour de mon retour à la Maison-Blanche, j’annulerai l’ordre exécutif de Biden sur l’intelligence artificielle et interdirai l’utilisation de l’IA pour censurer la parole des citoyens américains. » Il reste cependant difficile de prévoir avec précision la teneur des politiques qui pourraient remplacer l’AI EO de Biden, d’autant que les décrets signés par Trump lors de son mandat précédent en matière d’IA visaient principalement à soutenir la recherche et le développement dans ce domaine, tout en recommandant la protection des libertés civiles, de la vie privée et des valeurs américaines.
Pendant sa campagne, l’ex-président a promis d’élaborer une politique en matière d’IA centrée sur la liberté d’expression et le bien-être humain, sans pour autant fournir de détails concrets. Selon Dean Ball, chercheur à l’Université George Mason, une réélection de Trump ouvrirait la voie à une approche de régulation légère, misant sur l’application des législations existantes plutôt que sur la création de nouvelles règles. Un tel modèle pourrait néanmoins inciter certains États, notamment ceux à majorité démocrate comme la Californie, à combler le vide législatif au niveau local.
Des initiatives en ce sens sont déjà en cours : en mars, le Tennessee a légiféré pour protéger les artistes vocaux contre le clonage par IA ; cet été, le Colorado a instauré une approche graduée en fonction du risque pour le déploiement de l’IA, tandis que la Californie, sous l’impulsion du gouverneur Gavin Newsom, a adopté une série de lois sur la sécurité liée à l’IA en septembre, obligeant certaines entreprises à rendre publiques les modalités de formation de leurs modèles d’IA.
Sous une éventuelle administration Trump, la régulation de l’IA pourrait également devenir plus restrictive en matière d’exportations vers la Chine, tout en mettant l’accent sur la sécurité physique plutôt que sur des restrictions réglementaires strictes. Une telle orientation pourrait toutefois avoir des répercussions géopolitiques et économiques de grande envergure, notamment en risquant de faciliter l’essor de régimes autoritaires utilisant l’IA à des fins de surveillance ou de contrôle.
Seul l’avenir nous dira si Donald Trump maintiendra ses engagements de refonte radicale des politiques d’IA. Les États-Unis, en tant que leader technologique mondial, sauront-ils naviguer habilement entre les risques inhérents et les opportunités offertes par l’intelligence artificielle dans les années à venir ?