
Les États ne pourront pas appliquer leur réglementation sur la technologie de l’intelligence artificielle pendant une décennie dans le cadre d’un plan envisagé à la Chambre des représentants des États-Unis. Le législationdans un amendement Accepté cette semaine par le Comité de l’énergie et du commerce de la Chambre, indique qu’aucune subdivision étatique ou politique « ne peut appliquer une loi ou une réglementation régulant des modèles d’intelligence artificielle, des systèmes d’intelligence artificielle ou des systèmes de décision automatisés » pendant 10 ans. La proposition aurait encore besoin de l’approbation des chambres du Congrès et du président Donald Trump avant de pouvoir devenir loi.
Les promoteurs d’IA et certains législateurs ont déclaré que des mesures fédérales étaient nécessaires pour empêcher les États de créer un patchwork de différentes règles et réglementations à travers les États-Unis qui pourraient ralentir la croissance de la technologie. La croissance rapide de l’IA générative depuis que Chatgpt a explosé sur la scène fin 2022 a conduit les entreprises à s’adapter à la technologie dans autant d’espaces que possible. Les implications économiques sont importantes, car les États-Unis et la Chine rationnent pour voir quelle technologie de pays prédominera, mais une IA générative posait la confidentialité, la transparence et d’autres risques pour les consommateurs que les législateurs ont cherché à tempérer.
« Nous avons besoin, en tant qu’industrie et en tant que pays, une norme fédérale claire, quelle que soit », a déclaré à des législateurs Alexandr Wang, fondateur et PDG de la société de données. Audience d’avril. « Mais nous en avons besoin, nous avons besoin de clarté quant à une norme fédérale et avons une préemption pour empêcher ce résultat où vous avez 50 normes différentes. »
Les efforts pour limiter la capacité des États à réguler l’intelligence artificielle pourraient signifier moins de protection des consommateurs autour d’une technologie qui s’infiltre de plus en plus dans tous les aspects de la vie américaine. « Il y a eu beaucoup de discussions au niveau de l’État, et je pense qu’il est important pour nous d’approcher ce problème à plusieurs niveaux », a déclaré Anjana Susarla, professeur à la Michigan State University qui étudie l’IA. « Nous pourrions l’aborder au niveau national. Nous pouvons également l’aborder au niveau de l’État. Je pense que nous avons besoin des deux. »
Plusieurs États ont déjà commencé à réglementer l’IA
La langue proposée empêcherait les États de faire respecter tout règlement, y compris ceux déjà dans les livres. Les exceptions sont des règles et des lois qui facilitent les choses pour le développement de l’IA et celles qui appliquent les mêmes normes aux modèles et systèmes non AI qui font des choses similaires. Ces types de réglementations commencent déjà à apparaître. Le plus grand objectif n’est pas aux États-Unis, mais en Europe, où l’Union européenne a déjà mis en œuvre des normes pour l’IA. Mais les États commencent à se lancer dans l’action.
Colorado passé un ensemble des protections des consommateurs l’année dernière, qui devait entrer en vigueur en 2026. La Californie a adopté plus d’une douzaine Lois l’année dernière. D’autres États ont des lois et des réglementations qui traitent souvent de problèmes spécifiques tels que DeepFakes ou obligent les développeurs en IA à publier des informations sur leurs données de formation. Au niveau local, certaines réglementations traitent également de la discrimination potentielle de l’emploi si les systèmes d’IA sont utilisés dans l’embauche.
« Les États sont partout sur la carte en ce qui concerne ce qu’ils veulent réglementer dans l’IA », a déclaré Arsen Kounian, associée du cabinet d’avocats Mayer Brown. Jusqu’à présent en 2025, les législateurs de l’État ont introduit au moins 550 propositions Autour de l’IA, selon la Conférence nationale des législatures des États. Lors de l’audience du comité de la Chambre le mois dernier, le représentant Jay Obernolte, un républicain de Californie, a signalé le désir de devancer davantage de règlement au niveau de l’État. « Nous avons une quantité limitée de piste législative pour pouvoir résoudre ce problème avant que les États ne deviennent trop loin », a-t-il déclaré.
Alors que certains États ont des lois sur les livres, tous ne sont pas entrés en vigueur ou ont vu une application. Cela limite l’impact potentiel à court terme d’un moratoire, a déclaré Cobun Zweifel-Keegan, directeur général de Washington pour l’Association internationale des professionnels de la vie privée. « Il n’y a pas encore vraiment d’application. »
Un moratoire dissuaderait probablement les législateurs et les décideurs politiques de développer et de proposer de nouvelles réglementations, a déclaré Zweifel-Keegan. « Le gouvernement fédéral deviendrait le principal régulateur unique et potentiellement unique autour des systèmes d’IA », a-t-il déclaré.
Ce que signifie un moratoire sur la réglementation de l’IA d’état
Les développeurs de l’IA ont demandé des garde-corps placés sur leur travail pour être cohérents et rationalisés. Lors d’un comité du commerce du Sénat entendre la semaine dernièreLe PDG d’Openai, Sam Altman, a déclaré au sénateur Ted Cruz, un républicain du Texas, qu’un système réglementaire de style européen « serait désastreux » pour l’industrie. Altman a plutôt suggéré que l’industrie développe ses propres normes.
Interrogé par le sénateur Brian Schatz, un démocrate d’Hawaï, si l’autorégulation de l’industrie était suffisante pour le moment, Altman a dit qu’il pensait que certains garde-corps seraient bons mais, « il est facile d’aller trop loin. Comme j’ai appris davantage sur le fonctionnement du monde, j’ai plus peur que cela puisse aller trop loin et avoir de très mauvaises conséquences. » (Divulgation: Ziff Davis, société mère de Crumpe, en avril, a déposé une plainte contre Openai, alléguant qu’elle a enfreint Ziff Davis Copyrights dans la formation et l’exploitation de ses systèmes d’IA.)
Les préoccupations des entreprises – les développeurs qui créent des systèmes d’IA et les «déploieurs» qui les utilisent dans les interactions avec les consommateurs – découlent souvent de craintes que les États obligent des travaux importants tels que les évaluations d’impact ou les avis de transparence avant la libération d’un produit, a déclaré Kounian. Les défenseurs des consommateurs ont déclaré que davantage de réglementations étaient nécessaires et entraver la capacité des États pourraient nuire à la vie privée et à la sécurité des utilisateurs.
« L’IA est largement utilisée pour prendre des décisions concernant la vie des gens sans transparence, responsabilité ou recours – cela facilite également la fraude, l’identité et la surveillance effrayantes », a déclaré Ben Winters, directeur de l’IA et de la vie privée à la Fédération des consommateurs d’Amérique, dans un communiqué. « Une pause de 10 ans conduirait à plus de discrimination, de plus de tromperie et de contrôle moins – en termes simples, il se revient avec des entreprises technologiques sur les personnes qu’ils ont un impact. »
Un moratoire sur des règles et des lois spécifiques de l’État pourrait entraîner davantage de problèmes de protection des consommateurs avec le tribunal ou par le procureur général de l’État, a déclaré Kounian. Les lois existantes concernant les pratiques déloyales et trompeuses qui ne sont pas spécifiques à l’IA s’appliqueraient toujours. « Le temps nous dira comment les juges interpréteront ces questions », a-t-il déclaré.
Susarla a déclaré que l’omniprésence de l’IA dans tous les secteurs signifie que les États pourraient être en mesure de réglementer plus largement des problèmes tels que la confidentialité et la transparence, sans se concentrer sur la technologie. Mais un moratoire sur la réglementation de l’IA pourrait conduire à de telles politiques liées à des poursuites. « Ce doit être une sorte d’équilibre entre » Nous ne voulons pas arrêter l’innovation « , mais d’un autre côté, nous devons également reconnaître qu’il peut y avoir de réelles conséquences », a-t-elle déclaré.
Une grande partie des politiques concernant la gouvernance des systèmes d’IA se produit en raison de ces soi-disant règles et lois agnostiques technologiques, a déclaré Zweifel-Keegan. « Il convient également de se rappeler qu’il existe de nombreuses lois existantes et qu’il existe un potentiel pour faire de nouvelles lois qui ne déclenchent pas le moratoire mais s’appliquent aux systèmes d’IA tant qu’ils s’appliquent à d’autres systèmes », a-t-il déclaré.