Le Royaume-Uni et les États-Unis interviennent au milieu des progrès rapides de l’industrie de l’IA

[ad_1]

Le Royaume-Uni et les États-Unis sont intervenus dans la course au développement d’une technologie d’intelligence artificielle toujours plus puissante, alors que l’organisme britannique de surveillance de la concurrence a lancé un examen du secteur et que la Maison Blanche a informé les entreprises technologiques de leur responsabilité fondamentale de développer des produits sûrs.

Les régulateurs subissent une pression croissante pour intervenir, car l’émergence de générateurs de langage alimentés par l’IA tels que ChatGPT soulève des inquiétudes quant à la propagation potentielle de la désinformation, une augmentation de la fraude et l’impact sur le marché du travail, avec Elon Musk parmi près de 30 000 signataires d’un lettre publiée le mois dernier demandant une pause dans les projets importants.

L’Autorité britannique de la concurrence et des marchés (CMA) a déclaré jeudi qu’elle examinerait les systèmes sous-jacents – ou modèles de base – derrière les outils d’IA. L’examen initial, décrit par un expert juridique comme un « avertissement préalable » au secteur, publiera ses conclusions en septembre.

Le même jour, le gouvernement américain a annoncé des mesures pour faire face aux risques liés au développement de l’IA, alors que Kamala Harris, la vice-présidente, rencontrait des directeurs généraux à l’avant-garde des progrès rapides de l’industrie. Dans un communiqué, la Maison Blanche a déclaré que les entreprises développant la technologie avaient la « responsabilité fondamentale de s’assurer que leurs produits sont sûrs avant qu’ils ne soient déployés ou rendus publics ».

La réunion a clôturé une semaine au cours de laquelle une succession de scientifiques et de chefs d’entreprise ont émis des avertissements sur la vitesse à laquelle la technologie pourrait perturber les industries établies. Lundi, Geoffrey Hinton, le « parrain de l’IA », a quitté Google pour parler plus librement des dangers de la technologie, tandis que le conseiller scientifique sortant du gouvernement britannique, Sir Patrick Vallance, a exhorté les ministres à « prendre de l’avance » sur les profondes difficultés sociales et changements économiques qui pourraient être déclenchés par l’IA, affirmant que l’impact sur les emplois pourrait être aussi important que celui de la révolution industrielle.

Sarah Cardell a déclaré que l’IA avait le potentiel de « transformer » la façon dont les entreprises se font concurrence, mais que les consommateurs doivent être protégés.

Le directeur général de CMA a déclaré: «L’IA a fait irruption dans la conscience publique au cours des derniers mois, mais elle est sur notre radar depuis un certain temps. Il est crucial que les avantages potentiels de cette technologie transformatrice soient facilement accessibles aux entreprises et aux consommateurs britanniques, tandis que les gens restent protégés contre des problèmes tels que les informations fausses ou trompeuses.

ChatGPT et le service rival de Google, Bard, sont susceptibles de fournir de fausses informations en réponse aux invites des utilisateurs, tandis que des inquiétudes ont été soulevées concernant les escroqueries vocales générées par l’IA. Le groupe anti-désinformation NewsGuard a déclaré cette semaine que des chatbots se faisant passer pour des journalistes exploitaient près de 50 « fermes de contenu » générées par l’IA. Le mois dernier, une chanson contenant de fausses voix générées par l’IA prétendant être Drake and the Weeknd a été retirée des services de streaming.

L’examen de la CMA examinera comment les marchés des modèles de fondation pourraient évoluer, quelles opportunités et risques existent pour les consommateurs et la concurrence, et formulera des «principes directeurs» pour soutenir la concurrence et protéger les consommateurs.

Les principaux acteurs de l’IA sont Microsoft, le développeur de ChatGPT OpenAI – dans lequel Microsoft est un investisseur – et la société mère de Google Alphabet, qui possède une entreprise d’IA de premier plan au Royaume-Uni, tandis que les principales startups d’IA incluent Anthropic et Stability AI, le britannique société derrière Stable Diffusion.

Alex Haffner, partenaire de la concurrence au sein du cabinet d’avocats britannique Fladgate, a déclaré: «Compte tenu de la direction actuelle des déplacements réglementaires et du fait que l’AMC décide de consacrer des ressources à ce domaine, son annonce doit être considérée comme une forme d’avertissement préalable. sur le développement agressif des programmes d’IA sans qu’un examen minutieux ne soit appliqué.

Aux États-Unis, Harris a rencontré les directeurs généraux d’OpenAI, d’Alphabet et de Microsoft à la Maison Blanche et a décrit des mesures pour faire face aux risques d’un développement incontrôlé de l’IA.

L’administration a déclaré qu’elle investirait 140 millions de dollars (111 millions de livres sterling) dans sept nouveaux instituts nationaux de recherche sur l’IA, pour poursuivre des avancées en matière d’intelligence artificielle « éthiques, dignes de confiance, responsables et servant le bien public ». Le développement de l’IA est dominé par le secteur privé, l’industrie technologique ayant produit 32 modèles d’apprentissage automatique importants l’année dernière, contre trois produits par le milieu universitaire.

Les principaux développeurs d’IA ont également accepté que leurs systèmes soient évalués publiquement lors de la conférence sur la cybersécurité Defcon 31 de cette année. Les entreprises qui ont accepté de participer incluent OpenAI, Google, Microsoft et Stability AI.

« Cet exercice indépendant fournira des informations essentielles aux chercheurs et au public sur les impacts de ces modèles », a déclaré la Maison Blanche.

ignorer la promotion de la newsletter

Robert Weissman, président de Public Citizen, une organisation à but non lucratif pour les droits des consommateurs, a salué l’annonce de la Maison Blanche comme une « étape utile », mais a déclaré qu’une action plus agressive était nécessaire, notamment un moratoire sur le déploiement de nouvelles technologies d’IA génératives.

«À ce stade, les entreprises Big Tech doivent être sauvées d’elles-mêmes. Les entreprises et leurs principaux développeurs d’IA sont bien conscients des risques posés par l’IA générative. Mais ils sont dans une course aux armements compétitive et chacun se croit incapable de ralentir », a-t-il déclaré.

L’UE a également été informée jeudi qu’elle devait protéger la recherche de base sur l’IA ou risquer de confier le contrôle du développement de la technologie à des entreprises américaines.

Dans une lettre ouverte coordonnée par le groupe de recherche allemand Laion – ou Large-scale AI Open Network – le Parlement européen a été informé que des règles uniformes risquaient d’éliminer la recherche et le développement ouverts.

« Les règles qui obligent un chercheur ou un développeur à surveiller ou à contrôler l’utilisation en aval pourraient rendre impossible la diffusion de l’IA open source en Europe », ce qui « ancrerait les grandes entreprises » et « entraverait les efforts visant à améliorer la transparence, réduire la concurrence, limiter la liberté académique, et stimuler les investissements dans l’IA à l’étranger », indique la lettre.

« L’Europe ne peut pas se permettre de perdre la souveraineté de l’IA. L’élimination de la R&D open source laissera la communauté scientifique et l’économie européennes dépendantes de manière critique d’une poignée d’entreprises étrangères et propriétaires pour l’infrastructure essentielle de l’IA.

Les plus grands efforts d’IA, par des entreprises telles que OpenAI et Google, sont fortement contrôlés par leurs créateurs. Il est impossible de télécharger le modèle derrière ChatGPT, par exemple, et l’accès payant qu’OpenAI fournit aux clients s’accompagne d’un certain nombre de restrictions juridiques et techniques sur la façon dont il peut être utilisé. En revanche, les efforts open source impliquent la création d’un modèle, puis sa diffusion pour que quiconque puisse l’utiliser, l’améliorer ou l’adapter à sa guise.

« Nous travaillons sur l’IA open source parce que nous pensons que ce type d’IA sera plus sûr, plus accessible et plus démocratique », a déclaré Christoph Schuhmann, responsable de l’organisation chez Laion.

[ad_2]

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

*