Les plans du Royaume-Uni pour le « premier sommet mondial » sur la sécurité de l’IA suscitent des critiques

[ad_1]

Mercredi, le Premier ministre britannique Rishi Sunak a annoncé que le pays accueillerait « le premier grand sommet mondial sur la sécurité de l’IA » cet automne. Il espère rassembler « des pays clés, des entreprises technologiques de premier plan et des chercheurs » pour évaluer et surveiller les risques liés à l’intelligence artificielle.

Au cours de l’année écoulée, le taux élevé de progrès technologique perçu dans l’apprentissage automatique a suscité des inquiétudes quant à une réglementation gouvernementale adéquate. Ces inquiétudes ont été récemment amplifiées par certains experts en IA comparant les menaces potentielles posées par l’IA à celles des pandémies ou des armes nucléaires. « AI » a également été un terme extrêmement à la mode dans les affaires ces derniers temps. Dans ce sens, le gouvernement britannique veut intervenir et jouer un rôle de leader dans le domaine.

« Les percées de l’IA continuent d’améliorer nos vies, qu’il s’agisse de permettre aux personnes paralysées de marcher ou de découvrir des antibiotiques tuant les superbactéries », a déclaré le gouvernement britannique dans un communiqué de presse. « Mais le développement de l’IA évolue extrêmement rapidement et ce rythme de changement nécessite un leadership agile. C’est pourquoi le Royaume-Uni agit, car nous avons le devoir mondial de veiller à ce que cette technologie soit développée et adoptée de manière sûre et responsable. »

Le communiqué de presse quelque peu vague n’a pas précisé de date, de format organisationnel ou de lieu pour le sommet.

Dans la perspective du sommet potentiel, Sunak a récemment mené des entretiens avec divers leaders de l’industrie, y compris des PDG de laboratoires d’IA comme OpenAI, DeepMind et Anthropic. Le Royaume-Uni affirme que l’événement à venir devrait s’appuyer sur les récentes discussions sur la sécurité de l’IA tenues au G7, à l’OCDE et au Partenariat mondial sur l’IA. En outre, le premier briefing du Conseil de sécurité de l’ONU sur l’impact de l’IA sur la paix et la sécurité internationales est prévu pour juillet.

« Aucun pays ne peut le faire seul », a déclaré Sunak dans le communiqué de presse. « Cela va nécessiter un effort mondial. Mais grâce à notre vaste expertise et à notre engagement en faveur d’un système international ouvert et démocratique, le Royaume-Uni se tiendra aux côtés de nos alliés pour montrer la voie. »

Qui sera invité ?

Lors de l’annonce de son sommet, le gouvernement britannique n’a pas officiellement révélé de liste d’invités. Mais le communiqué de presse présente avec enthousiasme les sociétés OpenAI, DeepMind, Anthropic, Palantir, Microsoft et Faculty comme exemples d’entreprises adjacentes à l’apprentissage automatique qui ont des bureaux au Royaume-Uni. Il cite également des dirigeants de ces sociétés, dont Alexander Karp, co-fondateur et PDG de Palantir :

« Nous sommes fiers d’étendre notre partenariat avec le Royaume-Uni, où nous employons près d’un quart de notre main-d’œuvre mondiale. Londres est un pôle d’attraction pour les meilleurs talents en génie logiciel au monde, et c’est le choix naturel comme plaque tournante pour notre Europe efforts pour développer les solutions logicielles d’intelligence artificielle les plus efficaces et les plus éthiques disponibles. »

Cette liste de participants potentiels au sommet a déjà attiré les critiques de certains milieux. Rachel Coldicutt, qui dirige le cabinet de conseil en recherche sur l’équité et la justice sociale Careful Industries, basé à Londres, tweeté« Ce communiqué de presse pour le UK AI Safety Summit présente DeepMind, Anthropic, Palantir, Microsoft et Faculty et pas une seule voix de la société civile ou du milieu universitaire, et personne ayant une expérience vécue des dommages algorithmiques. »

Parmi les entreprises mentionnées, Palantir, en particulier, a fait l’objet de controverses, ses liens étroits avec les secteurs militaire et de la défense soulevant des questions sur l’utilisation abusive potentielle de l’IA. La technologie de l’entreprise a été déployée dans l’application de la loi et la surveillance, ce qui a suscité des préoccupations en matière de confidentialité et de libertés civiles.

Le Dr Sasha Luccioni de Hugging Face a exprimé des préoccupations similaires sur Twitter: « Le ‘premier grand sommet mondial sur la sécurité de l’IA’ avec des entreprises comme Palantir (militaire/défense) et DeepMind (X-risk/AGI) – très prometteur pour aborder les risques réels et actuels de l’IA (comme son utilisation dans l’armée) . » Son sarcasme souligne la déconnexion perçue entre les objectifs de sécurité proclamés du sommet et les activités de certaines des entreprises vantées dans l’annonce.

Après plusieurs lettres d’avertissement sur les risques de l’IA cette année de la part de grands noms de la technologie, la « sécurité de l’IA » est devenue un sujet délicat, avec de nombreux débats sur la question de savoir si les systèmes d’apprentissage automatique représentent un risque existentiel pour l’humanité. Simultanément, les partisans de l’éthique de l’IA comme Luccioni, que nous avons interrogé précédemment sur ce sujet, estiment qu’une attention insuffisante est accordée aux applications nuisibles de l’IA qui existent déjà aujourd’hui.

Alors que le gouvernement britannique met l’accent sur les points de discussion populaires sur les risques liés à l’IA dans son communiqué de presse, ces critiques des partisans de l’éthique de l’IA mettent en évidence une demande croissante de perspectives plus complètes et diversifiées lors d’événements visant à élaborer une réglementation gouvernementale sur l’IA. La communauté mondiale de l’IA surveillera sans aucun doute de près si l’événement organisé au Royaume-Uni peut offrir une discussion inclusive et productive sur les risques de l’IA qui va au-delà de l’habituel séances de photos avec les nouveaux titans de l’industrie.


[ad_2]

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

*