Google, Microsoft, Amazon et Meta s’engagent à rendre l’IA plus sûre et plus sécurisée

[ad_1]

La Maison Blanche a obtenu des « engagements volontaires » de la part des entreprises technologiques qu’elles .

Le président américain Joe Biden a rencontré Amazon, Microsoft, Meta, Google, OpenAI, Anthropic et Inflection vendredi à la Maison Blanche, où ils ont convenu de mettre l’accent sur « la sûreté, la sécurité et la confiance » lors du développement des technologies d’IA. Voici quelques détails dans chacune de ces catégories.

  • Sécurité : les entreprises ont convenu de « tester la sécurité et les capacités de leurs systèmes d’IA, de les soumettre à des tests externes, d’évaluer leurs risques biologiques, de cybersécurité et sociétaux potentiels et de rendre publics les résultats de ces évaluations ».
  • Sécurité : les entreprises ont également déclaré qu’elles protégeraient leurs produits d’IA « contre les cybermenaces et les menaces internes » et partageraient « les meilleures pratiques et normes pour prévenir les abus, réduire les risques pour la société et protéger la sécurité nationale ».
  • Confiance : l’un des accords les plus importants obtenus a été pour ces entreprises de permettre aux gens de savoir facilement si les images sont originales, modifiées ou générées par l’IA. Ils veilleront également à ce que l’IA ne favorise pas la discrimination ou les préjugés, ils protégeront les enfants contre les préjudices et utiliseront l’IA pour résoudre des problèmes tels que le changement climatique et le cancer.

L’arrivée du ChatGPT d’OpenAI fin 2022 a été le début d’une ruée de grandes entreprises technologiques proposant des outils d’IA génératifs aux masses. Le GPT-4 d’OpenAI a été lancé à la mi-mars. Il s’agit de la dernière version du grand modèle de langage qui alimente le chatbot ChatGPT AI, qui, entre autres, est suffisamment avancé pour réussir l’examen du barreau. Les chatbots, cependant, ont tendance à cracher et parfois . Alors que l’adoption de ces outils a explosé, leurs problèmes potentiels ont suscité un regain d’attention, notamment la diffusion de fausses informations et l’approfondissement des préjugés et des inégalités.

Ce que disent et font les entreprises d’IA

Meta a déclaré qu’il se félicitait de l’accord de la Maison Blanche. Plus tôt cette semaine, la société a lancé la deuxième génération de son grand modèle de langage d’IA, Llama 2, le rendant gratuit et open source.

« Alors que nous développons de nouveaux modèles d’IA, les entreprises technologiques doivent être transparentes sur le fonctionnement de leurs systèmes et collaborer étroitement avec l’industrie, le gouvernement, les universités et la société civile », a déclaré Nick Clegg, président des affaires mondiales de Meta.

L’accord de la Maison Blanche « créera une fondation pour aider à garantir que la promesse de l’IA reste en avance sur ses risques », dans un article de blog.

Microsoft est partenaire de Meta’s Llama 2. Il a également lancé plus tôt cette année la recherche Bing basée sur l’IA qui utilise ChatGPT et apporte de plus en plus d’outils d’IA à Microsoft 365 et à son navigateur Edge.

La « collaboration continue avec les gouvernements, les organisations de la société civile et d’autres acteurs du monde entier pour faire progresser la gouvernance de l’IA », a déclaré Anna Makanju, vice-présidente des affaires mondiales d’OpenAI. « Les décideurs du monde entier envisagent de nouvelles lois pour des systèmes d’IA hautement performants. Les engagements d’aujourd’hui apportent des pratiques spécifiques et concrètes à cette discussion en cours. »

Anthropic a déclaré dans un communiqué envoyé par courrier électronique que toutes les entreprises d’IA « doivent se joindre à une course pour la sécurité de l’IA ». La société a déclaré qu’elle annoncerait ses plans dans les semaines à venir sur « la cybersécurité, l’équipe rouge et la mise à l’échelle responsable ».

« Il y a une énorme quantité de travail de sécurité à faire. Jusqu’à présent, la sécurité de l’IA a été bloquée dans l’espace des idées et des réunions », a écrit Mustafa Suleyman, co-fondateur et PDG d’Inflection AI, dans un vendredi. « La quantité de progrès tangibles par rapport au battage médiatique et à la panique a été insuffisante. Chez Inflection, nous trouvons cela à la fois préoccupant et frustrant. C’est pourquoi la sécurité est au cœur de notre mission. »

Quoi d’autre?

Google n’a pas immédiatement répondu à une demande de commentaire, mais plus tôt cette année, il a déclaré qu’il filigranerait le contenu de l’IA. Le modèle d’IA Gemini de la société identifiera les textes, les images et les séquences qui ont été générés par l’IA. Il vérifiera les métadonnées intégrées dans le contenu pour vous faire savoir ce qui n’a pas été modifié et ce qui a été créé par l’IA.

La société de logiciels d’image Adobe s’assure également de marquer les images générées par l’IA à partir de ses outils Firefly AI avec des métadonnées indiquant qu’elles ont été créées par un système d’IA.

Vous pouvez lire le .

L’administration Biden-Harris élabore également un décret exécutif et cherche une législation bipartite « pour protéger les Américains » de l’IA. Le Bureau américain de la gestion et du budget devrait également publier des directives pour toutes les agences fédérales qui achètent ou utilisent des systèmes d’IA.

Voir également: ChatGPT vs Bing vs Google Bard : quelle IA est la plus utile ?

Note de la rédaction : Oxtero utilise un moteur d’IA pour aider à créer des histoires. Pour en savoir plus, voir ce post.


[ad_2]

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

*