Au milieu du contrecoup, Apple changera de plan de numérisation de photos mais ne le supprimera pas complètement

[ad_1]

Apple a annoncé vendredi qu’il apporterait quelques modifications à son plan visant à ce que les iPhones et autres appareils numérisent les photos des utilisateurs à la recherche d’images d’abus sexuels sur des enfants. Mais Apple a déclaré qu’il avait toujours l’intention de mettre en œuvre le système après avoir apporté des « améliorations » pour répondre aux critiques.

Apple a fourni cette déclaration à Ars et à d’autres organisations de presse aujourd’hui :

Le mois dernier, nous avons annoncé des plans pour des fonctionnalités destinées à aider à protéger les enfants contre les prédateurs qui utilisent des outils de communication pour les recruter et les exploiter, et à limiter la propagation du matériel d’abus sexuel d’enfants. [CSAM]. Sur la base des commentaires des clients, des groupes de défense des droits, des chercheurs et d’autres, nous avons décidé de prendre plus de temps au cours des prochains mois pour recueillir des commentaires et apporter des améliorations avant de publier ces fonctionnalités de sécurité des enfants d’une importance cruciale.

La déclaration est vague et ne dit pas quels types de changements Apple apportera ni même de quels types de groupes de défense et de chercheurs il recueillera des commentaires. Mais étant donné le contrecoup qu’Apple a reçu des chercheurs en sécurité, des défenseurs de la vie privée et des clients préoccupés par la confidentialité, il semble probable qu’Apple essaiera de répondre aux préoccupations concernant la confidentialité des utilisateurs et la possibilité qu’Apple puisse donner aux gouvernements un accès plus large aux photos des clients.

Des groupes de protection de la vie privée avertis de l’accès du gouvernement

Il n’est pas clair comment Apple pourrait mettre en œuvre le système d’une manière qui élimine les plus grands problèmes de confidentialité de ses critiques. Apple a affirmé qu’il refuserait les demandes du gouvernement d’étendre la numérisation de photos au-delà de CSAM. Mais les défenseurs de la confidentialité et de la sécurité soutiennent qu’une fois le système déployé, Apple ne pourra probablement pas éviter de donner aux gouvernements plus de contenu utilisateur.

« Une fois que cette capacité sera intégrée aux produits Apple, l’entreprise et ses concurrents seront confrontés à une pression énorme – et potentiellement à des exigences légales – de la part des gouvernements du monde entier pour numériser des photos non seulement pour CSAM, mais aussi pour d’autres images qu’un gouvernement trouve répréhensibles », 90 des groupes politiques des États-Unis et du monde entier ont déclaré dans une lettre ouverte à Apple le mois dernier. « Ces images peuvent être des violations des droits de l’homme, des manifestations politiques, des images que les sociétés ont qualifiées de « terroristes » ou de contenu extrémiste violent, ou même des images peu flatteuses des mêmes politiciens qui feront pression sur l’entreprise pour qu’elle les recherche. Et cette pression pourrait s’étendre à toutes les images stockées sur l’appareil, pas seulement celles téléchargées sur iCloud. Ainsi, Apple aura jeté les bases de la censure, de la surveillance et de la persécution à l’échelle mondiale.

Apple a précédemment annoncé que les appareils sur lesquels iCloud Photos est activé numériseront les images avant de les télécharger sur iCloud. Étant donné qu’un iPhone télécharge chaque photo sur iCloud juste après sa prise, la numérisation de nouvelles photos se produira presque immédiatement si un utilisateur a déjà activé Photos iCloud.

Apple a déclaré qu’il ajouterait également un outil à l’application Messages qui « analysera les pièces jointes d’images et déterminera si une photo est sexuellement explicite ». Le système sera facultatif pour les parents, qui pourront l’activer afin que les appareils Apple « préviennent les enfants et leurs parents lorsqu’ils reçoivent ou envoient des photos sexuellement explicites ».

Apple a initialement annoncé qu’il déploierait les modifications plus tard cette année, aux États-Unis uniquement dans un premier temps, dans le cadre des mises à jour d’iOS 15, iPadOS 15, watchOS 8 et macOS Monterey. La promesse d’Apple de « prendre plus de temps au cours des prochains mois pour recueillir des commentaires et apporter des améliorations » suggère que le système de numérisation pourrait être mis en œuvre plus tard que prévu, mais la société n’a jamais fourni de date de sortie ferme pour commencer.

Apple a qualifié le système d’avancée en matière de confidentialité

Comme nous l’avons déjà écrit, Apple affirme que sa technologie de numérisation CSAM « analyse une image et la convertit en un numéro unique spécifique à cette image » et signale une photo lorsque son hachage est identique ou presque identique au hachage de tout ce qui apparaît dans une base de données des CSAM connus. Un compte peut être signalé au Centre national pour les enfants disparus et exploités (NCMEC) lorsqu’environ 30 photos CSAM sont détectées, un seuil défini par Apple pour garantir qu’il y a « moins d’une chance sur un billion par an de signaler de manière incorrecte un Compte. » Ce seuil pourrait être modifié à l’avenir pour maintenir le taux de faux positifs d’un milliard sur un.

Apple a fait valoir que son système est en fait une avancée en matière de confidentialité car il numérisera les photos « de la manière la plus protectrice de la vie privée que nous puissions imaginer et de la manière la plus auditable et vérifiable possible ».

« Si vous regardez n’importe quel autre service cloud, ils numérisent actuellement des photos en regardant chaque photo dans le cloud et en l’analysant. Nous voulions pouvoir repérer de telles photos dans le cloud sans regarder les photos des gens et avons proposé un l’architecture pour le faire », a déclaré le mois dernier Craig Federighi, vice-président senior de l’ingénierie logicielle chez Apple. Le système Apple est « beaucoup plus privé que tout ce qui a été fait dans ce domaine auparavant », a-t-il déclaré.

Les changements apportés au système pourraient être combattus par des groupes de défense qui ont exhorté Apple à numériser les photos des utilisateurs pour CSAM. Apple s’est associé au projet avec le NCMEC, qui a rejeté les critiques sur la vie privée comme venant des « voix hurlantes de la minorité ». Apple a apparemment approuvé cette déclaration, car elle l’a distribuée aux employés dans une note interne qui défendait le plan de numérisation de photos le jour de son annonce.

[ad_2]

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

*