L’outil de numérisation de photos iCloud d’Apple est alarmant. Y a-t-il de l’espoir?

[ad_1]

Les intentions d’Apple sont bonnes, mais les experts en sécurité pensent que l’outil de détection CSAM peut être mal utilisé. Cependant, un juste milieu n’est pas impossible.

En août de cette année, Pomme a annoncé une nouvelle fonctionnalité de sécurité des enfants pour analyser la bibliothèque iCloud afin de rechercher des images de matériel pédopornographique (CSAM) et de les signaler aux autorités en conséquence. La fonctionnalité sera intégrée à iOS et iPadOS. Il recherchera les photos avant de les stocker sur le service cloud d’Apple. L’annonce a rencontré beaucoup de résistance de la part des défenseurs de la vie privée et de la communauté des chercheurs qui ont de l’expérience dans la gestion de cette technologie.

Apple a obtenu des commentaires de groupes de sécurité des enfants et d’experts en cybersécurité faisant l’éloge de l’initiative. Mais pour une entreprise qui a résisté aux tentatives de contourner le cryptage de l’iPhone, même pour les autorités chargées de l’application des lois, la décision d’Apple a été comparée à une porte dérobée à portée étroite qui peut être étendue à sa guise ou sous pression. De longs documents Apple ont parlé de l’efficacité du système et de la façon dont il n’affecte pas la confidentialité, mais il y a encore beaucoup de préoccupations. La première question est de savoir si la portée du contenu répréhensible restera limitée aux images CSAM ou si Apple bougera sous la pression politique.


L’allégeance d’Apple à des concepts tels que la «liberté d’expression» est différente en Chine, par rapport à ce que la société annonce aux États-Unis ou dans le reste du monde. Apple dit qu’il ne fera aucun compromis, mais dans un pays qui constitue l’épine dorsale de ses opérations de fabrication et représente une part considérable de ses revenus, les enjeux du non-respect de la volonté du gouvernement sont incroyablement élevés. La Russie et plusieurs pays africains ont récemment renforcé les restrictions sur les plates-formes concernant les contenus jugés répréhensibles et ont fait pression sur les entreprises pour qu’elles transmettent davantage de données. Des chercheurs dire Le système d’analyse CSAM d’Apple est une technologie dangereuse et une faille de confidentialité qui attend d’être exploitée. Dans le même temps, certains l’ont même qualifié de début d’un système de surveillance de masse orwellien déguisé en sécurité des enfants.

Apple doit être proactif, pas pompeux

Apple a beaucoup parlé de la précision du système, mais des pirates ont déjà réussi à tromper une première version de celui-ci en générant une fausse alarme positive lorsqu’elle est exposée à une image non CSAM, selon Vice. La société dit qu’elle doit obéir aux lois américaines concernant le contenu inapproprié et s’approvisionne en base de données CSAM auprès du NCMEC (Centre national pour les enfants disparus et exploités). Cependant, d’autres pays peuvent demander à Apple de s’appuyer sur les hachages d’images CSAM des organisations locales de sécurité des enfants, ce qui peut ne pas être aussi efficace et compliquerait davantage le processus de développement d’un système qui a déjà été retardé. Apple n’a pas non plus construit de cadre fiable autour de la fonction d’alerte parentale CSAM qui peut s’avérer être un problème pour les enfants vivant dans des foyers abusifs.

Il ne fait aucun doute que l’initiative est noble, mais pour une entreprise qui se targue de la confidentialité et de la sécurité de son écosystème, elle doit faire plus que simplement publier des FAQ et minimiser les risques lors des entretiens. Apple n’a pas à arrêter le projet. Ce qu’il doit faire, c’est corriger les défauts perçus et fournir plus qu’une simple garantie verbale. Apple doit traiter ses clients comme des parties prenantes en matière de confidentialité et, si possible, fournir une assurance juridiquement contraignante que le système CSAM ne sera pas exploité. De cette façon, des millions d’utilisateurs d’iPhone auront l’assurance qu’ils peuvent tenir Apple pour responsable et être indemnisés pour les dommages subis en cas de violation de leur vie privée.

Passant par Le Washington Post, les experts en cybersécurité qui ont déjà travaillé sur des projets similaires disent que toute l’idée est dangereuse, tandis que les défenseurs de la vie privée affirment qu’elle crée un dangereux précédent. Apple doit entretenir un dialogue transparent et ouvert avec la communauté de la cybersécurité et l’assurer par des démonstrations pratiques que son système de numérisation de photos CSAM ne peut être ni trompé ni exploité. Cela demandera un certain temps et beaucoup de prudence, mais cela contribuerait grandement à répondre à des préoccupations légitimes.

Il est de la responsabilité d’Apple d’engager un dialogue constructif avec des experts et d’arriver à un terrain d’entente où la technologie de numérisation CSAM peut s’améliorer sans être invasive. L’entreprise a certainement la portée et les ressources pour y parvenir. Ne pas le faire serait une position arrogante – une position qui finira par trahir Pommes propres principes de confidentialité. Plus important encore, cela ouvrira les vannes pour des systèmes plus invasifs qui mettent en péril la vie privée de milliards d’utilisateurs de smartphones, les laissant à la merci de sociétés obscènes riches et de gouvernements autoritaires.

Sources: arXiv, VICE, Le Washington Post

Chaque film et émission de télévision sorti sur Disney + en novembre 2021



[ad_2]

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

*