Apple admet des "messages brouillés" sur la technologie controversée de numérisation de photos
Agence web » Actualités du digital » Apple admet des « messages brouillés » sur la technologie controversée de numérisation de photos

Apple admet des « messages brouillés » sur la technologie controversée de numérisation de photos

Le directeur d’Apple, Craig Federighi, a déclaré que la société n’avait pas expliqué efficacement les nouvelles protections de sécurité des enfants qui scannent les photos des utilisateurs d’iPhone à la recherche de preuves d’abus.

Dans une interview avec le Wall Street Journal, le sympathique Federighi a déclaré que les « messages se sont brouillés » sur la politique de numérisation des photos, qui a été vivement critiquée par les défenseurs de la vie privée. Certains ont déclaré que le système, qui vise à empêcher le téléchargement de matériel sur iCloud, équivaut à une surveillance.

Apple a publié une séance de questions-réponses sur le sujet la semaine dernière, mais cela n’a pas apaisé les critiques de la politique de rivaux comme WhatsApp.

Federighi dit qu’Apple aurait souhaité que le déploiement de la politique soit plus clair, qui viendra avec iOS 15 aux États-Unis, et inclura également des outils pour restreindre le partage de matériel pédopornographique via iMessage.

« Il est vraiment clair que beaucoup de messages se sont mélangés assez mal en termes de compréhension des choses », a déclaré le vice-président senior de l’ingénierie logicielle d’Apple au WSJ. « Nous souhaitons que cela ressorte un peu plus clairement pour tout le monde parce que nous sommes très positifs et fortement à propos de ce que nous faisons. »

L’annonce de la politique CSAM a quelque peu nui à la réputation d’Apple en tant qu’entreprise axée sur la confidentialité, beaucoup s’inquiétant des ramifications si la sécurité de l’entreprise était pénétrée par un gouvernement, par exemple.

Apple a déclaré que les images que les utilisateurs tentent de télécharger sur iCloud sont analysées par rapport à une liste d’images CSAM connues du National Center for Missing and Exploited Children (NCMEC) aux États-Unis. Toutes les recherches ont lieu sur l’appareil plutôt que dans le cloud.

Federighi a également cherché à assurer aux utilisateurs innocents qu’ils ne seraient pas signalés pour de faux positifs et qu’ils ne se retrouveraient pas en difficulté avec la loi sans que ce soit leur faute. Il a déclaré que les utilisateurs ne seront détectés que si les analyses détectent environ 30 images connues des autorités.

Il n’est actuellement pas prévu de déployer le système au Royaume-Uni ou dans d’autres pays, a déclaré Federighi dans l’interview, mais cela sera examiné au cas par cas. Les « hachages » utilisés pour détecter les images seront livrés avec toutes les versions d’iOS 15, mais ils ne seront pas utilisés pour la numérisation ailleurs qu’aux États-Unis.

Federighi a assuré que le système aura « plusieurs niveaux d’audibilité » en fonction du pays dans lequel la politique est déployée. Cela signifiera « vous n’avez pas à faire confiance à une seule entité, ni même à un seul pays, en ce qui concerne les images partie de ce processus.

★★★★★