Apple répond au tollé suscité par la politique controversée de numérisation de photos
Les projets d’Apple de scanner les photos des utilisateurs d’iPhone à la recherche de matériel pédopornographique (CSAM) ont suscité l’inquiétude des défenseurs de la vie privée et de leurs rivaux. Maintenant, la société cherche à rassurer les utilisateurs dans un nouveau Q&R publié sur son site Web.
L’outil, conçu pour empêcher la propagation du matériel CSAM et attraper ceux qui le possèdent, numérise la photo sur l’appareil et lui donne un certificat de sécurité avant de la télécharger sur iCloud. Jusqu’à présent, Apple ne mettra en œuvre les plans qu’aux États-Unis.
Des critiques, comme le patron de WhatsApp, Will Cathcart, affirment que le système est essentiellement un outil de surveillance conçu par Apple et pourrait être utilisé par les gouvernements pour espionner les citoyens si des faiblesses sont révélées.
Cependant, Apple a réitéré aujourd’hui sa position antérieure selon laquelle il « refusera de telles demandes » aux gouvernements d’ajouter des images non CSAM à la liste de hachage.
« La capacité de détection CSAM d’Apple est conçue uniquement pour détecter les images CSAM connues stockées dans iCloud Photos qui ont été identifiées par des experts du NCMEC et d’autres groupes de sécurité des enfants », écrit la société. « Nous avons déjà été confrontés à des demandes de création et de déploiement de changements mandatés par le gouvernement qui dégradent la vie privée des utilisateurs, et nous avons catégoriquement refusé ces demandes. Nous continuerons à les refuser à l’avenir.
« Soyons clairs, cette technologie se limite à détecter le CSAM stocké dans iCloud et nous n’accéderons à aucune demande d’un gouvernement pour l’étendre. De plus, Apple procède à un examen humain avant de faire un rapport au NCMEC. Dans le cas où le système signale les photos qui ne correspondent pas aux images CSAM connues, le compte ne serait pas désactivé et aucun rapport ne serait déposé auprès du NCMEC.
Apple indique également qu’il aborde les autres éléments des nouveaux outils de sécurité des enfants, y compris l’application Messages, qui détectera bientôt si les enfants reçoivent ou envoient des images inappropriées, avec des garanties en place pour avertir les parents. Les enfants auront le choix d’envoyer ou d’atténuer le message en question, mais s’ils vont de l’avant, les parents en seront informés. Apple assure aux utilisateurs que cela n’affecte pas le cryptage de bout en bout dans Messages.
La société ajoute : « Cela ne change pas les garanties de confidentialité de Messages, et Apple n’a jamais accès aux communications grâce à cette fonctionnalité. Tout utilisateur de Messages, y compris ceux dont la sécurité des communications est activée, conserve le contrôle sur ce qui est envoyé et à qui. Si la fonctionnalité est activée pour le compte enfant, l’appareil évaluera les images dans les messages et présentera une intervention si l’image est déterminée comme étant sexuellement explicite. Pour les comptes d’enfants âgés de 12 ans et moins, les parents peuvent configurer des notifications parentales qui seront envoyées si l’enfant confirme et envoie ou visionne une image qui a été jugée sexuellement explicite. Aucune communication, évaluation d’image, intervention ou notification n’est disponible pour Apple.
Que pensez-vous de la nouvelle fonctionnalité de sécurité des enfants d’Apple ? Un geste prudent ? Ou trop de dommages collatéraux causés à la vie privée d’utilisateurs innocents ? Faites-nous savoir @trustedreviews sur Twitter.