WhatsApp dit que les outils de sécurité des enfants d’Apple sont un « système de surveillance » dangereux
Facebook poursuit sa guerre des mots avec Apple, le responsable de l’application de chat WhatsApp de l’entreprise s’attaquant aux fonctionnalités de sécurité des enfants récemment annoncées par Apple.
Dans un long fil de discussion sur Twitter, Will Cathcart de WhatsApp a déclaré qu’il était « préoccupé » par l’approche, qui inclura la numérisation des photos des utilisateurs d’iPhone pour vérifier le matériel pédopornographique (CSAM) avant qu’ils ne soient téléchargés sur iCloud.
Cathcart a déclaré que la nouvelle fonctionnalité équivalait à un « système de surveillance » et a attaqué un logiciel qui peut « numériser toutes les photos privées sur votre téléphone ». Il a affirmé que le système pourrait éventuellement être une porte dérobée permettant aux gouvernements d’espionner les citoyens, ce à quoi Apple s’est farouchement opposé dans le passé.
L’exécutif de WhatsApp a déclaré : « Au lieu de se concentrer sur le fait de permettre aux gens de signaler facilement le contenu partagé avec eux, Apple a créé un logiciel qui peut numériser toutes les photos privées sur votre téléphone, même les photos que vous n’avez partagées avec personne. Ce n’est pas de la vie privée.
Il a poursuivi en disant: « Il s’agit d’un système de surveillance construit et exploité par Apple qui pourrait très facilement être utilisé pour analyser le contenu privé à la recherche de tout ce qu’ils ou un gouvernement décide de contrôler. »
Vendredi, dans un explicateur, Apple a déclaré avoir mis au point une technologie capable de numériser des photos destinées aux téléchargements iCloud sur l’appareil, d’une manière qui protège la confidentialité des utilisateurs.
La société a déclaré: «Avant qu’une image ne soit stockée dans iCloud Photos, un processus de correspondance sur l’appareil est effectué pour cette image par rapport aux hachages CSAM connus.
«Ce processus de correspondance est alimenté par une technologie cryptographique appelée intersection d’ensembles privés, qui détermine s’il y a une correspondance sans révéler le résultat. L’appareil crée un bon de sécurité cryptographique qui code le résultat de la correspondance ainsi que des données cryptées supplémentaires sur l’image. Ce bon est téléchargé sur iCloud Photos avec l’image.
Les fonctionnalités incluent également de nouveaux outils de reconnaissance d’images dans iMessage et des conseils dans Siri et Search concernant le matériel CSAM.
Bien que les fonctionnalités puissent aider à identifier le matériel incriminé et illégal et à traduire les auteurs et les agresseurs en justice, il est clair que l’approche et le potentiel de dommages collatéraux suscitent de nombreuses inquiétudes. Apple a longtemps dominé des entreprises comme Facebook en matière de confidentialité des utilisateurs, mais elle risque d’en céder une partie avec les nouveaux outils de sécurité pour les enfants.
Cathcart a ajouté : « Il y a tellement de problèmes avec cette approche, et il est troublant de les voir agir sans engager des experts qui ont longtemps documenté leurs préoccupations techniques et plus larges à ce sujet. »
Le fil entier vaut certainement la peine d’être lu. Cathcart a défendu l’approche de WhatsApp en disant qu’il était en mesure de signaler 400 000 cas inquiétants aux autorités sans casser le cryptage.