La mise à jour Apple Child Safety analysera les photos à la recherche de contenu abusif, avertit les parents
Apple a annoncé une série de nouvelles mesures, visant à assurer la sécurité des enfants sur sa plate-forme et à limiter la diffusion d’images d’abus sexuels sur des enfants.
En plus des nouveaux outils de sécurité dans iMessage, Siri et Search, Apple prévoit d’analyser les téléchargements iCloud des utilisateurs à la recherche de matériel pédopornographique (CSAM). C’est sûr d’être controversé parmi les défenseurs de la vie privée, même si la fin peut justifier les moyens.
La société prévoit de numériser les images sur l’appareil avant que la photo ne soit téléchargée sur le cloud. Il sera vérifié par rapport aux « hachages d’image » connus qui peuvent fausser le contenu incriminé. Apple affirme que cela garantira la protection de la vie privée des utilisateurs de tous les jours.
Si la technologie découvre des images CSAM, le compte iCloud en question sera gelé et les images seront signalées au National Center for Missing and Exploited Children (NCMEC), qui pourra ensuite être renvoyé aux forces de l’ordre.
« Avant qu’une image ne soit stockée dans iCloud Photos, un processus de correspondance sur l’appareil est effectué pour cette image par rapport aux hachages CSAM connus », écrit Apple dans un explicateur.
«Ce processus de correspondance est alimenté par une technologie cryptographique appelée intersection d’ensembles privés, qui détermine s’il y a une correspondance sans révéler le résultat. L’appareil crée un bon de sécurité cryptographique qui code le résultat de la correspondance ainsi que des données cryptées supplémentaires sur l’image. Ce bon est téléchargé sur iCloud Photos avec l’image.
Ailleurs, les nouveaux outils iMessage sont conçus pour protéger les enfants contre l’exploitation en ligne. Si un enfant reçoit ce que la technologie de détection d’images juge inapproprié, cela sera flou et l’enfant sera averti et « présenté avec des ressources utiles, et rassuré qu’il n’y a pas de problème s’il ne veut pas voir cette photo ».
Selon les paramètres parentaux, les parents seront informés si l’enfant va de l’avant et visionne l’image. « Des protections similaires sont disponibles si un enfant tente d’envoyer des photos sexuellement explicites », explique Apple. « L’enfant sera prévenu avant que la photo ne soit envoyée, et les parents peuvent recevoir un message si l’enfant choisit de l’envoyer. » Encore une fois, la technologie de détection d’image sur l’appareil est utilisée.
Enfin, de nouvelles directives dans Siri et Search permettront aux propriétaires d’iPhone et d’iPad de rester en sécurité en ligne et de déposer des rapports auprès des autorités compétentes.
« Siri et Search sont également mis à jour pour intervenir lorsque les utilisateurs effectuent des recherches de requêtes liées à CSAM. Ces interventions expliqueront aux utilisateurs que l’intérêt pour ce sujet est préjudiciable et problématique, et fourniront des ressources de partenaires pour obtenir de l’aide sur ce problème.
Ces mises à jour arrivent dans iOS/iPadOS 15.