Nouveau retard de Siri: Sécurité Une cause suspectée de revers de l'intelligence d'Apple
Agence web » Actualités du digital » Nouveau retard de Siri: Sécurité Une cause suspectée de revers de l'intelligence d'Apple

Nouveau retard de Siri: Sécurité Une cause suspectée de revers de l'intelligence d'Apple

La décision d'Apple de retarder le déploiement des fonctionnalités remaniées des assistants Siri a conduit à de nombreuses spéculations sur les raisons pour lesquelles la société n'est pas encore en mesure de fournir la mise à niveau basée sur l'Apple Intelligence.

Alors qu'Apple lui-même a admis que son «  prenant plus de temps que nous pensions '' pour obtenir le Siri plus intelligent et plus contextuellement prêt pour les heures de grande écoute, d'autres observateurs ont des théories différentes sur les raisons pour lesquelles la fonctionnalité conçue pour les meilleurs modèles d'iPhone connaît des revers de développement.

Mark Gurman de Bloomberg a récemment rapporté que la société avait du mal à cohérence pour ces fonctionnalités, qui incluent la possibilité pour les applications de prendre des mesures au nom de l'utilisateur dans ce qu'on appelle l'IA «agentique».

Cependant, un développeur pense que la fiabilité actuelle à part, le problème clé avec laquelle Apple est aux prises avec les vulnérabilités de sécurité inhérentes à la nouvelle technologie.

Le développeur Simon Willison (via 9to5mac) estime que la préoccupation interne peut être sur quelque chose appelé attaques d'injection rapide, qui sont un problème qui se produit lorsque des acteurs malveillants sont en mesure de tromper une IA que la demande provient d'un utilisateur.

Sur son site Web, Willison a écrit: «Ces nouvelles fonctionnalités d'Apple Intelligence impliquent que Siri répond aux demandes d'accéder aux informations dans les applications, puis à effectuer des actions au nom de l'utilisateur.

«C'est la pire combinaison possible pour les attaques d'injection rapides! Chaque fois qu'un système basé sur LLM a accès à des données privées, des outils qu'il peut appeler et une exposition à des instructions potentiellement malveillantes (comme les e-mails et les messages texte à partir d'étrangers non fiables), il existe un risque important qu'un attaquant puisse renverser ces outils et les utiliser pour endommager ou exfiltrant les données d'un utilisateur. « 

Malheureusement, ce n'est pas quelque chose qu'Apple sera facilement en mesure de contourner car, à l'heure actuelle, les modèles de langues sont intrinsèquement sensibles à ce type d'attaques. Comme le dit John Gruber de Daring Fireball, Apple devrait faire des développements «révolutionnaires» pour surmonter ce problème.

Il a écrit: « Ils doivent résoudre un problème épineux – non encore résolu par Openai, Google ou tout autre laboratoire de premier plan – pour livrer ce qu'ils ont déjà promis. »

Les enjeux sont trop élevés

Apple met continuellement sa réputation à être une entreprise de confidentialité First et a développé la confiance entre la base d'utilisateurs pour cette raison. Nous avons vu très récemment qu'Apple ne parle pas tous sur ce front, tirant une fonction de chiffrement au Royaume-Uni parce que le gouvernement avait exigé une porte arrière.

Une version buggy pour cette nouvelle technologie serait largement tolérée par les utilisateurs. Cependant, quelque chose qui compromet leur sécurité en ligne aurait des conséquences énormes et énormes.

C'est un endroit difficile pour Apple car il ne peut pas se permettre d'être laissé dans la course AI, mais cela peut signifier prendre des risques avec qui il n'est pas à l'aise.

★★★★★