Cette fonctionnalité Google cachée m'a laissé de nouvelles problèmes de confidentialité
Sommaire
Résumé
-
La fonctionnalité d'essayer Google vous permet d'essayer pratiquement les vêtements.
-
Google a clairement indiqué que l'outil n'utilise pas l'image téléchargée pour former ses modèles AI
-
La fonction d'essayer peut être utilisée à mauvais escient pour générer de fausses images.
Google a fait beaucoup d'annonces passionnantes lors de sa conférence annuelle en 2025, mais celle qui a attiré mon attention a été la fonctionnalité d'essai sur. Bien que cela puisse certainement vous aider à décider d'acheter une robe que vous voyez en ligne, il y a un grand problème de confidentialité avec cette fonctionnalité dont vous devez être au courant.
Quelle est la fonction «Essayez» de Google?
Avant de discuter de mes préoccupations avec la nouvelle fonctionnalité d'essayer de Google, jetons d'abord un œil sur ce qu'est réellement cette fonctionnalité et comment l'activer sur votre appareil. Essayer est l'une des nombreuses fonctionnalités d'IA que Google a annoncées à Google I / O 2025. Il s'agit essentiellement d'une fonctionnalité d'achat et peut également être considérée comme une expansion de la fonction d'essai virtuelle que la société a introduite en 2023.
La fonctionnalité d'essai sur vous permet de voir si la robe que vous envisagez en ligne vous sera bonne. La fonctionnalité n'est actuellement disponible que dans Google Search Labs, et uniquement pour les utilisateurs qui vivent aux États-Unis. Pour l'activer, vous devez ouvrir l'application Google sur votre smartphone, appuyez sur l'icône du bécher dans le coin supérieur gauche, sélectionnez « Essayez » et allumez le babinage « allumez cette expérience ou désactivez ».
Après cela, appuyez sur l'option «Try Things on». Dans la fenêtre Google Shopping, sélectionnez un vêtements de votre choix et appuyez sur «Télécharger». Maintenant, téléchargez une photo claire et pleine longueur de vous-même. Une fois que vous avez fait cela, Google prendra quelques secondes, puis montrera votre photo avec les vêtements sélectionnés. Vous pouvez facilement parcourir différentes tenues que vous trouvez en ligne et appuyez sur l'option «Essayez-la» pour voir à quoi vous ressemblera chaque tenue.
Cependant, dans mes tests, j'ai constaté que l'option n'apparaît pas partout. Je n'ai pas non plus trouvé d'informations sur le moment et les vêtements de cette option, et sur lesquels il ne le fera pas.
Quoi qu'il en soit, voici quelques résultats de moi essayant différentes tenues à l'aide de la fonctionnalité Try On.
Les résultats sont assez impressionnants; Cependant, il convient de mentionner que parfois l'IA change la structure du visage et quelques autres éléments de l'image. En dehors de cela, les résultats remplissent définitivement l'objectif principal de cette fonctionnalité – pour montrer à quoi vous ressemblera une robe.
En rapport
Un nouveau service d'IA préoccupant peut suivre où une photo a été prise
Eye Spy avec mon œil robotique.
Existe-t-il un problème de confidentialité majeur avec cette fonctionnalité?
Bien que les outils d'IA comme Try On soient conçus pour vous faciliter les choses, ils viennent tous avec de grandes problèmes de confidentialité. Lorsque vous utilisez ces outils, ils collectent probablement toutes les données que vous soumettez et l'utilisez pour former leurs modèles. Qu'il s'agisse d'images, de texte ou de vidéo – quel que soit le téléchargement sur ces outils d'IA, ils l'utiliseront très probablement à des fins de formation.
Par exemple, tous les messages et interactions que vous faites sur X sont utilisés pour former Grok, un chatbot développé par XAI. Heureusement, de nombreuses entreprises d'IA, y compris XAI, vous donnent la possibilité d'empêcher que vos données soient utilisées pour la formation d'IA.
Ce fut l'une des premières pensées qui m'est venue à l'esprit en utilisant la fonctionnalité d'essai de Google. Alors que toutes les autres sociétés recherchent de nouvelles sources de données, Google n'utiliserait-il pas l'image que je télécharge pour la fonctionnalité d'essai pour former ses modèles d'IA? Étonnamment, ce ne sera pas!
S'adressant à cette préoccupation de confidentialité, un porte-parole de Google a déclaré à CNET: «Votre photo téléchargée n'est jamais utilisée au-delà des choses sur pratiquement, et votre photo n'est pas utilisée à des fins de formation. Il n'est pas partagé avec d'autres produits, services ou tiers Google, et vous pouvez le supprimer ou le remplacer à tout moment.»
Donc, cela indique clairement que Google n'utilisera pas la photo que nous téléchargeons pour la formation des données, mais ce n'était pas ma principale préoccupation.
En rapport
Les générateurs d'images IA ont expliqué: comment ils fonctionnent et ce qu'ils peuvent faire
En regardant la vue d'ensemble.
La fonctionnalité pourrait être abusée
La raison pour laquelle je suis un peu sceptique quant à la fonctionnalité d'essayer de Google est qu'il permet à quiconque de télécharger l'image de quelqu'un d'autre et de les faire apparaître dans tous les vêtements. Selon le type d'image créé, il pourrait endommager la réputation de la personne impliquée ou être utilisée pour les harceler d'une manière ou d'une autre.
Par exemple, un ami espiègle pourrait télécharger votre photo et utiliser la fonction d'essayer pour vous faire apparaître dans des vêtements peu flatteurs ou non conventionnels.
Cette situation pourrait être particulièrement problématique si elle est utilisée pour faire en sorte que quelqu'un porte des vêtements inappropriés ou révélateurs en utilisant cette fonctionnalité. Ces images pourraient ensuite être partagées sur les réseaux sociaux, pour le chantage ou pour la pêche au chat.
En rapport
Comment créer des images d'IA de haute qualité: Conseils pour fabriquer une fabrication rapide
La fabrication d'invites d'IA pour la génération d'images est plus facile que vous ne le pensez.
Google doit certainement prendre des mesures pour résoudre ce problème avant que la fonctionnalité obtienne une version publique plus répandue. Sinon, ne soyez pas surpris de voir les médias sociaux inondés de fausses images plus générées par l'AI.