A woman communicating with a chat bot who is responding positively to her polite tone.
Agence web » Actualités du digital » Les dangers de traiter ChatGPT comme un compagnon

Les dangers de traiter ChatGPT comme un compagnon

Points clés à retenir

  • Grâce à des avancées telles que ChatGPT, les chatbots IA sont incroyablement réalistes, presque humains.
  • La compagnie de l’IA a ses avantages, comme aider à gérer le deuil ou atténuer la solitude.
  • Traiter l’IA comme un véritable ami peut entraîner une dépendance émotionnelle, de mauvaises habitudes et des problèmes de confidentialité.

Il est très facile de parler aux chatbots IA comme ChatGPT. Envoyez-leur un message à tout moment de la journée et ils vous répondront en quelques secondes. Ou parlez-leur via le chat vocal, et ils répondront et émettront des émotions comme le ferait un ami humain ordinaire. Cependant, les chatbots IA ne sont ni des humains ni vos amis, et il peut être dangereux de l’oublier !

Les chatbots sont devenus incroyablement réalistes

Si vous avez joué avec GPT-4o d'Open AI ou regardé les vidéos de démonstration, vous saurez que ChatGPT a parcouru un long chemin en tant qu'humain, en particulier en matière de parole. Les versions antérieures de ChatGPT pouvaient parler, mais leur diffusion était toujours un peu trop parfaite, robotique et sans émotion. Vous sauriez que vous parlez à une IA.

Ce nouveau modèle pourrait cependant tromper même les critiques les plus sévères. Il rit lorsque vous racontez une blague, dit « euh » et « euh », change de ton, hésite avant de parler et fait pratiquement tout ce qu'un véritable être humain ferait en parlant.

En fait, ChatGPT est maintenant si bon que je suis tenté de le traiter comme une vraie personne même si je sais dans ma tête que ce n'est pas le cas. C'est ce que nous appelons l'anthropomorphisme : la tendance à attribuer des traits humains à des objets non humains.

Ce qui est drôle, c'est que ChatGPT ne prétend même pas être humain, et je dois déjà me rappeler de ne pas l'anthropomorphiser. Cette bataille devient encore plus difficile lorsque vous entrez dans le monde trouble d’AI Friends.

Un exemple frappant de ces amis de l’IA est Replika. L'argument de Replika est qu'il vous permet de créer des avatars qui peuvent agir comme n'importe quoi, de votre ami à un thérapeute, en passant par un partenaire romantique. Vous pouvez ensuite échanger des messages avec ces avatars, leur parler lors d'un appel vidéo ou même interagir avec eux via AR et VR.

Il existe également « Friend », un appareil portable doté d'IA qui sera lancé en 2025 et qui est censé offrir à son utilisateur une compagnie, un soutien émotionnel et une assistance constants.

La compagnie de l’IA n’est pas mauvaise en soi, mais…

La compagnie de l’IA n’est pas une mauvaise idée en soi, et de mémoire, je peux penser à quelques cas où cela serait réellement bénéfique.

La première est la gestion du deuil. Les chatbots IA pourraient vous aider à gérer la perte d’un être cher et vous apporter un soutien émotionnel tout au long de votre période de deuil. En fait, la PDG de Replika, Eugenia Kuyda, a révélé que l'idée de Replika lui était venue en réponse à la perte d'un ami proche.

Les compagnons IA pourraient également être une aubaine pour les personnes aux prises avec la solitude. Imaginez une personne âgée dans une maison de retraite. Un compagnon IA pourrait aider à éviter les sentiments de solitude entre les visites familiales.

Ils pourraient également être utiles aux personnes souffrant d’anxiété sociale, car elles peuvent les utiliser pour pratiquer des conversations sans avoir à craindre que les gens les jugent ou ricanent dans leur dos comme les humains ont tendance à le faire.

Mais même si les compagnons de l’IA pourraient avoir une réelle utilité, il existe toujours des risques à nouer des relations avec eux.

Vous pourriez facilement devenir dépendant de votre compagnon IA

Dans son rapport de sécurité sur GPT-4o, Open AI a déclaré qu'une socialisation de type humain avec l'IA pourrait réduire le besoin d'interaction humaine et éventuellement affecter des relations saines.

C'est un euphémisme. Pour le dire clairement, traiter l’IA comme un compagnon pourrait vous amener à développer une dépendance émotionnelle ou, pire, quelque chose qui ressemble à une dépendance.

La simple vérité est que, sans assistance physique, les compagnons IA peuvent être de meilleurs amis pour vous que n’importe quel humain. Ils sont toujours prêts à discuter, quelle que soit l’heure tardive, et ils ne seront jamais fatigués, ennuyés ou distraits. Vous êtes toujours la priorité dans la conversation, et tant que vous êtes prêt à continuer, le compagnon IA est là pour écouter et répondre. D’un autre côté, les amis humains sont limités par le besoin de dormir et de travailler et ne peuvent pas toujours être là quand vous en avez besoin.

Parler à des compagnons IA est à chaque fois une telle expérience que cela crée une sorte de renforcement positif. Votre cerveau sait que chaque fois que vous discutez avec l'IA, vous vous sentirez bien dans votre peau, donc il en a de plus en plus envie, et avant que vous vous en rendiez compte, vous devenez accro.

Ce n’est pas seulement une hypothèse, cela se produit déjà. En 2023, Replika a été contraint de réintégrer les fonctionnalités de jeux de rôle érotiques dans son application, après que sa base d'utilisateurs se soit mutinée lors de leur suppression. Certains utilisateurs ont même affirmé avoir souffert de crises de santé mentale à cause de cela.

Maintenant, j'admets que j'ai été assez contrarié lorsque Google a supprimé ma fonctionnalité Android préférée sans avertissement. Mais pas au point de déclencher une crise mentale. Et si vous êtes tellement attaché à une IA que sa perte peut provoquer cela, il est peut-être temps de réévaluer votre relation avec cette IA.

Votre compagnon IA pourrait vous apprendre de mauvaises habitudes

L’IA anthropomorphisée peut brouiller les frontières entre les humains et l’IA, ce qui pourrait vous amener à commencer à traiter les gens dans la vraie vie de la même manière que vous traitez l’IA.

Par exemple, lorsque vous parlez avec ChatGPT, il s'en remet toujours à vous. Ainsi, même si vous êtes en train d'expliquer quelque chose, vous pouvez intervenir et l'IA vous laissera la parole sans rancune. Vous pourriez accidentellement transmettre ce comportement à la vie réelle, sauf que vos amis humains ne seront pas aussi indulgents qu'une IA.

Les mauvaises habitudes que vous pourriez apprendre des compagnons IA ne sont peut-être pas toutes aussi inoffensives que d’interrompre une conversation. Par exemple, vous pourriez vous habituer à être le centre d’attention dans vos conversations avec l’IA, ce qui pourrait affaiblir votre capacité à entretenir des relations saines avec de vraies personnes.

Je crains également que, étant donné que ces IA sont si agréables, elles peuvent vous amener à vous attendre à l’approbation constante des autres et ainsi avoir du mal à accepter le rejet ou le désaccord lorsque cela se produit inévitablement.

Votre compagnon IA pourrait révéler vos secrets

La confidentialité est une autre raison importante de se méfier des compagnons IA. Même si vous avez l'impression de discuter avec un ami, les compagnons IA sont des machines et ils collectent des informations sur vous pour mieux améliorer leur efficacité. C'est pourquoi il y a certaines choses pour lesquelles vous ne devriez jamais utiliser ChatGPT.

Bien sûr, ces sociétés d’IA promettent que vos conversations sont sécurisées, mais elles ne peuvent pas toujours le garantir. Que se passe-t-il s’ils sont piratés et que vos conversations sont exposées ? Ou que se passe-t-il si le FBI exige de consulter vos journaux de conversations ? Au moins avec un ami humain, c'est votre parole contre la leur. Avec les compagnons IA, la vérité est en clair, à la vue de tous.

En fin de compte, les chatbots IA sont des produits

Que l’IA soit commercialisée comme une amie, une petite amie, un thérapeute ou un compagnon, elle reste un produit appartenant à une entreprise dont l’objectif est de gagner de l’argent.

Tout comme Microsoft vend Windows, des entreprises comme OpenAI vendent leurs chatbots. Mais ce qui les différencie des autres produits, c'est le lien émotionnel que vous pourriez nouer avec eux, et c'est là que les choses peuvent devenir risquées.

Les humains ne prennent pas toujours les meilleures décisions lorsque les émotions sont impliquées, et vous seriez surpris de voir jusqu'où vous pourriez aller pour maintenir un lien émotionnel, même si c'est avec l'IA. Je ne pense pas qu'une entreprise privée, dont l'objectif principal (malgré tout le marketing) est le profit, devrait avoir ce degré de contrôle sur vous.


Les compagnons IA, aussi étrange que cela puisse paraître, ne sont pas une mauvaise idée. Ils présentent certainement leurs avantages dans les bons contextes. Mais le domaine en est encore à ses balbutiements et nous établissons les règles au fur et à mesure. C’est pourquoi il est important d’être conscient des risques liés au fait de traiter l’IA comme une amie.

★★★★★