OpenAI craint que les humains deviennent « émotionnellement dépendants » de la voix humaine de ChatGPT
Agence web » Actualités du digital » OpenAI craint que les humains deviennent « émotionnellement dépendants » de la voix humaine de ChatGPT

OpenAI craint que les humains deviennent « émotionnellement dépendants » de la voix humaine de ChatGPT

OpenAI, le créateur de ChatGPT, a fait part de ses inquiétudes quant au fait que les utilisateurs pourraient développer une dépendance émotionnelle au prochain mode vocal du chatbot.

Le mode ChatGPT-4o est actuellement analysé pour des raisons de sécurité avant d'être déployé auprès de la communauté. Il permet aux utilisateurs de converser naturellement avec l'assistant comme s'il s'agissait d'une personne réelle.

Cela implique un risque de dépendance émotionnelle et une « confiance de plus en plus mal calibrée » dans un modèle d’IA qui serait exacerbée par des interactions avec une voix étrangement humaine qui peut prendre en compte les émotions de l’utilisateur à travers le ton de sa voix.

Les conclusions de l'évaluation de sécurité (via Wired), publiées cette semaine, ont exprimé des inquiétudes quant au langage qui exprimait des os partagés entre l'humain et l'IA.

« Bien que ces cas semblent bénins, ils indiquent qu’il est nécessaire de poursuivre les recherches sur la manière dont ces effets pourraient se manifester sur des périodes plus longues », peut-on lire dans l’étude. L’étude indique également que la dépendance à l’IA pourrait affecter les relations avec d’autres humains.

« La socialisation de type humain avec un modèle d’IA peut produire des externalités ayant un impact sur les interactions entre humains. Par exemple, les utilisateurs peuvent nouer des relations sociales avec l’IA, réduisant ainsi leur besoin d’interaction humaine, ce qui peut profiter aux individus seuls mais peut également affecter les relations saines. Une interaction prolongée avec le modèle peut influencer les normes sociales. Par exemple, nos modèles sont déférents, ce qui permet aux utilisateurs d’interrompre et de « prendre le micro » à tout moment, ce qui, bien qu’attendu d’une IA, serait antinormatif dans les interactions humaines », ajoute le document.

En outre, l’étude a souligné la possibilité d’une dépendance excessive.

« La capacité à effectuer des tâches pour l'utilisateur, tout en stockant et en « mémorisant » des détails clés et en les utilisant dans la conversation, crée à la fois une expérience produit convaincante et un risque de dépendance excessive. »

L'équipe a déclaré qu'elle étudierait plus avant la possibilité de recourir à la voix pour utiliser ChatGPT. Cette fonctionnalité a attiré l'attention du grand public au début de l'été en raison de la ressemblance frappante de la voix avec celle de l'actrice Scarlett Johansson. L'actrice, qui a joué le rôle d'une IA dont son utilisateur est tombé amoureux dans le film Her, a refusé l'offre de doubler l'assistant d'OpenAI.

Cependant, le résultat final a fini par lui ressembler étrangement, malgré l'insistance du PDG Sam Altman sur le fait que la voix n'était pas clonée.

★★★★★