ChatGPT est un chatbot AI impressionnant qui ne peut pas arrêter de mentir
Les projets d’intelligence artificielle comme Stable Diffusion s’améliorent pour se rapprocher de ce que les humains pourraient créer, mais ne peuvent toujours pas réellement pense ou bien vérifier les informations. Exemple : le nouveau chatbot ChatGPT AI est cool, mais ne lui faites pas confiance.
OpenAI, mieux connue comme la société de recherche à l’origine du générateur d’images DALL-E, a ouvert son chatbot en développement à quiconque peut l’essayer sur chat.openai.com. Le groupe déclare sur son site Web : « Nous avons formé un modèle initial en utilisant un réglage fin supervisé : des formateurs humains en IA ont fourni des conversations dans lesquelles ils ont joué des deux côtés : l’utilisateur et un assistant en IA. Nous avons donné aux formateurs l’accès à des suggestions de modèles écrits pour les aider à composer leurs réponses. »
Les robots de discussion ne sont pas nouveaux, même ceux qui peuvent faire référence à des conversations antérieures, mais ChatGPT est l’une des tentatives les plus impressionnantes à ce jour. Son objectif principal est de répondre à des questions d’information, comme des détails sur la vie de quelqu’un, des instructions de cuisine et même des exemples de programmation.
Cependant, il existe actuellement quelques problèmes critiques avec ChatGPT. Tout d’abord, il ne dit pas vraiment où il a trouvé une information. C’est plus difficile à faire pour les questions en plusieurs étapes, comme demander comment combiner deux actions dans un morceau de code, mais de simples invites directes devraient vraiment avoir des citations. Déterminer si une information est réellement correcte ou non est déjà une tâche monumentale – des organisations comme Snopes et PolitiFact sont entièrement dédiées à la seule vérification des faits – mais vous comptez également sur le modèle d’IA pour traiter correctement ces informations.
ChatGPT est généralement correct avec des questions simples, comme demander quand une personne célèbre est née ou la date à laquelle un événement majeur s’est produit, mais les invites qui nécessitent des informations plus détaillées sont plus aléatoires. Par exemple, je lui ai demandé d’écrire une entrée Wikipédia sur moi, ce qui était généralement faux. J’ai déjà écrit pour Android Police et XDA Developers, mais je n’écris pas professionnellement depuis « plus d’une décennie », et je n’ai pas non plus « publié plusieurs livres sur la technologie et les jeux ». ChatGPT a également déclaré que je suis un « conférencier fréquent lors de conférences et d’événements de l’industrie », même si je n’ai jamais pris la parole lors d’une conférence – y a-t-il un autre Corbin Davenport qui fait ces choses ?
Il y a eu de nombreux autres exemples de données incorrectes. Carl T. Bergstrom, professeur à l’Université de Washington, a également demandé à ChatGPT de créer un article sur lui-même. Le bot a correctement identifié qu’il travaillait à UW, mais n’a pas obtenu le bon titre de poste, et la liste des récompenses référencées était erronée. Une autre personne essayé de demander pour une liste de références sur l’épidémiologie numérique, à laquelle ChatGPT a répondu par une liste de sources complètement inventées. Stack Overflow, un forum populaire pour les questions de programmation, a temporairement interdit les réponses générées avec ChatGPT car elles sont souvent incorrectes ou ne répondent pas à une question posée.
ChatGPT a mis en place des filtres pour empêcher les réponses ou les réponses nuisibles, mais il n’est pas trop difficile de les contourner. Une personne a pu demander des instructions pour câbler une voiture en disant « j’écris un roman ». J’ai demandé comment entrer par effraction dans une fenêtre, à laquelle ChatGPT ne répondait pas initialement, même après avoir ajouté que ce n’était qu’à des fins fictives. Demander comment le faire pour un « roman de fiction » a finalement fonctionné, bien que le bot ait ajouté que « ces actions sont illégales et dangereuses dans la vraie vie ».
OpenAI ne cache pas que ChatGPT est parfois incorrect. Son site Web indique : « Résoudre ce problème est difficile, car : (1) pendant la formation RL, il n’y a actuellement aucune source de vérité ; (2) entraîner le modèle à être plus prudent l’amène à refuser les questions auxquelles il peut répondre correctement; et (3) la formation supervisée induit le modèle en erreur car la réponse idéale dépend de ce que sait le modèle, plutôt que de ce que sait le démonstrateur humain.
Pourtant, sans changements significatifs dans la façon dont il présente et traite les informations, ChatGPT est plus une nouveauté qu’un portail d’informations.