GPT-4 est lancé aujourd'hui, mais vous l'avez peut-être déjà essayé
Agence web » Actualités du digital » GPT-4 est lancé aujourd’hui, mais vous l’avez peut-être déjà essayé

GPT-4 est lancé aujourd’hui, mais vous l’avez peut-être déjà essayé

Quatre mois après le lancement extrêmement réussi de ChatGPT, OpenAI est de retour avec un modèle de langage amélioré. GPT-4 est lancé aujourd’hui et sera bientôt intégré à des applications telles que Duolingo et Khan Academy. Mais il y a de bonnes chances que vous ayez déjà testé GPT-4.

Dans un nouveau billet de blog, Microsoft indique que son chatbot Bing utilise déjà GPT-4. En fait, il a été lancé avec GPT-4. Cela est un peu surprenant – Microsoft a précédemment décrit le chatbot Bing comme une version « plus puissante » et « personnalisée » de GPT-3.5. (Pour être parfaitement clair, le chatbot AI de Bing n’est pas une version simple de GPT-4. Le modèle de base GPT-4 ne peut pas accéder aux informations au-delà de septembre 2021, entre autres différences.)

Les débuts de GPT-4 sont en fait assez modestes. Cela semble être une mise à niveau incrémentielle, et le PDG d’OpenAI Sam Altman met en garde que le GPT-4 « semble plus impressionnant lors de la première utilisation qu’après avoir passé plus de temps avec ». Sur la base de notre expérience avec le chatbot Bing, je suis enclin à être d’accord. Comme GPT-3.5, le nouveau modèle GPT-4 est sujet aux inexactitudes et aux hallucinations.

Cela dit, GPT-4 est toujours une avancée notable. OpenAI affirme que ce nouveau modèle de langage est « 40% plus susceptible » de produire des réponses factuelles que son prédécesseur. Et fait intéressant, il est 82 % moins susceptible de fournir du « contenu non autorisé » à l’utilisateur. (Mais je suis un peu sceptique, car nous n’avons pas eu beaucoup de mal à extraire l’invite initiale et les autres « contenus non autorisés » du chatbot de Bing.)

Et GPT-4 est un système multimodal, ce qui signifie qu’il peut fonctionner avec plus que du texte. Mais ce système multimodal est un peu rudimentaire. GPT-4 peut « voir » des images, ce qui devrait s’avérer incroyablement utile, mais il ne peut pas produire images (à l’exception des images ASCII). La sortie du modèle est toujours limitée à la langue.

Je dois répéter qu’il s’agit d’une mise à jour incrémentielle. GPT-4 manque toujours d’intelligence générale et, selon les mots du PDG Sam Altman, « il est toujours défectueux, toujours limité ». Exagérer ou surévaluer les capacités de cette IA est une mauvaise idée – les modèles de langage comme GPT-4 sont utiles et intéressants, mais ils ne doivent pas être traités comme une source d’autorité, en particulier dans des environnements comme Bing ou Google Search.

Vous pouvez tester GPT-4 aujourd’hui avec ChatGPT Plus (avec un plafond de 100 messages toutes les 4 heures). Ou rejoignez simplement le programme d’accès anticipé au chatbot Bing. La fonctionnalité multimodale ne fonctionne pas pour le moment ; vraisemblablement, il sera lancé après l’événement développeur GPT-4 le 14 mars à 16 h HE.

Source : OpenAI

★★★★★