J'ai essayé Sora d'OpenAI, et c'est cool, je suppose
Sommaire
Résumé
- Les abonnés ChatGPT Plus bénéficient de tests gustatifs Sora de 5 secondes, et non de clips complets de 20 secondes.
- Les vidéos de Sora restent aléatoires en raison de problèmes de cohérence et de visualisation des invites.
- La technologie vidéo de Sora semble moins mature que la génération d'images, en retard par rapport à Veo 2.
Après des mois de teasing, la technologie de génération vidéo Sora d'OpenAI est accessible au public. J'ai passé du temps à jouer avec cette technologie très attendue et, honnêtement, j'en suis ressorti un peu déçu.
Les abonnés ChatGPT Plus bénéficient d'un test de dégustation de Sora en 5 secondes
Comme tous les autres abonnés ChatGPT Plus, une fois que Sora a été rendu public, j'ai eu accès à la création de mes propres vidéos. Cependant, il s’agit plus d’un testeur de goût que d’une vraie affaire. Les personnes qui paient spécifiquement pour Sora peuvent créer des clips d’une durée maximale de 20 secondes et accéder à la résolution plus élevée de 1080p. Pour les abonnés Plus, vous bénéficiez de clips de 5 secondes et d’une qualité jusqu’à 720p.
Tout ce que vous avez à faire est de mettre votre invite dans la zone de texte, et quelques secondes plus tard, vous avez un clip vidéo, à peu près comment fonctionnent Midjourney ou d'autres générateurs d'images IA du point de vue de l'utilisateur.
Même les clips courts sont très aléatoires
L'une des principales raisons pour lesquelles l'expérience « complète » de Sora est limitée à 20 secondes est qu'il existe encore des problèmes importants avec cette technologie en termes de cohérence. Plus la vidéo dure longtemps, plus elle prend d'erreurs et de tangentes étranges.
Ce problème mis à part, j’ai eu du mal à visualiser ce que je mettais dans mes invites. Par exemple, je lui ai demandé un extrait d'un vaisseau spatial entrant en distorsion, ce qui est un trope de science-fiction assez courant.
Eh bien, c'est un peu ce que j'avais en tête, mais je ne mettrais pas cela dans ma vidéo de tête parlante YouTube à moitié cuite.
À d’autres moments, c’est plutôt parfait. Comme lorsque j’ai demandé un logo HTG chromé qui tourne.
Le dernier problème que Sora a actuellement concerne toute sorte de physique. J'ai vu beaucoup de vidéos mettant en scène des animaux qui ne bougent tout simplement pas de manière crédible, et lorsque j'ai demandé quelque chose de simple : un roulement à billes roulant sur un rail, cela m'a donné cette vidéo étrange.
Même lorsque les vidéos sont visuellement parfaites, c'est généralement le mouvement qui les révèle sous forme de clip généré par l'IA.
Sora se sent beaucoup moins mature que la génération d'images
Je ne veux pas donner l'impression que Sora n'est pas impressionnant. C'est une réussite majeure, mais son utilisation ressemble aux premiers jours de la génération d'images. Cela ne serait pas aussi évident sans l'annonce précise de Google concernant Veo 2.
Les vidéos de ce système sont bien meilleures que celles de Sora, en particulier en ce qui concerne la physique des objets en mouvement qui semble correcte.
Consultez simplement cette compilation officielle de Google.
Bien que l’on puisse affirmer que ceux-ci sont triés sur le volet, quelques YouTubers ont eu accès à Veo 2, et l’opinion semble être que Veo 2 arrive en tête de loin.
Pour l'instant, c'est juste un jouet amusant
Jouer un peu avec Sora grâce à un abonnement que j'ai déjà était amusant, mais je ne voudrais certainement pas payer les frais de 200 $ par mois pour ce produit dans son état actuel. Vous feriez bien mieux de simplement vous abonner à un service de stock vidéo.
En regardant ce que Google a concocté et en considérant qu'il existe d'autres concurrents dans ce domaine comme HeyGen et Runway ML, je m'attends à ce que les mises à jour et les améliorations soient rapides et fréquentes. Ne serait-ce que pour aucune autre raison que OpenAI étant implacable dans son amélioration de ChatGPT.
Je vois encore un avenir à moyen terme où la génération de vidéos IA sera capable de bien plus, et permettra même de générer du contenu de forme plus longue avec une adhésion rapide et précise et la possibilité de modifier des éléments dans une scène. Cependant, ce jour est probablement encore dans quelques années, et pour l’instant, il s’agit d’une curiosité intéressante, bien que peu pratique.