Agence web » Actualités du digital » AMD annonce un nouveau GPU «Instinct MI100» et brise la barrière des 10 TFLOPS dans FP64 –

AMD annonce un nouveau GPU «Instinct MI100» et brise la barrière des 10 TFLOPS dans FP64 –

Avec la demande croissante d’applications cloud HPC et basées sur l’IA, il est nécessaire de disposer de GPU de centre de données très puissants. NVIDIA est généralement le roi de ce domaine, mais le dernier GPU MI100 d’AMD présente une concurrence sérieuse.

Une carte pour le marché HPC

La carte est rapide, sérieusement rapide. Le GPU A100 haut de gamme de NVIDIA culmine à 9,7 TFLOPS dans les charges de travail FP64. Le nouveau «AMD Instinct MI100» dépasse celui de 11,5 TFLOPS.

Bien entendu, les cartes NVIDIA prennent en charge d’autres techniques d’accélération pour les charges de travail spécifiques à l’IA dans différents formats de nombre, tels que le format de précision TensorFloat-32 et la parcimonie structurée à grain fin. Pour les charges de travail d’IA et d’apprentissage automatique, NVIDIA est toujours roi, car ses cartes sont spécialement conçues pour les opérations basées sur des tenseurs.

Mais, pour le calcul haute performance à usage général, le MI100 prend la couronne de la puissance de calcul brute. De plus, c’est près de la moitié du prix et est beaucoup plus efficace par watt.

En plus des autres améliorations, la nouvelle architecture apporte également des améliorations de précision mixte, avec leur technologie «Matrix Core» offrant des performances FP16 7 fois supérieures par rapport à leur génération précédente de cartes.

Les processeurs AMD et Instinct GPUS alimentent tous deux deux des supercalculateurs exascale du département américain de l’énergie. Le supercalculateur «Frontier» devrait être construit l’année prochaine avec les processeurs Epyc et MI100 actuels, et fournira plus de 1,5 exaflops de puissance de calcul de pointe. Le supercalculateur «El Capitan» devrait être construit en 2023 sur du matériel de nouvelle génération et fournira plus de 2 exaflops de puissance double précision.

ROCm peut-il être à la hauteur de CUDA?

Bien sûr, toute cette puissance est inutile si le logiciel ne la prend pas en charge. Ce n’est un secret pour personne que NVIDIA a réussi à faire de l’apprentissage automatique un peu un jardin clos.

Le framework de calcul de NVIDIA est appelé CUDA, ou Compute Unified Device Architecture. C’est propriétaire et ne fonctionne qu’avec leurs cartes. Mais comme leurs cartes ont toujours été les plus rapides, de nombreuses applications ne sont construites qu’avec le support CUDA avant tout.

Il existe des modèles de programmation multiplateformes, notamment OpenCL, qu’AMD prend très bien en charge avec leur plateforme ROCm. Les cartes NVIDIA et AMD prennent en charge OpenCL, mais comme NVIDIA ne le prend en charge qu’en transpilant vers CUDA, il est en fait plus lent d’utiliser OpenCL avec une carte NVIDIA. Pour cette raison, toutes les applications ne le prendront pas en charge.

En fin de compte, vous devrez faire vos propres recherches et voir si l’application que vous avez l’intention d’exécuter peut être exécutée sur des cartes AMD, et peut-être être prêt à bricoler et à corriger des bogues. Les GPU NVIDIA, quant à eux, sont pour la plupart plug and play, donc même si AMD est plus rapide, NVIDIA peut continuer à les gêner avec des logiciels à source fermée.

Cependant, cette situation s’améliore – AMD s’est engagé à tout ouvrir et à créer un environnement ouvert. Tensorflow et PyTorch, deux frameworks ML très populaires, prennent tous deux en charge l’écosystème ROCm.

Espérons que les spécifications brutes des dernières offres d’AMD pourront pousser l’industrie vers un environnement plus compétitif. Après tout, ils sont utilisés dans les supercalculateurs

★★★★★