Microsoft Azure va lancer le GPU AMD MI200 pour la formation à l'IA • The Register

Microsoft Azure va lancer le GPU AMD MI200 pour la formation à l’IA • The Register

[ad_1]

Version Microsoft Microsoft Azure a révélé jeudi qu’il utiliserait les GPU MI200 Instinct de premier plan d’AMD pour effectuer une formation à l’IA « à grande échelle » dans le cloud.

« Azure sera le premier cloud public à déployer des clusters des GPU phares MI200 d’AMD pour une formation à l’IA à grande échelle », a déclaré le CTO de Microsoft, Kevin Scott, lors de la conférence Build de l’entreprise cette semaine. « Nous avons déjà commencé à tester ces clusters en utilisant certaines de nos propres charges de travail d’IA avec d’excellentes performances. »

AMD a lancé ses GPU de la série MI200 lors de son événement Accelerated Datacenter l’automne dernier. Les GPU sont basés sur l’architecture CDNA2 d’AMD et intègrent 58 milliards de transistors et jusqu’à 128 Go de mémoire à bande passante élevée dans un boîtier à double puce.

Lors du lancement, Forrest Norrod, vice-président senior et directeur général du centre de données et des solutions embarquées chez AMD, a affirmé que les puces étaient près de 5 fois plus rapides que le GPU A100 haut de gamme de Nvidia, du moins dans les calculs FP64 « très précis ». Cet avantage a été considérablement réduit dans les charges de travail FP16 les plus courantes, où AMD affirme que les puces sont environ 20 % plus rapides que l’A100 de Nvidia. Nvidia est le principal acteur GPU du centre de données.

Cependant, il reste à voir si et quand les instances Azure basées sur les puces graphiques AMD susmentionnées seront généralement disponibles, ou si Microsoft prévoit de les utiliser pour les charges de travail internes.

Ce que nous savons, c’est que Microsoft travaille en étroite collaboration avec AMD pour optimiser les GPU du fabricant de puces pour les charges de travail d’apprentissage automatique PyTorch.

«Nous approfondissons également nos investissements dans le framework open source PyTorch, en travaillant avec l’équipe principale de PyTorch et AMD pour optimiser les performances et l’expérience des développeurs pour les clients exécutant PyTorch sur Azure, et pour garantir que les projets PyTorch des développeurs fonctionnent bien sur le matériel AMD, », a déclaré Scott.

Le registre a contacté Microsoft au sujet de ses plans pour les GPU AMD. Nous vous ferons savoir si nous entendons quelque chose.

Le marché des GPU d’entreprise se réchauffe

Le développement de PyTorch était un élément central du partenariat stratégique de Microsoft avec Meta AI, annoncé plus tôt cette semaine.

En plus de travailler avec Microsoft pour optimiser son infrastructure pour les charges de travail PyTorch, le géant des médias sociaux a annoncé qu’il déploierait des « charges de travail de formation ML de pointe » sur un cluster Azure dédié de 5 400 GPU Nvidia A100.

Le déploiement est intervenu juste au moment où le centre de données est devenu la plus grande unité commerciale de Nvidia avec 3,75 milliards de dollars, dépassant les jeux (3,62 milliards de dollars) pour la première fois.

Bien que Nvidia puisse toujours se tailler la part du lion sur le marché des GPU d’entreprise, elle fait face à sa concurrence la plus rude depuis des années, et ce n’est pas seulement AMD qui frappe à sa porte.

Les GPU Ponte Vecchio d’Intel devraient être lancés plus tard cette année aux côtés des processeurs Sapphire Rapids Xeon Scalable du fabricant de puces.

Et, plus tôt ce mois-ci, Intel a présenté ses accélérateurs de formation et d’inférence IA de deuxième génération, qui, selon lui, offrent des performances supérieures à l’A100. ®

[ad_2]

Source link

Share iT

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée.