Malgré un partenariat "clé" avec AWS, Meta se tourne vers les GPU Azure • The Register

Malgré un partenariat « clé » avec AWS, Meta se tourne vers les GPU Azure • The Register

[ad_1]

L’unité commerciale AI de Meta est passée à Microsoft Azure cette semaine et a annoncé un partenariat stratégique qui, selon elle, stimulera le développement de PyTorch dans le cloud public.

Traitement [PDF] verra la société faîtière de Mark Zuckerberg déployer des charges de travail d’apprentissage automatique sur des milliers de GPU Nvidia fonctionnant sur Azure. Bien qu’il s’agisse d’une victoire pour Microsoft, le partenariat remet en question la force de l’engagement de Meta envers Amazon Web Services (AWS).

En ces jours de décembre, Meta a nommé AWS son « fournisseur de cloud stratégique clé à long terme ». Le cloud d’Amazon, plutôt que de les forcer à entrer dans leurs propres centres de données privés.Le pacte comprenait également un engagement à étendre la consommation par Meta des services d’informatique, de stockage, de base de données et de sécurité basés sur le cloud d’Amazon.

L’équipe AWS-Meta a également inclus une collaboration pour optimiser les charges de travail à l’aide du framework d’apprentissage automatique PyTorch, que Meta, puis Facebook, a publié en 2016, pour une mise en œuvre sur les services Elastic Compute Cloud et SageMaker du fournisseur de cloud.

Cependant, il semble que Meta soit plus qu’heureux de jouer sur le terrain, en déployant des charges de travail où bon lui semble. Je suppose que c’est ce qu’ils appellent le multicloud ; il démontre également la différence entre « clé » et « exclusif ».

L’annonce de cette semaine a révélé que Meta a commencé à déployer des charges de travail sur des instances accélérées Azure Nvidia A100 pour former des modèles d’IA en 2021. Meta prévoit désormais d’étendre les déploiements sur Azure à un cluster dédié composé de 5 400 GPU A100 de calibre 80. Go de Nvidia pour accélérer Recherche et développement en IA sur les «charges de travail de formation edge ML» pour son unité commerciale IA.

En fait, le géant des médias sociaux affirme avoir formé son modèle de transformateur de traitement du langage naturel OPT-175B de 175 milliards de paramètres, publié en mars, sur Azure.

« Avec la puissance de calcul d’Azure et 1,6 To/s de bande passante d’interconnexion par machine virtuelle, nous pouvons accélérer nos demandes croissantes de formation pour mieux répondre aux modèles d’IA plus grands et plus innovants », a déclaré le vice-président de Meta AI, Jerome Pesenti, dans un communiqué. .

Bien que ni Microsoft ni Meta n’aient fourni de détails sur la manière exacte dont le cluster GPU massif sera utilisé à l’avenir, il est fort possible que, comme la précédente collaboration AWS du géant des médias sociaux, cela implique PyTorch.

En plus de l’accord d’infrastructure, Meta a déclaré qu’il collaborerait avec Microsoft pour « étendre l’adoption de PyTorch sur Azure ».

« Nous sommes heureux de travailler avec Microsoft pour étendre notre expérience à leurs clients utilisant PyTorch dans leur parcours de la recherche à la production », a déclaré Pesenti.

Plus tard cette année, Microsoft prévoit de déployer les accélérateurs de développement PyTorch qui, selon lui, faciliteront le déploiement du framework sur Azure.

Le registre a contacté Meta pour plus de commentaires ; Nous vous informerons si nous recevons une réponse. ®

[ad_2]

Source link

Share iT

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée.