Google dévoile des puces TPU de 4e génération pour un apprentissage automatique plus rapide

Google dévoile des puces TPU de 4e génération pour un apprentissage automatique plus rapide


Lors de sa conférence I/O demain, Google présentera en avant-première les derniers clusters d’apprentissage automatique de Google Cloud, qui non seulement ciblent neuf exaflops de performances de pointe, mais le font en utilisant 90 % d’énergie sans carbone. Ce sera le plus grand centre d’apprentissage automatique accessible au public au monde.

Au cœur des nouveaux clusters se trouve le pod TPU V4. Ces unités de traitement Tensor ont été annoncées à Google I/O l’année dernière, et les équipes d’IA de Meta, LG et Salesforce ont déjà eu accès aux capsules. Les TPU V4 permettent aux chercheurs d’utiliser le cadre de leur choix, que ce soit Tensorflow, JAX ou PyTorch, et ont déjà permis des avancées chez Google Research dans des domaines tels que la compréhension du langage, la vision par ordinateur et la reconnaissance vocale.

Basés au centre de données de Google en Oklahoma, les charges de travail potentielles pour les clusters devraient être similaires, analysant des données dans les domaines du traitement du langage naturel, des algorithmes de vision par ordinateur et des systèmes de recommandation.

(Crédit image : Google)

L’accès aux clusters est proposé par segments, allant de quatre puces (une machine virtuelle TPU) à des milliers de puces. Les segments avec au moins 64 puces utilisent des liaisons toroïdales tridimensionnelles, offrant une bande passante plus élevée pour les opérations de communication de masse. Les puces V4 sont également capables d’accéder à deux fois la mémoire de la génération précédente (32 Gio contre 16) et à deux fois la vitesse d’accélération lors de l’entraînement de modèles à grande échelle.

« Pour rendre le matériel d’IA avancé plus accessible, nous avons lancé il y a quelques années le programme TPU Research Cloud (TRC) qui a fourni un accès gratuit aux TPU à des milliers de passionnés de ML à travers le monde », a déclaré Jeff Dean, vice-président principal de Google Research. et IA. « Ils ont publié des centaines d’articles et des bibliothèques github open source sur des sujets allant de » Écrire de la poésie persane avec l’IA » à « Discriminer entre le sommeil et la fatigue induite par l’exercice à l’aide de la vision par ordinateur et de la génétique comportementale ». La sortie de Cloud TPU v4 est une étape importante à la fois pour Google Research et pour notre programme TRC, et nous sommes ravis de notre collaboration à long terme avec les développeurs ML du monde entier pour utiliser l’IA pour de bon. »

L’engagement de Google en faveur du développement durable signifie que l’entreprise fait correspondre la consommation d’énergie de son centre de données avec des achats d’énergie vénérables depuis 2017, et d’ici 2030, elle vise à gérer l’ensemble de ses activités avec des énergies renouvelables. Le V4 TPU est également plus économe en énergie que les générations précédentes, produisant trois fois plus de FLOPS par watt que la puce V3.

L’accès aux pods Cloud TPU v4 est proposé dans les options d’évaluation (à la demande), préférée et de remise sur engagement d’utilisation (CUD). Il est proposé à tous les utilisateurs de Google AI Cloud.



Source link

Share iT

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée.