InformatiqueUne

Datacenters : Nvidia et Vertiv s’allient pour le déploiement d’applications d’IA

Nvidia et Vertiv annoncent le développement d’une architecture complète de refroidissement liquide pour les datacenters du futur, plus complexes que les infrastructures traditionnelles. Cette solution vise à optimiser les performances, le coût, l’efficacité et la résilience des centres de données, tout en accélérant la vitesse de déploiement d’applications d’IA.

Véritables usines dédiées au calcul intensif, les datacenters d’IA sont bien plus complexes et exigeants que les installations informatiques traditionnelles. Ils accueillent un maximum de GPU dans les racks pour pouvoir intégrer des applications d’intelligence artificielle. Ces infrastructures reposent ainsi sur des configurations ultra-denses – jusqu’à 30 kW par rack – générant beaucoup plus de chaleur qu’avec les CPU classiques.

Nvidia et Vertiv développent une architecture de référence complète pour les datacenters d’IA

Ce problème ne peut être résolu par le (seul) refroidissement par air, car celui-ci n’est pas viable dans des configurations de racks denses remplis de GPU. Il faut donc passer au refroidissement liquide. Pour accompagner cette transformation, Nvidia et Vertiv, une société mondiale spécialisée dans les solutions d’infrastructure critique, ont développé une architecture de référence complète visant à fournir des unités de refroidissement liquide avancées Liebert. Ces technologies permettent de transformer les architectures de centres de données traditionnels en usines d’IA capables d’alimenter les applications d’intelligence artificielle.

Optimisation de la vitesse de déploiement d’applications d’IA

Système hybride de refroidissement par air et par liquide, la nouvelle architecture de référence de 7 MW supportera jusqu’à 132 kW par rack. Elle adopte une approche de bout en bout de la conception de l’infrastructure pour optimiser les performances, l’efficacité énergétique, le coût, la résilience et l’évolutivité des datacenters actuels et futurs. Elle doit surtout accélérer la vitesse de déploiement d’applications d’IA. La plateforme de calcul totalise 64 racks (donc 4 608 GPU), ce qui lui permet de gérer des charges de travail d’IA très exigeantes.

Une réduction de 20 % des coûts annuels de refroidissement

Selon Vertiv, les racks de son architecture hybride sont 25 fois plus denses que ceux des serveurs actuels et peuvent supporter des températures extérieures allant jusqu’à 40°. Grâce à l’utilisation de modules préconfigurés et à l’intégration en usine, l’entreprise assure aussi pouvoir fournir une plateforme critique pour l’IA jusqu’à 50 % plus rapidement que les constructions sur site. Par ailleurs, la solution permettrait de réduire jusqu’à 20 % les coûts annuels de refroidissement par rapport aux solutions à vis fixes.

Nvidia espère la construction d’une nouvelle industrie d’usines d’IA

L’architecture complète de refroidissement liquide de Vertiv fait partie de son portefeuille de conceptions de référence pour les datacenters rétrofit et greenfield. Elle introduit un changement significatif dans la manière dont les entreprises abordent ces infrastructures. Jensen Huang, le CEO de Nvidia, pense qu’avec les technologies de refroidissement et d’alimentation de classe mondiale de Vertiv, son groupe pourra « réaliser sa vision de réinventer l’informatique et de construire une nouvelle industrie d’usines d’IA qui produisent de l’intelligence numérique au profit de chaque entreprise et de chaque industrie ».

Autres articles à voir

Bouton retour en haut de la page
Fermer
Fermer