Présentation du Switch FS NVIDIA Mellanox InfiniBand
Dans l'ère numérique actuelle, la transmission rapide des données est cruciale dans les domaines de l'informatique et de la communication modernes. Les switchs InfiniBand de NVIDIA Mellanox jouent un rôle clé dans les réseaux des centres de données pour répondre aux demandes de transfert de données à grande échelle et de calcul à haute performance. Cet article présente les principes fondamentaux de la technologie InfiniBand, les fonctionnalités et les caractéristiques des switchs InfiniBand de Mellanox, ainsi que leurs applications dans divers domaines.
Qu'est-ce que l'architecture InfiniBand ?
L'architecture InfiniBand est une nouvelle architecture puissante conçue pour prendre en charge la connectivité E/S pour l'infrastructure Internet, qui apporte la consolidation de la structure au centre de données. Le réseau de stockage peut fonctionner simultanément avec des tissus de clustering, de communication et de gestion sur la même infrastructure, en préservant le comportement de plusieurs tissus.
InfiniBand est une technologie de connexion réseau à norme ouverte offrant une large bande passante, une faible latence et une excellente fiabilité. L'IBTA (InfiniBand Trade Alliance) définit cette technologie, qui est couramment utilisée dans les grappes de superordinateurs. Simultanément, avec l'avènement de l'intelligence artificielle, elle devient la principale solution d'interconnexion réseau pour les serveurs GPU. Pour plus de détails sur InfiniBand, veuillez vous référer à la section « Getting to Know About InfiniBand ».
Aperçu des switchs InfiniBand FS Mellanox
Forte de son expertise et de sa puissance technologique dans le domaine de l'InfiniBand, NVIDIA propose une gamme de switchs InfiniBand performants. Ces switchs InfiniBand NVIDIA/Mellanox, équipés de fonctionnalités de base telles que le routage, le transfert et la gestion des flux de données, permettent une transmission et une communication efficaces des données. La gamme de produits NVIDIA couvre un large éventail d'exigences en matière d'évolutivité, de performances et de fonctionnalités, ce qui permet aux utilisateurs de faire des choix flexibles. Le tableau ci-dessous présente les switchs InfiniBand de Mellanox disponibles auprès de FS.
|
|
|
|
|
Produit
|
||||
Séries
|
QM8790 Séries
|
QM8700 Séries
|
QM9700 Séries
|
QM9790 Séries
|
Vitesse des ports
|
40x 200Gb/s ou
80x 100Gb/s
|
40x 200Gb/s ou
80x 100Gb/s
|
64x 400Gb/s sur 32 connecteurs OSFP
|
64x 400Gb/s sur 32 connecteurs OSFP
|
Types de ports
|
QSFP56
|
QSFP56
|
OSFP
|
OSFP
|
Capacité de commutation
|
16Tb/s
|
16Tb/s
|
51.2Tb/s
|
51.2Tb/s
|
Flux d'air
|
Arrière- Avant(P2C)
|
Arrière- Avant(P2C)
|
Arrière- Avant(P2C)
|
Arrière- Avant(P2C)
|
Puce switchs
|
NVIDIA QUANTUM
|
NVIDIA QUANTUM
|
NVIDIA QUANTUM-2
|
NVIDIA QUANTUM-2
|
Alimentations
|
1+1 Remplaçable à chaud
|
1+1 Remplaçable à chaud
|
1+1 Remplaçable à chaud
|
1+1 Remplaçable à chaud
|
Ventilateur
|
5+1 Remplaçable à chaud
|
5+1 Remplaçable à chaud
|
6+1 Remplaçable à chaud
|
6+1 Remplaçable à chaud
|
Gestion
|
Non géré
|
Non géré
|
Non géré
|
Non géré
|
Unités de rack
|
1 RU
|
1 RU
|
1 RU
|
1 RU
|
Remarque : dans le tableau, P dans P2C et C2P signifie alimentation, C signifie câble (interface de ligne), P2C (Power to Cable), C2P (Cable to Power). Le système de référence ici est que le côté de l'interface de ligne de câble est l'avant, et le côté de l'alimentation est l'arrière.
Il existe deux options pour les switchs InfiniBand 200G HDR et 400G NDR : QM8700 et QM8790 pour le switch 200G, et QM9700 et QM9790 pour le switch 400G. La seule différence entre les deux options est le mode de gestion. Les QM8700 et QM9700 fournissent l'interface de contrôle pour la gestion hors bande, tandis que les QM8790 et QM9790 nécessitent la plateforme NVIDIA Unified Fabric Manager (UFM®) pour la gestion. En outre, veuillez noter que l'encapsulation des ports du switch InfiniBand Mellanox 200G HDR est OSFP56, et que l'encapsulation des ports du switch InfiniBand Mellanox 400G NDR est OSFP.
Retrouvez plus de détails sur les Mellanox Switches and Adapters ici.
Principales caractéristiques des switchs InfiniBand de Mellanox
Les switchs InfiniBand jouent un rôle crucial dans le HPC et les centres de données en facilitant une communication efficace entre les serveurs, les systèmes de stockage et les réseaux. Ils constituent la base des transferts de données à grande vitesse, permettant aux entreprises de traiter des charges de travail complexes et d'atteindre de nouveaux niveaux de performance.
-
Interconnectivité à grande vitesse : Les switchs InfiniBand de Mellanox offrent une latence exceptionnellement faible, permettant une transmission rapide des données entre les nœuds. Ils facilitent une communication transparente au sein des clusters de calcul à grande échelle avec une capacité de bande passante élevée, maximisant le débit et réduisant le temps de traitement. En outre, les switchs InfiniBand prennent en charge les grappes de calcul à haute performance et fournissent l'infrastructure nécessaire pour construire et gérer efficacement les grappes HPC.
-
Évolutivité et flexibilité : Les switchs InfiniBand de Mellanox sont conçus pour gérer des transferts de données massifs, offrant une architecture évolutive qui peut monter en charge de façon transparente jusqu'à des milliers de nœuds pour garantir des performances optimales, même avec des charges de travail croissantes. Les switchs InfiniBand peuvent également s'intégrer de manière transparente aux infrastructures existantes, ce qui en fait un choix flexible pour les entreprises.
-
Amélioration de la mise en réseau du stockage : Les switchs InfiniBand offrent des taux de transfert de données exceptionnels, ce qui les rend idéaux pour la mise en réseau du stockage. Ils permettent un accès rapide aux systèmes de fichiers distribués, aux baies flash et aux systèmes de stockage haute performance, garantissant une récupération efficace des données et réduisant la latence pour les applications de stockage critiques.
Applications des switchs InfiniBand de Mellanox
Les switchs InfiniBand trouvent de nombreuses applications dans divers domaines.
-
Calcul à haute performance (HPC) : Les switchs InfiniBand sont largement utilisés dans le domaine du HPC. Ils permettent une interconnexion à faible latence et à large bande passante, ce qui permet un échange de données et une communication efficaces entre d'énormes grappes de calcul parallèle.
-
Recherche scientifique : Il est largement adopté dans la recherche scientifique, facilitant les simulations avancées, la dynamique des fluides computationnelle et la dynamique moléculaire. Ils fournissent l'infrastructure nécessaire aux chercheurs pour traiter de grandes quantités de données et accélérer les découvertes scientifiques.
-
Interconnectivité des centres de données : En tant qu'épine dorsale des centres de données, elle assure une interconnectivité à haut débit entre les serveurs, les dispositifs de stockage et les réseaux, garantissant des transferts de données fluides, une virtualisation sans faille et une utilisation efficace des ressources.
-
Cloud computing et big data : Avec l'essor du cloud computing et des applications big data, les switchs InfiniBand jouent un rôle essentiel pour répondre aux exigences de ces environnements à forte intensité de données. Ils permettent l'ingestion, le traitement et l'analyse rapides des données, ce qui facilite la compréhension en temps réel et stimule l'innovation.
Conclusion
Les switchs InfiniBand de Mellanox constituent une technologie clé pour l'interconnexion du HPC et des centres de données en offrant une interconnectivité à grande vitesse, une évolutivité et une mise en réseau améliorée du stockage. Ils accélèrent le traitement des charges de travail complexes, améliorant ainsi les performances et l'efficacité des ordinateurs. Dans le domaine du HPC, les switchs InfiniBand ont de vastes perspectives d'application et continueront à promouvoir les progrès de la recherche scientifique et de l'innovation.
Cela pourrait également vous intéresser
Adresse E-mail
