Deutsch

Warum ist das InfiniBand-Netzwerk in HPC-Rechenzentren so wichtig?

Aktualisierung: 17. Jan 2024 by
600

InfiniBand Banner

HPC-Rechenzentren nutzen zunehmend das InfiniBand-Netzwerk. Die Nachfrage nach Verbindungen mit hoher Bandbreite und geringer Latenz weitet sich aufgrund der raschen Expansion von Anwendungen mit hohem Datendurchsatz wie Datenanalyse und maschinelles Lernen auf einen größeren Markt aus. Im Vergleich zu Ethernet hat sich InfiniBand, eine Netzwerktechnologie, die für Hochgeschwindigkeitsverbindungen entwickelt wurde, in zahlreichen Hochleistungsrechenanlagen weltweit zu einem aufsteigenden Stern entwickelt.

''Siehe auch: InfiniBand Network Trend

Einführung in InfiniBand: Was ist ein InfiniBand-Netzwerk?

InfiniBand ist eine offene Standard-Netzwerkverbindungstechnologie mit hoher Bandbreite, geringer Verzögerung und hoher Zuverlässigkeit. Diese Technologie wird häufig im Bereich der Supercomputer-Cluster eingesetzt. Das Infiniband-Netzwerk wird für die Datenverbindung zwischen und innerhalb von Daten-Switches sowie für die Verbindung zwischen Speichersystemen verwendet.

Das InfiniBand-System besteht aus Kanaladaptern („Channel Adapters“, auch: „CA“), Switches, Routern, Kabeln und Steckern. CAs werden in Host-Kanaladapter („Host Channel Adapters“, auch: „HCA“) und Zielkanaladapter („Target Channel Adapters“, auch: „TCA“) unterteilt. IBA-Switches ähneln im Prinzip anderen Standard-Netzwerk-Switches, müssen aber die hohen Leistungs- und Kostenanforderungen von InfiniBand erfüllen. InfiniBand-Router werden verwendet, um große Netze in kleinere Teilnetze zu unterteilen und diese mit Routern zu verbinden. HCA ist ein Gerätepunkt, der IB-Endknoten, wie Server oder Speichergeräte, mit dem IB-Netz verbindet. TCA ist eine spezielle Form des Kanaladapters, der häufig in eingebetteten Umgebungen, wie z. B. Speichergeräten, verwendet wird.

Entdeckung des InfiniBand-Netzwerks in HPC-Rechenzentren

InfiniBand ist eine hochleistungsfähige Input/Output-Architektur (I/O), die den gleichzeitigen Anschluss mehrerer Kabelverknüpfungstechnologien ermöglicht. Je nach Anschlussgeschwindigkeit verfügt das InfiniBand-Netzwerk über eine Vielzahl von Kapselungs-Switches, wie QDR-InfiniBand-, FDR-InfiniBand-, NDR-InfiniBand- und XDR-InfiniBand-Switches usw., um die Geschäftsunterstützung für HPC-Rechenzentren vollständig zu realisieren.

Im Mainframe-Computing werden die dedizierten Kanäle des InfiniBand-Modells zur Verbindung und Übertragung von Daten zwischen dem Mainframe und Peripheriegeräten verwendet. Mit einer maximalen Paketgröße von durchgängig 4K ermöglicht InfiniBand Punkt-zu-Punkt-Verbindungen und bidirektionale serielle Verbindungen, die zu 4-fachen und 12-fachen Einheiten zusammengefasst werden können, um eine kombinierte Nutzdatendurchsatzrate von bis zu 300 Gigabit pro Sekunde zu erreichen.

InfiniBand Network

Um die Entwicklung der HPC-Branche weiter voranzutreiben, haben viele Markeninhaber begonnen, InfiniBand-Produkte einzuführen. FS bietet 200G-Rechenzentrums-Switches an, insbesondere 200G InfiniBand Switches, die für HPC-Rechenzentren verwendet werden können.

Wie passt das InfiniBand-Netzwerk zum HPC-Rechenzentrum?

Das Internet ist heute eine riesige Infrastruktur, die eine Vielzahl von datenintensiven Anwendungen benötigt. Große Unternehmen errichten auch HPC-Rechenzentren, um die Nachfrage nach zuverlässiger Berechnung von Datenmengen zu befriedigen. Eine Systemumgebung wird durch die extrem hohe Bandbreite von HPC zwischen Rechenknoten, Speicher- und Analysesystemen geschaffen. Ein weiterer Leistungsindikator für die HPC-Architektur ist die Latenz. In HPC-Rechenzentren werden InfiniBand-Netzwerke verwendet, da diese die Anforderungen an hohe Bandbreite und geringe Latenz erfüllen.

Bandwidth & Latency

Im Vergleich zu RoCE und TCP/IP hat der Einsatz von InfiniBand-Netzwerken in Verarbeitungsumgebungen mit hohem Durchsatz, insbesondere in solchen, die Servervirtualisierung, Blade- und Cloud-Computing-Technologien verwenden, herausragende Vorteile gezeigt.

''Siehe auch: RoCE vs Infiniband vs TCP/IP

Die Vorteile von InfiniBand-Netzwerken in HPC-Rechenzentren

Ob es sich nun um die Weiterentwicklung der Datenkommunikationstechnologie, die Innovation der Internettechnologie oder die Verbesserung der visuellen Präsentation handelt, sie alle profitieren von leistungsfähigeren Computern, größerer Kapazität und sichererem Speicherplatz sowie effizienteren Netzen. InifniBand-Netzwerke ermöglichen Netzwerkdienste mit höherer Bandbreite bei gleichzeitiger Verringerung der Latenz, senken den Verbrauch von Rechenressourcen durch die Netzwerkübertragungslast und lassen sich dank der einzigartigen Vorteile von HPC-Rechenzentren perfekt integrieren.

Netzwerk-Effizienz: Das InfiniBand-Netz (IB-Netz) verlagert die Protokollverarbeitung und die Datenbewegung von der CPU auf die Verbindung, wodurch die Effizienz der CPU maximiert und Simulationen mit extrem hoher Auflösung, große Datensätze und hochparallele Algorithmen durchgeführt werden können. Die Übertragungsrate von InfiniBand erreicht 168 Gbps (12xFDR) und übertrifft damit bei weitem die 10 Gbps von 10 Gigabit Ethernet und die 100 Gbps von 10 Gigabit Ethernet. Insbesondere in HPC-Rechenzentren werden erhebliche Leistungsverbesserungen erzielt, z. B. bei Web 2.0, Cloud Computing, Big Data, Finanzdienstleistungen, virtualisierten Rechenzentren und Speicheranwendungen. Dies verkürzt die Zeit, die zur Erledigung der Aufgabe benötigt wird, und senkt die Gesamtkosten des Prozesses.

Höhere Bandbreite: In der Zeit, in der Ethernet 100G den Markt dominierte, entwickelte sich auch die IB-Netzwerkgeschwindigkeit kontinuierlich weiter, und es wurden nacheinander 100G/200G InfiniBand-Switches auf den Markt gebracht, um die Hochleistungsanforderungen der HPC-Architektur zu erfüllen. InfiniBand-Switches sind aufgrund ihrer hohen Bandbreite, hohen Geschwindigkeit und geringen Latenz eine hervorragende Option für HPC-Rechenzentren, mit denen sich eine hohe Servereffizienz und Anwendungsproduktivität erzielen lässt.

Skalierbarkeit: Dank InfiniBand kann die Netzwerkschicht 2 mit 48.000 Knoten in einem einzigen Sub-Net aufgebaut werden. Außerdem ist das IB-Netz nicht von Broadcast-Mechanismen wie ARP abhängig, so dass es keine Broadcast-Stürme verursacht oder zusätzliche Bandbreite verschwendet. Verschiedene IB-Sub-Nets können ebenfalls mit Switches und Vermittlungsstellen verbunden werden.

FS bietet NVIDIA Quantum™-2 NDR InfiniBand 400G und NVIDIA Quantum™ HDR InfiniBand 200G für Rechenzentren an, die sowohl in Managed- als auch in Unmanaged-Konfigurationen erhältlich sind. Um den unterschiedlichen Kundenanforderungen gerecht zu werden, sind die 400G-Switches mit Service-Support-Optionen von einem Jahr, drei Jahren und fünf Jahren erhältlich. Wenn Sie mehrere Geräte betreiben, um die Arbeitslast zu reduzieren, können Sie natürlich auch Ethernet-Netzwerke für die Datenübertragung nutzen. FS bietet auch Ethernet-Switches mit mehreren Geschwindigkeiten an, um Sie beim Aufbau Ihres Netzwerks zu unterstützen.

Zusammenfassung

Mit seiner extremen Leistung kann ein InfiniBand-Netzwerk und dessen innovative technische Architektur den Benutzern von HPC-Rechenzentren helfen, die Unternehmensleistung zu maximieren. Die InfiniBand-Technologie vereinfacht die Hochleistungsnetzwerkarchitektur erheblich, reduziert die durch mehrstufige Architekturschichten verursachte Verzögerung und bietet eine starke Unterstützung für die reibungslose Aufrüstung der Zugriffsbandbreite von wichtigen Rechenknoten. Es wird der allgemeine Trend sein, dass InfiniBand-Netzwerke in immer mehr Anwendungsszenarien eingesetzt werden.

Das könnte Sie auch interessieren

Kenntnisse
Kenntnisse
See profile for Jason.
Jason
Die Vorteile und Nachteile der Glasfaserkabel
07. Aug 2020
85.2k
Kenntnisse
Kenntnisse
See profile for Sheldon.
Sheldon
TCPIP vs. OSI: Was ist der Unterschied?
06. Jul 2022
72.0k
Kenntnisse
See profile for Sheldon.
Sheldon
Das ABC von PON: OLT, ONU, ONT und ODN
19. Aug 2020
27.2k
Kenntnisse
Kenntnisse
See profile for Sheldon.
Sheldon
Grundlagen von optischen Verteilern (ODF)
02. Apr 2019
3.9k
Kenntnisse
See profile for Sheldon.
Sheldon
LACP vs. PAGP: Was ist der Unterschied?
06. Jun 2022
6.4k
Kenntnisse
See profile for Vincent.
Vincent
Einführung zu BiDi-Transceivern
26. Jun 2020
9.7k
Kenntnisse
See profile for Moris.
Moris
Simplex- vs. Duplex-Glasfaserkabel
10. Jun 2021
38.9k