Deutsch

Tipps zu geeigneten InfiniBand-Produkten für High-Performance-Computing

Veröffentlicht am 30. Dez 2023 by
197

Auf der Computex 2023 präsentierte NVIDIA eine breite Palette von hochleistungsfähigen Produkten, darunter fortschrittliche Chips, Supercomputing-Architekturen und hochentwickelte Switches. Besonders hervorzuheben ist der beeindruckende NVIDIA Helios. Dieser soll die Quantum-2 InfiniBand Netzwerke nutzen und vier DGX GH200 Systeme miteinander verbinden, was die Effizienz des Trainings von großen Modellen erheblich steigert.

Zahlreiche Aspekte deuten darauf hin, dass sich in den Rechenzentren ein entscheidender Wandel hin zu noch schnellerem Computing vollzieht, der durch GC vorangetrieben wird. Als Reaktion auf die steigenden Anforderungen von High-Performance-Computing (HPC) und expansiver Infrastruktur gibt es einen spürbaren Bedarf an schnellerer Interkonnektivität und intelligenteren Netzwerklösungen. In diesem Umfeld sind InfiniBand-Produkte in den Mittelpunkt des Interesses der Branche gerückt, da sie diese unerlässlichen Anforderungen genauestens erfüllen.

Grundlagen von InfiniBand

InfiniBand ist eine Hochgeschwindigkeits-Verbindungstechnologie mit geringer Latenz, die hauptsächlich in Rechenzentren und HPC-Umgebungen (High Performance Computing) eingesetzt wird. Sie bietet eine Hochleistungsstruktur für die Verbindung von Servern, Speichergeräten und anderen Netzwerkressourcen innerhalb eines Clusters oder Rechenzentrums. Das Aufkommen der InfiniBand-Technologie ist eng mit der erheblichen Netzwerklatenz und dem zusätzlichen Overhead des Betriebssystems verbunden, die mit den herkömmlichen TCP/IP-Protokollen einhergehen.

Grundlagen von InfiniBand

Das herkömmliche TCP-Protokoll ist ein weit verbreitetes Übertragungsprotokoll, das in einer Vielzahl von Geräten eingesetzt wird, von alltäglichen Geräten wie Kühlschränken bis hin zu hochentwickelten Supercomputern. Die Nutzung von TCP/IP ist jedoch mit erheblichen Kosten verbunden: TCP ist kompliziert, zeichnet sich durch eine umfangreiche Codebasis und zahlreiche Ausnahmen aus und ist nur schwer zu deinstallieren.

Grundlagen von InfiniBand

Im Gegensatz dazu setzt IB einen vertrauensbasierten Flusssteuerungsmechanismus ein, der die Integrität der Verbindung gewährleistet und den Verlust von Datenpaketen minimiert. Bei IB erfolgt die Datenübertragung nur dann, wenn im Empfangspuffer ausreichend Platz vorhanden ist. Nach Abschluss der Datenübertragung meldet das empfangende Gerät die Verfügbarkeit des Pufferspeichers, wodurch die mit dem anfänglichen Verlust von Datenpaketen verbundene Verzögerung bei der erneuten Übertragung entfällt. Dies steigert die Effizienz und die Gesamtleistung erheblich.

InfiniBand auf dem Markt

Die InfiniBand-Technologie wird unter der Aufsicht der InfiniBand Trade Association (IBTA) entwickelt, die speziell für die Aufrechterhaltung und Förderung von InfiniBand-Standards zuständig ist. Außerdem sorgt die IBTA für die Einhaltung der Normen und führt Interoperabilitätstests für kommerzielle InfiniBand-Produkte durch. Von den neun Hauptdirektoren der InfiniBand Trade Association sind nur zwei Unternehmen, Mellanox und Emulex, auf InfiniBand spezialisiert. Emulex wurde 2015 aufgrund einer schlechten Geschäftsentwicklung von Avago übernommen. Derzeit dominiert Mellanox den InfiniBand-Markt, wobei die Zahl der Cluster-Implementierungen, die seine Produkte verwenden, die der Konkurrenten weit übertrifft.

Hauptvorteile von InfiniBand

Die InfiniBand-Technologie die folgenden Vorteile:

  • Hohe Geschwindigkeit und Skalierbarkeit

  • Niedrige Latenz

  • Geringer Stromverbrauch

Weitere Informationen über InfiniBand finden Sie unter Wissenswertes über InfiniBand.

HPC-Netzwerktechnik von InfiniBand

Im Bereich des High-Performance Computing (HPC) spielen High-Speed-Interconnect-Netzwerke (HSI) eine entscheidende Rolle für die Systemleistung und -effizienz. Die InfiniBand-Technologie ist dank ihrer herausragenden Leistung zu einer weit verbreiteten Schlüsselkomponente im HPC-Bereich geworden. Als eine der am schnellsten wachsenden HSI-Technologien bietet InfiniBand eine Bandbreite von bis zu 200 Gbps und eine Punkt-zu-Punkt-Latenz von weniger als 0,6 Mikrosekunden, was eine stabile Unterstützung für den Aufbau von High-Performance-Computing-Clustern darstellt.

Mit den Hochgeschwindigkeits-Netzwerkfähigkeiten von InfiniBand können HPC-Systeme mehrere Server effektiv kombinieren und eine lineare Leistungsskalierung ermöglichen. Diese Technologie spielt eine zentrale Rolle bei der Entwicklung von High-Performance-Computing-Clustern, insbesondere bei der Konstruktion von Supercomputern. Unternehmen sowie große und sehr große Rechenzentren profitieren erheblich von der hohen Zuverlässigkeit, Verfügbarkeit, Skalierbarkeit und überlegenen Leistung. Daher spiegelt sich die Bedeutung der InfiniBand-Technologie im HPC-Bereich nicht nur in der Steigerung der Leistung von Rechenclustern wider, sondern auch in der Bereitstellung wichtiger Unterstützung für Rechenzentren unterschiedlicher Größe, was die Gesamtentwicklung des HPC-Systems vorantreibt.

Aktuelle Anbieter von InfiniBand-Produkten

Mellanox Technologies (übernommen von NVIDIA® Networking)

Mellanox, ein führender Anbieter im Bereich InfiniBand (IB), wurde im April 2020 von NVIDIA übernommen. Die offizielle Plattform für den Kauf von Mellanox-Produkten ist der NVIDIA Networking Store. Dieser Store ist effizient und zuverlässig und bietet eine große Auswahl an Verbindungstechnik. Einige Produkte sind jedoch möglicherweise nicht direkt auf der offiziellen Website erhältlich. In Fällen, in denen Produkte nicht auf der offiziellen Website verfügbar sind, haben Kunden die Möglichkeit, sie bei NVIDIA-Partnern zu erwerben.

NVIDIA® Partner-Netzwerk

NVIDIAs Partner sind wichtige Anbieter der neuesten Marktlösungen und Zubehörteile, einschließlich IB-Kabel und IB-Transceiver. IB-Kabel und IB-Transceiver werden weltweit über das NVIDIA Netzwerk autorisierter Distributoren/Händler vertrieben. Informationen über Distributoren/Händler finden Sie auf der offiziellen NVIDIA-Website. Aufgrund der engen Zusammenarbeit zwischen Distributoren/Partnern und NVIDIA kann es zu Problemen wie Engpässen bei Geräten und Technik, unzureichender Marktversorgung und langen Lieferzeiten kommen.

FS.com

FS ist ein Elitepartner von NVIDIA® und bietet auf seiner offiziellen Website eine große Auswahl an InfiniBand Produkten an, darunter NVIDIA® InfiniBand Switches, InfiniBand Module, InfiniBand Kabel, und NVIDIA® InfiniBand Adapter. Die FS-Website verfügt über eine große Auswahl an InfiniBand Produkten und garantiert eine schnelle Lieferung. Wenn Sie InfiniBand-Produkte kaufen oder InfiniBand-Lösungen erhalten möchten, setzen Sie sich gerne mit uns in Verbindung.

Tipps zur Auswahl von InfiniBand-Produkten

InfiniBand-Produkte spielen eine entscheidende Rolle in Hochleistungsrechenzentren. Die Auswahl der richtigen Produkte ist von entscheidender Bedeutung für den betrieblichen Erfolg. Das umfassende InfiniBand-System umfasst InfiniBand Switches, InfiniBand Adapter, InfiniBand LongHaul, InfiniBand Gateway zu Ethernet, InfiniBand Kabel und InfiniBand Transceiver, InfiniBand Telemetrie und Software-Management sowie InfiniBand Beschleunigungssoftware.

Die Auswahl der geeigneten InfiniBand-Produkte ist für Hochleistungsrechenzentren von entscheidender Bedeutung. Zu den Faktoren, die bei der Auswahl der geeigneten IB-Technik eine Rolle spielt, gehören Anforderungen an Bandbreite und Entfernung, Steckverbinder, Budget, Kompatibilität, Zuverlässigkeit und zukünftige Anforderungen.

Tipps zur Auswahl von InfiniBand-Produkten

Informationen zu den InfiniBand-Produkten:

  • DAC-High-Speed-Kupferkabel bieten eine preiswerte Lösung für Hochgeschwindigkeitsverbindungen mit kurzer Reichweite.

  • AOC-Active-Kabel nutzen die optische Technologie für die Datenübertragung über größere Entfernungen.

  • Optische Module werden in der Regel für Hochgeschwindigkeitsverbindungen über große Entfernungen verwendet.

Das Verständnis der verschiedenen Produktkategorien, Geschwindigkeitsraten und Gehäusemodule hilft dabei, fundierte Entscheidungen zu treffen, während die Wahl des richtigen Anbieters die Qualität der InfiniBand-Produkte gewährleistet.

InfiniBand oder Ethernet: InfiniBand ist besser für HPC Computing

InfiniBand oder Ethernet: InfiniBand ist besser für HPC Computing

Einige Benutzer fragen sich immer noch, ob sie InfiniBand oder Ethernet für HPC-Rechenleistung verwenden sollen. Tatsächlich ist InfiniBand für High-Performance-Computing besser geeignet.

Ausführliche Diskussionen über die spezifischen Unterschiede zwischen InfiniBand und Ethernet finden Sie im Artikel InfiniBand vs. Ethernet: Was ist passender für Ihr Rechenzentrumsnetzwerk?

Im Bereich des High-Performance-Computing (HPC) weist InfiniBand in mehreren wichtigen Aspekten Vorteile gegenüber Ethernet auf:

Datenflusssteuerung

InfiniBand verwendet eine Ende-zu-Ende- Datenflusssteuerung, die sicherstellt, dass Nachrichten während der Übertragung nicht überlastet werden, wodurch ein verlustfreies Netzwerk ermöglicht wird. Im Gegensatz dazu ist die Datenflusssteuerung von Ethernet relativ simpel gehalten, was zu Überlastung und Datenverlusten führen kann.

Vorteil der Netzwerktopologie

InfiniBand bietet in seinem Layer-2-Netz einen Subnetzmanager, der in der Lage ist, die lokale ID von Knoten zu konfigurieren und Weiterleitungspfadinformationen über die Steuerebene zu berechnen/verteilen. Dies erleichtert die Einrichtung großer Netzwerke und vermeidet Probleme mit Flooding, VLAN oder Loop-Breaking. Dies verschafft InfiniBand einen einzigartigen Vorteil gegenüber Ethernet.

Leistungsparameter

InfiniBand bietet eine höhere Bandbreite, geringere Latenz und weniger Jitter und ist damit die ideale Wahl für eine schnelle und zuverlässige Datenübertragung in HPC-Umgebungen. Im Vergleich zu Ethernet bietet InfiniBand schnellere Datenübertragungsraten von 40G bis 400G, während Ethernet derzeit auf 100G beschränkt ist.

Geeignet für GPU-Workloads

InfiniBand eignet sich besser für die Bewältigung von GPU-Workloads, da es eine Hochgeschwindigkeitsdatenübertragung zwischen CPUs und GPUs ermöglicht. Dies ist besonders wichtig für Aufgaben, die eine hohe Rechenleistung erfordern, bei denen Ethernet relative Schwächen aufweisen kann.

Unterstützung von parallelem Computing

InfiniBand ermöglicht die gleichzeitige Kommunikation mehrerer Prozessoren und bietet damit eine überragende Leistung beim parallelen Computing. Dies ist von entscheidender Bedeutung für Anwendungen, die umfangreiche parallele Berechnungsfunktionen erfordern.

Globale HPC TOP500-Ranglisten

Laut der jüngsten globalen HPC TOP500-Rangliste hat der Marktanteil von InfiniBand stetig zugenommen und dominiert derzeit die TOP100, während der Marktanteil von Ethernet rückläufig ist.

Globale HPC TOP500-Rangliste

Fazit

Derzeit befinden wir uns in einem aufblühenden Zeitalter von Künstlicher Intelligenz und allgemeiner Datenverarbeitung („Artificial Intelligence and General Computing“ auch: „AIGC“). Plattform-Giganten, Microsoft und Google sowie anwendungsorientierte Unternehmen wie Midjjourney und Character Al beschleunigen die Entwicklung. Darüber hinaus schafft das rasche Aufkommen neuer Unternehmen und Anwendungen eine äußerst wettbewerbsintensive Atmosphäre auf dem Gebiet der künstlichen Intelligenz.

Es ist offensichtlich, dass die Rechenleistung eine entscheidende Rolle bezüglich der Produktivität spielt. Gegenwärtig gibt es einen bemerkenswerten Mangel an NVIDIA IB-Produkten. Um die Anforderungen Ihres Unternehmens zu erfüllen, ist es wichtig, den richtigen Anbieter und die richtigen InfiniBand-Produkte zu wählen

Das könnte Sie auch interessieren

Kenntnisse
Kenntnisse
See profile for Jason.
Jason
Die Vorteile und Nachteile der Glasfaserkabel
07. Aug 2020
88.2k
Kenntnisse
Kenntnisse
See profile for Sheldon.
Sheldon
TCPIP vs. OSI: Was ist der Unterschied?
06. Jul 2022
76.7k
Kenntnisse
See profile for Sheldon.
Sheldon
Das ABC von PON: OLT, ONU, ONT und ODN
19. Aug 2020
28.6k
Kenntnisse
Kenntnisse
See profile for Sheldon.
Sheldon
Grundlagen von optischen Verteilern (ODF)
02. Apr 2019
4.4k
Kenntnisse
See profile for Sheldon.
Sheldon
LACP vs. PAGP: Was ist der Unterschied?
06. Jun 2022
7.1k
Kenntnisse
See profile for Vincent.
Vincent
Einführung zu BiDi-Transceivern
26. Jun 2020
10.4k
Kenntnisse
See profile for Moris.
Moris
Simplex- vs. Duplex-Glasfaserkabel
10. Jun 2021
41.5k