Deutsch

Die Netzwerkarchitektur von KI-Rechenzentren benötigt 800G/400G-Transceiver

Veröffentlicht am 24. Jan 2024 by
82

Mit dem Fortschritt der KI-Technologie und der damit verbundenen Anwendungen wird die Bedeutung großer Modelle, großer Datenmengen und der KI-Rechenleistung für die Entwicklung der KI immer wichtiger. Große Modelle und Datensätze bilden die Softwaregrundlage für die KI-Forschung, während die KI-Rechenleistung die wichtigste Infrastruktur darstellt. In diesem Artikel untersuchen wir, wie sich die Entwicklung von KI auf die Netzwerkarchitektur von Rechenzentren auswirkt. Was bedeutet dies für den Markt für 800G/400G-Transceiver?

KI treibt das Upgrade der Netzwerkarchitektur von Rechenzentren voran

Die Fat-Tree-Netzwerkarchitektur für Rechenzentren

Da das Training großer KI-Modelle in zahlreichen Branchen immer häufiger eingesetzt wird, können herkömmliche Netzwerke nicht mit den Anforderungen an Bandbreite und Latenzzeiten des Trainings großer Modellcluster mithalten. Das verteilte Training großer Modelle erfordert die Kommunikation zwischen GPUs, was den Ost-West-Verkehr in KI/ML-Rechenzentren erhöht, mit einem Verkehrsmuster, das sich vom traditionellen Cloud-Computing unterscheidet. Bei KI-Daten handelt es sich um kurzfristige Daten mit hohem Volumen, was in der herkömmlichen Netzwerkarchitektur zu Netzwerklatenz und geringerer Trainingsleistung führt. Daher ist die Entwicklung des Fat-Tree-Netzwerks unvermeidlich, um die Anforderungen an die kurzfristige und hochvolumige Datenverarbeitung zu erfüllen.

In der traditionellen Baumnetztopologie konvergiert die Bandbreite Schicht für Schicht, wobei die Netzwerkbandbreite an der Basis des Baums viel geringer ist als die Gesamtbandbreite aller Blätter. Im Vergleich dazu sieht der Fat Tree wie ein echter Baum aus, mit dickeren Ästen näher an der Wurzel. Dadurch erhöht sich die Bandbreite des Netzwerks vom Blatt bis zur Wurzel, was die Effizienz des Netzwerks verbessert und das Training beschleunigt. Dies ist die Grundvoraussetzung für die Fat-Tree-Architektur, die nicht blockierende Netzwerke ermöglicht.

Upgrade der Netzwerkgeschwindigkeit im Rechenzentrum

Die Nachfrage nach Netzwerkgeschwindigkeit wächst mit der zunehmenden Komplexität von Rechenzentrumsanwendungen. Von 1G, 10G und 25G in der Vergangenheit bis hin zu 100G, das heute weit verbreitet ist, nimmt die Geschwindigkeit der Aufrüstung und Weiterentwicklung von Rechenzentrumsnetzwerken zu. Angesichts der umfangreichen KI-Workloads haben sich jedoch 400G- und 800G-Netzwerkgeschwindigkeiten als nächster kritischer Schritt in der Entwicklung von Rechenzentrumsnetzwerken herauskristallisiert.

Der Aufstieg von 800G/400G-Transceivern, angetrieben durch KI-Rechenzentren

Gründe für die wachsende Nachfrage nach 800G/400G-Transceivern

LAnforderungen an die Datenverarbeitung in großem Maßstab

Für das Training und die Inferenz von KI-Algorithmen werden umfangreiche Datensätze benötigt. Daher müssen die Rechenzentren die Übertragung umfangreicher Daten effizient handhaben. Die Einführung von 800G-Transceivern bietet eine höhere Bandbreite und hilft bei der Bewältigung dieser Herausforderung. Die aufgerüstete Netzwerkarchitektur von Rechenzentren umfasst in der Regel zwei Schichten, die vom Switch bis zum Server reichen, wobei 400G als unterste Schicht fungiert. Die Aufrüstung auf 800G wird also zweifellos die Nachfrage nach 400G steigern.

Anforderungen in Echtzeit

In bestimmten KI-Anwendungsszenarien ist die Forderung nach Echtzeit-Datenverarbeitung entscheidend. Bei autonomen Fahrsystemen beispielsweise müssen die von den Sensoren erzeugten umfangreichen Daten umgehend übertragen und verarbeitet werden. Die Optimierung der Systemlatenzzeit wird zu einem entscheidenden Faktor, um zeitnahe Rückmeldungen zu gewährleisten. Die Verwendung von optischen Hochgeschwindigkeitsmodulen trägt dazu bei, diese Echtzeitanforderungen schnell zu erfüllen, indem die Latenzzeit bei der Datenübertragung und -verarbeitung verringert und damit die Reaktionsfähigkeit des Systems verbessert wird.

Paralleles Multitasking

Moderne KI-Rechenzentren müssen oft mehrere Aufgaben gleichzeitig verarbeiten, darunter Aktivitäten wie Bilderkennung und Verarbeitung natürlicher Sprache. Die Integration von optischen 800G/400G-Hochgeschwindigkeits-Transceivern verbessert die Unterstützung für solche Multitasking-Workloads.

Vielversprechende Aussichten für den Markt für optische 800G/400G-Module

Die derzeitige Nachfrage nach optischen 400G- und 800G-Modulen hat keinen signifikanten Anstieg erfahren; für 2024 wird jedoch ein bemerkenswerter Aufschwung erwartet, der vor allem durch die steigende Nachfrage nach KI-Computern angetrieben wird. Laut der maßgeblichen Marktanalysefirma Dell'Oro wird für das Jahr 2024 ein Anstieg der Nachfrage nach optischen 400G-Modulen prognostiziert. Es wird erwartet, dass die gestiegenen Anforderungen an die Hochgeschwindigkeitsdatenübertragung, die durch KI, Big Data und Cloud Computing angetrieben werden, das Wachstum des Marktes für optische 800G-Module ankurbeln werden. Dieser Trend unterstreicht die vielversprechende Zukunft des Marktes für optische 800G/400G-Module und deutet auf eine größere Akzeptanz und Nutzung als Reaktion auf die sich ändernden Anforderungen von fortschrittlichen Computeranwendungen hin.

Typische 800G/400G-Transceiver-Lösung im Rechenzentrum

TDie Abbildung veranschaulicht die Lösung für die Aufrüstung auf ein 800G-Rechenzentrum. Der optische 400G-Transceiver QDD-FR4-400G und der optische 800G-Transceiver von FS QDD800-2FR4-C1 bilden Verbindungen mit hoher Bandbreite zwischen dem MSN4410-WS2FC-Switch, der mit einer 400G-Schnittstellengeschwindigkeit in der Backbone-Layer arbeitet, und dem leistungsstarken 800G-Switch in der Core-Layer.

BDa diese Transceiver in hochdichten QSFP-DD verbaut sind, können sie in Konfigurationen mit hoher Dichte eingesetzt werden. Dies erhöht die Übertragungskapazität und bietet eine größere Bandbreite. Durch den Einsatz von PAM4-Modulation und Retime-Technologie erreichen die Transceiver außerdem schnellere Datenübertragungsraten bei deutlich geringerer Latenzzeit. Dieses Upgrade verbessert die Gesamtleistung des Systems.

Das Zeitalter der 800G/400G-Transceiver rückt näher.

Da der Bedarf an schnellerer und effizienterer Datenübertragung weiter steigt, befinden wir uns in der Ära der optischen 800G/400G-Transceiver. Diese Transceiver, die für ihre herausragenden Bandbreitenfähigkeiten, Fortschritte in der LPO-Technologie und Kosteneffizienz bekannt sind, haben das Potenzial, den KI-Sektor zu revolutionieren und Rechenzentren neu zu definieren. Der Einsatz von optischen Hochgeschwindigkeits-Transceivern bringt uns einen Schritt näher an die Erschließung des gesamten Potenzials der KI heran.

Das könnte Sie auch interessieren

Kenntnisse
Kenntnisse
See profile for Jason.
Jason
Die Vorteile und Nachteile der Glasfaserkabel
07. Aug 2020
85.7k
Kenntnisse
Kenntnisse
See profile for Sheldon.
Sheldon
TCPIP vs. OSI: Was ist der Unterschied?
06. Jul 2022
72.7k
Kenntnisse
See profile for Sheldon.
Sheldon
Das ABC von PON: OLT, ONU, ONT und ODN
19. Aug 2020
27.4k
Kenntnisse
Kenntnisse
See profile for Sheldon.
Sheldon
Grundlagen von optischen Verteilern (ODF)
02. Apr 2019
4.0k
Kenntnisse
See profile for Sheldon.
Sheldon
LACP vs. PAGP: Was ist der Unterschied?
06. Jun 2022
6.6k
Kenntnisse
See profile for Vincent.
Vincent
Einführung zu BiDi-Transceivern
26. Jun 2020
9.8k
Kenntnisse
See profile for Moris.
Moris
Simplex- vs. Duplex-Glasfaserkabel
10. Jun 2021
39.3k