Deutsch

400G Optik im Hyperscale Rechenzentrum

Aktualisierung: 18. Jun 2022 by
708

400G Optik im Hyperscale Rechenzentrum verbessern Faktoren wie höhere Ethernet Geschwindigkeiten, das Internet of Things (IoT), virtuelle Rechenzentren und Cloud Computing, wodurch die Anforderungen an Hyperscale Rechenzentren immer weiter in die Höhe getrieben werden. Blickt man auf die exponentielle technologische Entwicklung der letzten Jahre und Jahrzehnte zurück, verwundert es nicht, dass die 400G Technologie nur ein paar Jahre nach der Etablierung der 100G Technologie schon dabei ist, diese wieder abzulösen. Dieser Schritt bedeutet nicht nur eine Vervierfachung der Bandbreite, sondern auch einen geringeren Gesamtstromverbrauch eines 400G Moduls im Vergleich zu vier 100G Modulen, nicht zuletzt durch die nun mögliche Verdopplung der Dichte der bewährten QSFP28 Module.

400G Optik im Hyperscale Rechenzentrum

Woher kommt die wachsende Nachfrage nach 400G Optik?

Die Anforderungen an Hyperscale Rechenzentren wachsen jährlich um etwa 50 %. Bis 2025 wird ein digitaler Informationsumfang von 163 Zettabyte erwartet. Dieses immense Wachstum hat seinen Ursprung in der immer größer werdenden Attraktivität von Cloud Lösungen und offenen Systemen, den neuen Anwendungsmöglichkeiten für Machine Learning, künstliche Intelligenz und Deep Learning sowie Edge Computing. Außerdem werden in naher Zukunft, sich momentan noch im Anfangsstadium befindende Technologien, wie Virtual Reality oder autonomes Fahren weiteren Zuwachs erfahren und die Datenmenge weiter in die Höhe treiben. Nicht zuletzt sorgen die extensive Nutzung von Social Media, die Etablierung von 5G und der Trend zum Home Office, der durch die COVID 19 Pandemie noch mehr an Fahrt gewonnen hat, für immer größere benötigte Datenmengen auch im Bereich der Privatverbraucher.

Um mit einer solch rasanten technologischen Entwicklung Schritt zu halten, muss die gesamte Architektur von Hyperscale Rechenzentren im Schnitt alle zwei Jahre komplett erneuert werden, Stichwort geplante Obsoleszenz. Der Übergang zum 400G Hyperscale Rechenzentrum und in nicht allzu ferner Zukunft zum 800G Hyperscale Rechenzentrum ist also unvermeidbar.

Was bringt die Zukunft für Hyperscale Rechenzentren?

Wenn wir in die Zukunft der Hyperscale Rechenzentren blicken, sehen wir vor allem immer beeindruckendere Infrastrukturlösungen, die den immer größer werdenden Anforderungen trotzen. Geringere Latenzzeiten und geringere Einfügedämpfung sowie eine höhere Signalintegrität werden mehr Effizienz und höhere Übertragungsgeschwindigkeiten Schritt für Schritt ermöglichen.

Ein weiterer Blick in die Zukunft zeigt uns vor allem die immer weiter wachsende Bedeutung von Hyperscale Rechenzentren und Edge Rechenzentren. Hyperscale Rechenzentren sind hochmoderne, besonders große Rechenzentren. Diese sind aufgrund von Cloud Computing und anderen technologischen Entwicklungen wie KI, IoT und Big Data, die exponentiell wachsenden Datenmengen beanpruchten, notwendig geworden sind. Diese modernen Anlagen bieten zumeist eine Fläche von über 10.000 Quadratmetern sowie eine Gesamtleistung von mehr als 25 MW. Edge Rechenzentren werden dagegen näher am Nutzer gebaut, um die Latenzzeiten bei der Datenübertragung deutlich zu verringern.

Welche Neuerungen kommen auf Betreiber von Hyperscale Rechenzentren zu?

Auf Betreiber von Hyperscale Rechenzentren kommen im Rahmen der Transition zu 400G Optik beziehungsweise 800G Optik eine ganze Palette an technologischen Neuerungen zu.

Modernisierung der Rack Architektur

Eine der wichtigsten unter diesen Neuerungen ist die Abschaffung der Top of Rack Architektur und die daraus folgende, flächendeckende Umrüstung auf die End of Row Architektur. Vergleicht man diese beiden Technologien, fällt sofort auf, dass bei der End of Row viel weniger Switches benötigt werden, da der In Rack Switch wegfällt und die Server in einem Rack direkt mit dem End of Row Aggregation Switch verbunden werden können. Dies sorgt im Endeffekt für eine erhebliche Platzersparnis, einen geringeren Wartungsaufwand, weniger Stromverbrauch und verminderten Bedarf an Kühlsystemen. Auch das Kabelmanagement wird durch die End of Row Architektur vereinfacht, da bei zukünftigen Sprüngen hin zu höheren Datenübertragungsgeschwindigkeiten lediglich die Server Patchkabel, statt wie bisher die Switch to Switch Kabel, ausgetauscht werden müssen werden müssen.

ToR

EoR

Schnellere Switches

Diese Entwicklung wird durch höhere Port-Dichten der Switches, die wiederum von besseren Serialisierern und Deserialisierern ermöglicht werden, begünstigt. Das wiederum reduziert die Anzahl von Top of rack Switches. Darum installieren immer mehr Hyperscale Rechenzentren schnellere Switches mit Datendurchsätzen von 200G oder 400G sowie weitere hochmoderne Technologien wie 400G Optik Kabel und QSFP DD Module (Quad Small Form Factor Pluggable Double Density), die eine achtspurige Schnittstelle bieten. Dies sind Entwicklungen, die Sie in Ihrem Rechenzentrum nicht verpassen sollten, da schon für dieses Jahr erste Lieferungen von 800G Switches erwartet werden, die einen weiteren technologischen Sprung mit sich bringen werden.

Neuartige Spine Leaf Architektur

Zu diesen Entwicklungen gehört unter anderem auch die sogenannte Spine LeafArchitektur, die zwei wechselnde Ebenen miteinander verbindet. Für die Sammlung des Datenverkehrs steht hier, die aus Access Switches bestehende Leaf Ebene bereit, welche diesen dann an die mit dem Kernbereich verbundene Spine Ebene weiter leitet. Immer höhere Lane Geschwindigkeiten werden durch diese und weitere Technologien wie etwa Backbone Kabel mit höherem Glasfaseranteil ermöglicht. Eine solche moderne Infrastruktur ist eine Voraussetzung für Upgrades auf 400G oder 800G.

Spine Leaf Architektur

Das ideale Kosten-Leistungsverhältnis

Was bei all diesen Entwicklungen letztendlich im Vordergrund steht, ist die Suche nach dem idealen Kosten-Leistungsverhältnissen von Hyperscale Rechenzentren. Eine große Rolle bei dieser Suche spielen die optischen Transceiver Module. Schon 2017 wurde die mittlerweile veraltete CFP2 Technologie von der moderneren CFP8 Technologie abgelöst, die sowohl in DWDM Transport Client Schnittstellen als auch in Core Routern eingesetzt werden kann. Schon hier sind die Abmessungen der Module im Vergleich zur vorherigen Modul Generationen deutlich kleiner geworden, zudem werden CDAUI 16 (16x25G NRZ) sowie CDAUI 8 (8x50G PAM4) Konnektoren unterstützt. Mittlerweile sind die 400G Module QSFP DD und OSFP dabei, sich zu etablieren. Diese sind noch kleiner als die CFP8 Module, nämlich etwa daumengroß, unterstützen eine besonders hohe Portdichte genauso wie sie eine Übertragung von bis zu 12,8 Tbps über insgesamt 32 400G Ports ermöglichen. QSFP DD und OSFP unterstützen lediglich CDAUI8 (8x50G PAM4).

Leistungsstärkere PAM4 ASIC Chips

Auch die Entwicklung der zuvor erwähnten, leistungsstärkeren PAM4 ASIC Chips für Netzwerk Switches steigert die ohnehin schon hohe Nachfrage nach 400G Verbindungen. Die Bandbreite dieser PAM4 ASIC Chips, die ganze 12,8 Tbps beträgt, verlangt nach neuartigen Switches mit 32 Ports mit je 400 Gbps, um das gesamte Leistungsspektrum auszureizen. Wird ein größerer Radix benötigt, können diese Switches alternativ mit 128 Ports mit je 100 Gbps betrieben werden. Hersteller wie Cisco und Arista stehen schon bereit, um den Markt mit solchen hochleistungsfähigen Geräten auszustatten.

Leistungsstärkere PAM4 ASIC Chips

Fazit

Sie sehen, dass die Entwicklung hin zu 400G Optik viele weitere begleitende Neuerungen mit sich bringt. Der Platzbedarf in Rechenzentren wächst, was eine ausgefuchstere Infrastruktur und kreative Lösungen im Hyperscale Rechenzentrum voraussetzt. Die 400G Optik ist ein extrem wichtiges Bauteil im Großen und Ganzen eines Hyperscale Rechenzentrums.

Egal für welche optische Technologie Sie sich im Endeffekt entscheiden, sollten Sie stets im Hinterkopf behalten, dass die 400G Optik nur ein Zwischenstopp auf dem Weg zu neuartigen Technologien ist. Daher sollten Sie jede Wahl zukunftsorientiert treffen, um beim nächsten Technologiesprung nicht in Chaos oder hohen Kosten zu versinken und somit den Anschluss an die besser vorbereitete Konkurrenz zu verlieren. Analysieren Sie Ihren Bedarf genau, denn je genauer Sie diesen kennen, desto präziser können Sie die für Ihr Hyperscale Rechenzentrum passenden Komponenten auswählen und sich für die Gegenwart Um mit einer solch rasanten technologischen Entwicklung Schritt zu halten, muss die gesamte Architektur von Hyperscale Rechenzentren im Schnitt alle zwei Jahre komplett erneuert werden, Stichwort geplante Obsoleszenz. Der Übergang zum 400G Hyperscale Rechenzentrum und in nicht allzu ferner Zukunft zum 800G Hyperscale Rechenzentrum ist also unvermeidbar.Zukunft im Bereich der Hyperscale Rechenzentren gut rüsten.

Das könnte Sie auch interessieren

Kenntnisse
Kenntnisse
See profile for Jason.
Jason
Die Vorteile und Nachteile der Glasfaserkabel
07. Aug 2020
84.5k
Kenntnisse
Kenntnisse
See profile for Sheldon.
Sheldon
TCPIP vs. OSI: Was ist der Unterschied?
06. Jul 2022
71.0k
Kenntnisse
See profile for Sheldon.
Sheldon
Das ABC von PON: OLT, ONU, ONT und ODN
19. Aug 2020
26.9k
Kenntnisse
Kenntnisse
See profile for Sheldon.
Sheldon
Grundlagen von optischen Verteilern (ODF)
02. Apr 2019
3.8k
Kenntnisse
See profile for Sheldon.
Sheldon
LACP vs. PAGP: Was ist der Unterschied?
06. Jun 2022
6.3k
Kenntnisse
See profile for Vincent.
Vincent
Einführung zu BiDi-Transceivern
26. Jun 2020
9.6k
Kenntnisse
See profile for Moris.
Moris
Simplex- vs. Duplex-Glasfaserkabel
10. Jun 2021
38.5k