Deutsch

Was ist eine Spine-Leaf-Architektur und wie wird sie aufgebaut?

Aktualisierung: 01. Apr 2022 by
11.5k

Rechenzentrum-Switches

Seit vielen Jahren werden Rechenzentren in einer Three-Tier-Architektur gebaut. Doch mit dem Aufkommen von Konsolidierung, Virtualisierung und Hyper Converged Infrastructure (HCI) in Rechenzentren wird eine neue Netzwerkarchitektur, nämlich Leaf-Spine, allmählich zum Mainstream in der heutigen Rechenzentrumsnetzwerkbereitstellung. Damit werden einige Einschränkungen der traditionellen Three-Tier-Architektur für Rechenzentrum-Switches überwunden. Im Folgenden wird erläutert, was eine Spine-Leaf-Architektur ist und wie man eine Spine-Leaf-Architektur entwirft.

 

Was ist eine Spine-Leaf-Architektur?

Die Spine-Leaf-Architektur holt aufgrund ihrer Skalierbarkeit, Zuverlässigkeit und besseren Leistung gegenüber großen Rechenzentren/Cloud-Netzwerken auf. Wie in der nachstehenden Abbildung dargestellt, besteht das Spine-Leaf-Design nur aus zwei Schichten: dem Leaf-Layer und dem Spine-Layer.

Der Spine-Layer besteht aus Switches, die das Routing übernehmen und als Backbone des Netzes fungieren. Der Leaf-Layer umfasst einen Access-Switch, der die Verbindung zu Endpunkten wie Servern und Speichergeräten herstellt. In einer Leaf-Spine-Architektur ist jeder Leaf-Switch mit jedem Spine-Switch verbunden. Bei diesem Design kann jeder Server mit jedem anderen Server kommunizieren, ohne dass mehr als ein Switch-Verbindungspfad zwischen zwei Leaf-Switches besteht.

Die herkömmliche Three-Tier-Architektur besteht dagegen aus drei Schichten, einschließlich Zugriffs, Verteilungs- und Kernschicht (Access-, Distribution- und Core-Layer) in der Bereitstellung.Die Vermittlungsgeräte in jeder Schicht sind durch redundante Pfade miteinander verbunden, wodurch Loops im Netzwerk entstehen können. Mit der Umwandlung von Rechenzentren müssen mehr Daten innerhalb des Rechenzentrums transportiert werden, während die Anzahl der Sprünge zunimmt, was die Möglichkeit von Paketverlusten und erheblichen Latenzen erhöht.

Die herkömmliche Three-Tier-Architektur besteht dagegen aus drei Schichten, einschließlich Zugriffs, Verteilungs- und Kernschicht (Access-, Distribution- und Core-Layer) in der Bereitstellung.Die Vermittlungsgeräte in jeder Schicht sind durch redundante Pfade miteinander verbunden, wodurch Loops im Netzwerk entstehen können. Mit der Umwandlung von Rechenzentren müssen mehr Daten innerhalb des Rechenzentrums transportiert werden, während die Anzahl der Sprünge zunimmt, was die Möglichkeit von Paketverlusten und erheblichen Latenzen erhöht.

Wenn massiver Ost-West-Verkehr über diese herkömmliche Architektur läuft, können Geräte, die an denselben Switch-Port angeschlossen sind, um die Bandbreite konkurrieren, was zu einer schlechten Reaktionszeit für die Endbenutzer führt. Daher eignet sich diese Three-Tier-Architektur nicht für moderne virtualisierte Rechenzentren, in denen sich Rechen- und Speicherserver an beliebigen Orten innerhalb der Einrichtung befinden können.

 

 

Vorteile der Spine-Leaf-Architektur

Die Spine-Leaf-Architektur ist zu einer beliebten Rechenzentrumsarchitektur geworden, die vor allem dann entwickelt wurde, wenn Rechenzentren mit mehr Vermittlungsebenen an Größe gewinnen. Die Vorteile des Spine-Leaf-Modells sind verbesserte Latenzzeiten, geringere Engpässe, größere Bandbreite und Skalierbarkeit.

Erstens werden beim Spine-Leaf-Modell alle Verbindungsleitungen genutzt. In Hyperscale-Rechenzentren kann es Hunderte oder Tausende von Servern geben, die mit einem Netzwerk verbunden sind. In diesem Fall kann der Leaf-Switch als Brücke zwischen dem Server und dem Kernnetzwerk eingesetzt werden. Jedes Leaf ist mit allen Spines verbunden, wobei weder zwischen den Spines selbst noch zwischen den Leafs Verbindungen bestehen, wodurch eine große, blockierungsfreie Struktur entsteht. In einem Three-Tier-Architektur muss ein Server unter Umständen einen hierarchischen Pfad über zwei Aggregations-Switches und einen Core-Switch zurücklegen, um mit einem anderen Switch zu kommunizieren, was zu zusätzlichen Latenzzeiten und Verkehrsengpässen führt.

Ein weiterer Vorteil besteht darin, dass zusätzliche Hardware und Kapazität leicht hinzugefügt werden können. Spine-Leaf-Architekturen können entweder Layer 2 oder Layer 3 sein, so dass Leaf-Switches hinzugefügt werden können, um die Kapazität zu erhöhen. Und Spine-Switches können bei Bedarf für Uplinks hinzugefügt werden, wodurch die Bandbreite zwischen den Schichten erweitert und die Überbelegung reduziert wird.

 

Wie wird eine Spine-Leaf-Architektur konzipiert?

Vor dem Entwurf einer „Spine-Leaf“-Architektur müssen Sie einige wichtige damit zusammenhängende Faktoren herausfinden. In diesem Zusammenhang sollten die Überschreibungsverhältnisse, die Skalierung von Leaf und Spine, die Uplinks von Leaf auf Spine und der Aufbau auf Layer 2 oder Layer 3 berücksichtigt werden.

Überbelegungsverhältnisse (Oversubscription Ratios) — Die Überbelegung ist das Verhältnis von Konflikten, wenn alle Geräte zur gleichen Zeit Datenverkehr senden. Sie kann sowohl in Nord-Süd-Richtung (Verkehr, der in ein Rechenzentrum betritt bzw. verlässt) als auch in Ost-West-Richtung (Verkehr zwischen Geräten im Rechenzentrum) gemessen werden. Die moderne Netzwerkdesigns haben ein Überbelegungsverhältnis von 3:1 oder weniger, das als Verhältnis zwischen der Upstream-Bandbreite (zu Spine-Switches) und der Downstream-Kapazität (zu Servern/Speichern) gemessen wird.

Die folgende Abbildung veranschaulicht, wie das Überbelegungsverhältnis von Leaf- und Spine-Layern gemessen werden kann. Der Leaf-Switch verfügt über 48× 10G-Ports, was eine Port-Kapazität von insgesamt 480Gb/s ergibt. Verbindet man die 4× 40G Uplink-Ports jedes Leaf-Switches mit den 40G Spine-Switches, so verfügt der Leaf über eine Uplink-Kapazität von insgesamt 160Gb/s. So ergibt sich das Verhältnis 480:160, und wir erhalten das Verhältnis 3:1.

Build Leaf-Spine architecture with FS switches

 

Skalierung von Leaf- und Spine-Switches — Die Anzahl der Spine-Switches im Netzwerk wird durch eine Kombination aus dem erforderlichen Durchsatz zwischen den Leaf-Switches, der Anzahl der redundanten/ECMP-Pfade zwischen den Leafs und der Portdichte in den Spine-Switches bestimmt. Da die Endpunkte im Netzwerk nur mit Leaf-Switches verbunden sind und jeder Leaf-Switch mit allen Spines verbunden ist, bestimmt die Portdichte am Spine-Switch die maximale Anzahl der Leaf-Switches in der Topologie. Ein höherer Durchsatz in den Uplinks von den Leaf-Switches zu den Spine-Switches kann durch eine Erhöhung der Anzahl der Spine-Switches oder durch die Bündelung der Uplinks in Port-Kanälen zwischen den Leafs und den Spines erreicht werden.

10G/40G/100G-Uplinks vom Leaf zum Spine — In einem Spine-Leaf-Architektur sind die Uplinks vom Leaf zum Spine in der Regel 40G oder 100G und können im Laufe der Zeit von einem Ausgangspunkt von 40G (Nx 40G) auf 100G (Nx 100G) migrieren. In einem idealen Szenario arbeiten die Uplinks immer mit einer höheren Geschwindigkeit als die Downlinks, um sicherzustellen, dass es nicht zu Blockierungen aufgrund von Mikrobursts eines Hosts kommt, der mit Leitungsgeschwindigkeit birst.

Layer 2 oder Layer 3 — Zweistufige Spine-Leaf-Netzwerke können entweder auf Layer 2 (VLAN überall) oder Layer 3 (Subnetze) aufgebaut werden. Layer-2-Designs bieten die größte Flexibilität, so dass sich VLANs überall erstrecken können und MAC-Adressen überall hin migriert werden können. Layer-3-Designs bieten die schnellsten Konvergenzzeiten und die größte Skalierbarkeit durch Fan-out mit ECMP, das bis zu 32 oder mehr aktive Spine-Switches unterstützt.

 

Aufbau einer Spine-Leaf-Architektur mit FS-Switches

Hier nehmen wir FS Spine-Leaf-Switches als Beispiel, um zu zeigen, wie man eine Spine-Leaf-Architektur aufbaut. Wir gehen davon aus, dass wir eine Rechenzentrumsstruktur mit einem primären Ziel von mindestens 960 10G-Servern aufbauen wollen. In diesem Fall werden wir den FS N5860-48SC als Leaf-Switch und den N8560-64C als Spine-Switch verwenden.

FS N8560-64C

 

FS N8560-64C ist ein Layer-3-Switch mit 64 Ports, der 64 100Gb QSFP28 unterstützt und für Cloud-Rechenzentren konzipiert ist.

FS N5860-48SC

 

Der N5860-48SC Switch mit 48× 10G-Ports dient als Leaf-Switch. Er ist in der Lage, 8× 100G QSFP28-Uplinks bereitzustellen.

Die beiden Modelle der Rechenzentrums-Switches werden zum Aufbau einer 100G-Spine-Leaf-Architektur verwendet. Die Verbindungen zwischen den Spine-Switches und den Leaf-Switches sind 100G, während die Verbindungen zwischen den Leaf-Switches und den Servern 10G sind. Um 960 Server abzudecken, verwenden wir 20 N5860-48SC-Switches und 2 N8560-64C.

So können die 100G QSFP28-Uplinks des N5860-48SC zum Anschluss der Ports am N8560-64C verwendet werden, und die 10G SFP+-Ports werden für den Anschluss von Servern, Routern und anderen Endgeräten empfohlen. Jeder Leaf-Switch ist mit jedem Spine verbunden. Mit den oben genannten Formeln können wir hier also 2 Spine-Switches und 20 Leaf-Switches haben. Beim Aufbau dieser Spine-Leaf-Architektur beträgt die maximale Anzahl von 10G-Servern also 960 bei einer Überzeichnung von 2,4:1. Wenn wir der Architektur mehr Spine-Kapazität hinzufügen, verringert sich das Überbelegungsverhältnis. Wenn wir beispielsweise vier N5860-48SC hinzufügen, beträgt das Überbelegungsverhältnis 1,2:1, was sehr nahe an 1:1 liegt. Dadurch wird sichergestellt, dass die Leaf-Switches den Uplink- und Downlink-Verkehr ohne Paketverluste weiterleiten.

 

Empfehlungen für Leaf-Spine-Switches

Je nach Netzwerkgeschwindigkeit werden verschiedene Switch-Modelle als Leaf-Switches empfohlen. Die in der folgenden Tabelle aufgeführten Switches der FS N-Serie für Rechenzentren werden mit kompletter Systemsoftware und Anwendungen geliefert, die eine schnelle Servicebereitstellung und -verwaltung sowohl für herkömmliche als auch vollständig virtualisierte Rechenzentren ermöglichen.

FS P/N N5860-48SC N8560-48BC N5850-48S6Q
Ports 48x 10G SFP+ und 8x 100G QSFP28 Uplinks 48x 25G SFP28 und 8x 100G QSFP28 Uplinks 48x 10G SFP+ und 6x 40G QSFP+
Weiterleitungsrate 1,90 bit/s 2,98 bit/s 1 bit/s
Switching-Kapazität 4 TBit/s 4 TBit/s 1,44 Tbit/s Vollduplex
Latenz <1μs <1μs <1μs
Max. Stromverbrauch <300W <300W <282W

Für Spine-Switches empfehlen wir hier die N8500-Serie von FS. Sie sind mit den erweiterten Funktionssätzen einschließlich MLAG, VXLAN, SFLOW, BGP und OSPF usw. ausgestattet. Mit Unterstützung für Layer-2-, Layer-3- und Overlay-Architekturen sind die Modelle der N5800-Serie die ideale Wahl für Core-Switches in Rechenzentren.

Für Spine-Switches gibt es hier einige Empfehlungen. Sie verfügen über erweiterte Funktionen wie MLAG, VXLAN, SFLOW, BGP und OSPF usw. und sind die ideale Wahl für Core-Switches in Rechenzentren.

FS P/N N8560-32C N8560-64C N9500-32D
Ports 32x 100G QSFP28 32x QSFP+ 32x 400G QSFP-DD
Weiterleitungsrate 4,76 bit/s 9,52 bit/s 19 bit/s
Switching-Kapazität 6,4 TBit/s 12,8 TBit/s 12,8 TBit/s
Latenz <1μs 1μs 1μs
Max. Stromverbrauch 450W 600W 1300W
 

Fazit

Die Spine-Leaf-Architektur überwindet eindeutig die Nachahmung der traditionellen Three-Tier-Architektur und bringt Vorteile für das moderne Rechenzentrum. Der Einsatz der Spine-Leaf-Architektur und die Verwendung von Hochleistungs-Switches für Rechenzentren sind für die Manager von Rechenzentren unerlässlich, da die Spine-Leaf-Architektur es den Rechenzentren ermöglicht, zu florieren und alle Anforderungen des Unternehmens zu erfüllen.

Verwandter Artikel

Wie man mit einem 10GBASE-T Switch ein Spine-Leaf-Netzwerk aufbaut

Das könnte Sie auch interessieren

Kenntnisse
Kenntnisse
See profile for Jason.
Jason
Die Vorteile und Nachteile der Glasfaserkabel
07. Aug 2020
85.5k
Kenntnisse
Kenntnisse
See profile for Sheldon.
Sheldon
TCPIP vs. OSI: Was ist der Unterschied?
06. Jul 2022
72.3k
Kenntnisse
See profile for Sheldon.
Sheldon
Das ABC von PON: OLT, ONU, ONT und ODN
19. Aug 2020
27.2k
Kenntnisse
Kenntnisse
See profile for Sheldon.
Sheldon
Grundlagen von optischen Verteilern (ODF)
02. Apr 2019
4.0k
Kenntnisse
See profile for Sheldon.
Sheldon
LACP vs. PAGP: Was ist der Unterschied?
06. Jun 2022
6.5k
Kenntnisse
See profile for Vincent.
Vincent
Einführung zu BiDi-Transceivern
26. Jun 2020
9.7k
Kenntnisse
See profile for Moris.
Moris
Simplex- vs. Duplex-Glasfaserkabel
10. Jun 2021
39.1k