Deutsch

Was ist High Performance Computing (HPC)?

Aktualisierung: 31. Aug 2022 by
1.1k

Rack Server

High Performance Rechner können hochkomplexe Kalkulationen weitaus schneller durchführen und große Datenmenge deutlich schneller verarbeiten als herkömmliche Rechner. Während ein normaler Prozessor mit drei Gigahertz etwa drei Milliarden Berechnungen pro Sekunde anstellen kann, erreichen High Performance Rechner mitunter Zahlen im Bereich der Quadrillionen.

Eine genaue Definition davon, was High Performance Computing ist, gibt es nicht. Generell versteht man unter dem Begriff jedoch eine Ansammlung von Rechnern, genannt Cluster oder Grid, die in der Lage ist, Berechnungen durchzuführen, die einen herkömmlichen Computer an seine Grenzen bringen würden.

Wieso ist High Performance Computing so wichtig?

Die Datenmenge, die im weltweiten Netz zu jedem Zeitpunkt aufkommt, wächst unaufhaltsam. Ständige Innovationen und Entwicklungen wie 5G, Big Data, das Internet of Things (IoT) oder die künstliche Intelligenz sorgen für einen immer und immer größer werdenden Bedarf an Rechenleistung. Firmen wie Facebook, aber auch staatliche oder wissenschaftliche Einrichtungen, müssen mit besonders großen Datenmengen zurechtkommen.

Neben der Verarbeitung und Weiterleitung dieser Daten spielt auch der Sicherheitsaspekt beim High Performance Computing eine bedeutsame Rolle. Jedes noch so kleine Datenfragment muss vor der Ankunft auf einem Server auf schädliche Programme geprüft werden. Um ein solch hohes Niveau an Sicherheit dauerhaft zu gewährleisten, ist eine extreme Rechenleistung vonnöten.

Auch in der Forschung ist High Performance Computing essenziell. Sollen etwa Statistiken oder Modelle über globale statt lokale oder regionale Ereignisse erstellt werden, reicht ein einfacher Computer in aller Regel nicht mehr aus. Bei der Berechnung und Auswertung komplexer Wettermodelle oder in der Astrophysik kommen daher sehr häufig High Performance Computer zum Einsatz.

Zu guter Letzt entwickeln Firmen und Staaten High Performance Computer auch, um sich einen technologischen Vorteil gegenüber der Konkurrenz zu verschaffen. Der Konkurrenzgedanke war schon immer ein wichtiger Faktor in der Entwicklung neuer, fortschrittlicher Technologien.

High Performance Computing bietet Firmen oder anderen Akteuren, die auf eine hohe Rechenpower angewiesen sind, also zahllose Vorteile.

  • Die Geschwindigkeit: High Performance Computer können Geschwindigkeiten erreichen, die die Geschwindigkeit herkömmlicher Rechner um ein Vielfaches übersteigen. Zudem kann beliebig viel Leistung relativ einfach zu- oder abgeschaltet werden. Auch die verwendete Software, besonders das Betriebssystem, kann die Geschwindigkeit von High Performance Computern beeinflussen.

  • Die Fehlertoleranz: Dank des Prinzips, auf dem das High Performance Computing basiert, ist es wenig anfällig für Fehler. Selbst wenn ein Node etwa aufgrund eines Hardwarefehlers ausfällt, betrifft dies die restlichen Nodes in der Regel nicht.

  • Die Flexibilität: High Performance Computing kann sowohl in einem physischen Cluster als auch in einem virtuellen Grid ausgeführt werden. Einige Anbieter lassen ihren Kunden sogar die Wahl zwischen GPUs oder CPUs, um so ideal auf individuelle Bedürfnisse eingehen zu können.

  • Der Kostenvorteil: High Performance Computing ist mittlerweile, vor allem dank Grid Anbietern, recht günstig zu haben, insbesondere wenn man die gelieferte Leistung bedenkt. Grids bieten im Vergleich zu Clustern zudem den Vorteil, dass keine Kosten für den Standort sowie die Instandhaltung und die Modernisierung anfallen. Unternehmen oder Organisationen können über das Grid Computing also zeitweise auf Ressourcen zugreifen, die sie sich ansonsten nicht selbst leisten könnten.

    HPC

Wie funktioniert High Performance Computing?

Ein High Performance Computer besteht aus vielen kleineren Computern, sogenannten Nodes. Jeder dieser Nodes, zu Deutsch Knoten, führt zentral erteilte Aufgaben aus. Im Unterschied zu einem normalen Netzwerk arbeiten all diese Computer reibungslos zusammen und kommunizieren ständig über die sogenannte Middleware, also eine Software auf einem zentralen Rechner, miteinander.

Die Leistungen der meisten High Performance Computer bewegen sich im Bereich der TeraFLOPS (TFLOPS) oder sogar der PetaFLOPS (PFLOPS). Ein FLOPS ist eine Floating Point Operation Per Second und beschreibt die Anzahl an Gleitkommaoperationen, die ein Rechner in der Sekunde ausführen kann. 10¹² FLOPS sind ein TeraFLOPS.

Ein einzelner Rechner kann eine solche Leistung unmöglich erzielen. Ein handelsüblicher Prozessor schafft lediglich FLOPS im Bereich einiger hundert GigaFLOPS. Um also solche Leistungen zu erreichen, muss auf sogenanntes Grid Computing oder auf Cluster zurückgegriffen werden.

Das Grid Computing ist die virtuelle Variante des High Performance Computing. Hierbei wird eine bestimmte Zahl an autonomen Rechnern über ein virtuelles Netzwerk verknüpft. Die Rechner müssen dazu nicht physisch an einem Ort sein, weshalb das Grid Computing auch über große Distanzen funktioniert. Die verknüpften Rechner kommunizieren über das Netzwerk miteinander und werden eingesetzt, um gemeinsam eine komplexe Rechenoperation zu lösen. Heutzutage gibt es viele Anbieter, die zeitlich begrenzte Grid Computing Dienste für Firmen und Institutionen anbieten.

Cluster bestehen dagegen aus Computern, die sich in aller Regel physisch an ein und demselben Ort befinden und für Außenstehende wie ein großer Rechner aussehen. Im Bereich des High Performance Computing kommt vor allem die sogenannte Shared Nothing Architektur zum Einsatz, bei der jeder Node des Clusters über eigene Hardware verfügt, vor allem aber über einen eigenen Arbeitsspeicher und Festplattenspeicher. So können je nach Leistungsbedarf beliebig viele Nodes zu- oder abgeschaltet werden, um eine höhere Leistungsfähigkeit des Clusters zu gewährleisten.

Welche Herausforderungen gibt es beim Einsatz von High Performance Computing?

Natürlich gibt es auch im Bereich High Performance Computing hohe Hürden, die überwunden werden müssen.

Zum Beispiel können Sie High Performance Computing zwar mit normaler, handelsüblicher Hardware betreiben - dann müssen Sie jedoch mit einer beschränkten Rechenleistung leben. Besser geeignet sind modulare Server, die eine hohe Dichte aufweisen. Sind diese mit einem dedizierten Hochleistungs-LAN ausgerüstet, können Sie bei hoher Leistung dennoch immer wieder auf technologische Neuerungen und andere Umstände reagieren.

Eine weitere, große Herausforderung ist die Interoperabilität Ihrer Software. Updaten Sie zum Beispiel eine Komponente Ihres High Performance Computers, so kann dies adverse Folgen für eine andere Komponente haben. Daher müssen ausführliche Tests und Validierungsprozesse hohe Priorität genießen.

Auch die Infrastruktur ist im High Performance Computing eine große Hürde. Große Server brauchen vor allem zwei Dinge: Platz und Strom. Beide sind teuer und nicht in unendlichen Mengen verfügbar. Eine Lösung für dieses Problem können virtuelle Maschinen sein, die zusätzliche physische Server bis zu einem gewissen Grad ersetzen können. Der Stromverbrauch kann dank der Verwendung moderner Komponenten und Power Distribution Units reduziert werden, ist aber dennoch weiterhin ein wichtiger Faktor.

Wie sieht die Zukunft des High Performance Computings aus?

Das High Performance Computing wird in der Zukunft immer wichtiger werden. Der Grund dafür ist schnell genannt: die immer weiter wachsende Menge an Daten, die schnell und zuverlässig verarbeitet werden muss.

Der Bereich High Performance Computing ist stark mit anderen Bereichen wie der künstlichen Intelligenz und dem Internet of Things verknüpft. Dank des Wachstums dieser Bereiche wird auch das High Performance Computing immer weiter an Bedeutung gewinnen.

Mehr noch: Das High Performance Computing ist das Fundament dieser Technologien. Ohne das High Performance Computing gäbe es keinen Spielraum für eine Weiterentwicklung vieler Innovationen.

Das könnte Sie auch interessieren

Kenntnisse
Kenntnisse
See profile for Jason.
Jason
Die Vorteile und Nachteile der Glasfaserkabel
07. Aug 2020
85.6k
Kenntnisse
Kenntnisse
See profile for Sheldon.
Sheldon
TCPIP vs. OSI: Was ist der Unterschied?
06. Jul 2022
72.5k
Kenntnisse
See profile for Sheldon.
Sheldon
Das ABC von PON: OLT, ONU, ONT und ODN
19. Aug 2020
27.3k
Kenntnisse
Kenntnisse
See profile for Sheldon.
Sheldon
Grundlagen von optischen Verteilern (ODF)
02. Apr 2019
4.0k
Kenntnisse
See profile for Sheldon.
Sheldon
LACP vs. PAGP: Was ist der Unterschied?
06. Jun 2022
6.5k
Kenntnisse
See profile for Vincent.
Vincent
Einführung zu BiDi-Transceivern
26. Jun 2020
9.8k
Kenntnisse
See profile for Moris.
Moris
Simplex- vs. Duplex-Glasfaserkabel
10. Jun 2021
39.2k