Deutsch

Ein Einblick in das beschleunigte Computing

Veröffentlicht am 27. Jan 2024 by
110

Was ist beschleunigtes Computing?

Beschleunigtes Computing ist ein Berechnungsansatz, der in akademischen, Forschungs- und technischen Anwendungen eingesetzt wird. Dabei werden dedizierte Prozessoren in Verbindung mit herkömmlichen CPUs eingesetzt, um schnellere Berechnungen zu ermöglichen. Da beim beschleunigten Computing CPUs und andere Arten von Prozessoren gleichberechtigt kombiniert werden, wird es auch als heterogenes Computing bezeichnet.

Graphics Processing Units (GPUs) sind die am meisten genutzten Prozessoren. Datenverarbeitungseinheiten (Data Processing Units, DPUs) stellen eine schnell wachsende Kategorie dar, die eine verbesserte und beschleunigte Vernetzung ermöglicht. In Verbindung mit der Host-CPU spielen sie eine wichtige Rolle bei der Gestaltung eines einheitlichen und ausgewogenen Systems. Ein beschleunigtes Computing-System bietet im Vergleich zu einem System, das sich ausschließlich auf eine CPU stützt, eine höhere Gesamtkostenwirksamkeit sowie eine bessere Leistung und Energieeffizienz.

Accelerated Computing

Das beschleunigte Computing hat seinen Ursprung in Personalcomputern wurde für Supercomputer weiterentwickelt. Es wird in Personalcomputern, Smartphones und Cloud-Diensten eingesetzt. Heutzutage nutzen sowohl kommerzielle als auch technische Systeme das beschleunigte Rechnen, um Aufgaben wie maschinelles Lernen, Datenanalyse, Simulationen und Visualisierungen zu bewältigen.

Wie hat sich das beschleunigte Computing entwickelt?

Co-Prozessoren, spezialisierte Hardware zur Steigerung der Leistung einer Host-CPU, sind seit langem in Computern zu finden. Ihre Bedeutung entstand um 1980 mit der Einführung von Gleitkommaprozessoren, die den PCs fortgeschrittene mathematische Fähigkeiten verliehen. Im darauffolgenden Jahrzehnt stieg die Nachfrage nach Grafikbeschleunigern durch das Aufblühen von Videospielen und grafischen Benutzeroberflächen stark an.

  • 1999 markierte NVIDIA mit der Einführung des GeForce 256, des ersten Chips zur Auslagerung wichtiger 3D-Rendering-Aufgaben von der CPU, einen entscheidenden Moment. Dieser Meilenstein beinhaltete auch den bahnbrechenden Einsatz von vier Grafikpipelines für die gleichzeitige Verarbeitung, und NVIDIA prägte den Begriff „Graphics Processing Unit“ (GPU) und begründete damit eine neue Kategorie von Computerbeschleunigern.

  • Bis 2006 hatte NVIDIA erfolgreich 500 Millionen Grafikprozessoren ausgeliefert. Gleichzeitig begannen einige Forscher mit der Entwicklung von Code, um die leistungsstarken Fähigkeiten von Grafikprozessoren für Aufgaben zu nutzen, die die Fähigkeiten von CPUs übertrafen. Unter der Leitung von Lan Buck wurde CUDA eingeführt–ein Programmiermodell, das darauf abzielt, die Parallelverarbeitungs-Engines in den Grafikprozessoren für verschiedene Aufgaben nutzbar zu machen.

  • In Zusammenarbeit mit einem G80-Prozessor brachte CUDA 2007 eine neue Serie von NVIDIA-Grafikprozessoren auf den Markt, die eine immer breitere Palette von industriellen und wissenschaftlichen Anwendungen mit beschleunigten Berechnungen versorgen.

Diese auf Rechenzentren ausgerichtete GPU-Reihe wird regelmäßig um neue Architekturen erweitert, die nach Innovatoren wie Tesla, Pascal, Volta und Ampere benannt sind. Überall auf der Welt setzten Experten für Hochleistungsrechnen GPUs ein, um beschleunigte HPC-Systeme zu konstruieren und bahnbrechende wissenschaftliche Projekte durchzuführen. Ihre Bemühungen umfassen heute verschiedenste Bereiche, von der astrophysikalischen Erforschung schwarzer Löcher bis zur Genomsequenzierung und darüber hinaus.

Warum ist beschleunigtes Computing wichtig?

Beschleunigte Computertechnik und künstliche Intelligenz im Zeitalter der Moderne

In der Ära der künstlichen Intelligenz spielt das beschleunigte Computing eine entscheidende Rolle. Sie ist eine der Schlüsseltechniken, die das Gedeihen von Deep-Learning-Modellen durch die Bereitstellung effizienter Rechenleistung ermöglicht. Im Bereich des maschinellen Lernens ist das Modelltraining eine rechenintensive Aufgabe. Der Einsatz von beschleunigten Rechnern, insbesondere von Grafikprozessoren, kann die für das Modelltraining benötigte Zeit erheblich verkürzen und den Iterations- und Optimierungsprozess des Algorithmus beschleunigen. Die KI wiederum ist ein wichtiger Verbündeter bei der Entwicklung des beschleunigten Computings. Unternehmen wie American Express setzen sie ein, um Kreditkartenbetrug zu verhindern, während Telekommunikationsunternehmen künstliche Intelligenz erforschen, um intelligente 5G-Dienste anzubieten.

Verbesserung der Energieeffizienz

AEine beschleunigte Computertechnik kann auch zu einer verbesserten Energieeffizienz beitragen. CPUs und andere spezialisierte Beschleuniger sind darauf ausgelegt, bestimmte Arbeitslasten effizienter zu bewältigen als Allzweck-CPUs, wodurch sich der Stromverbrauch pro Berechnung oft verringert. So bieten GPUs beispielsweise eine 42-mal bessere Energieeffizienz bei der KI-Inferenz als CPUs. Die Umstellung aller weltweit eingesetzten KI-Server von reinen CPU-Systemen auf GPU-beschleunigte Systeme könnte zu jährlichen Energieeinsparungen von bemerkenswerten 10 Billionen Wattstunden führen. Dies entspricht dem Energieverbrauch von etwa 1,4 Millionen Haushalten in einem Jahr (siehe Abbildung unten für eine visuelle Darstellung).

Enhancing Energy Efficiency

Zusammenfassung

Beschleunigtes Computing verändert die Technologielandschaft, durchbricht herkömmliche Computing-Paradigmen und läutet eine neue Ära der Innovation ein. Im Bereich der künstlichen Intelligenz und des Hochleistungsrechnens werden beim Computings Computing in der Regel dedizierte Prozessoren (z. B. GPUs) eingesetzt, um die Rechengeschwindigkeit zu erhöhen, und es werden KI-Switches verwendet, um mehrere Rechengeräte miteinander zu verbinden und zu koordinieren, um einen effizienten Datenaustausch und eine effiziente Kommunikation zu erreichen. Von künstlicher Intelligenz und Edge Computing bis hin zu wissenschaftlicher Forschung und Gesundheitswesen–Accelerated Computing wird die Zukunft der Technologie nachhaltig prägen. Es treibt den Fortschritt voran und erschließt Potenziale, die früher als unerreichbar galten, und prägt so den Weg des Fortschritts in den verschiedensten Bereichen.

Das könnte Sie auch interessieren

Kenntnisse
Kenntnisse
See profile for Jason.
Jason
Die Vorteile und Nachteile der Glasfaserkabel
07. Aug 2020
85.9k
Kenntnisse
Kenntnisse
See profile for Sheldon.
Sheldon
TCPIP vs. OSI: Was ist der Unterschied?
06. Jul 2022
72.9k
Kenntnisse
See profile for Sheldon.
Sheldon
Das ABC von PON: OLT, ONU, ONT und ODN
19. Aug 2020
27.4k
Kenntnisse
Kenntnisse
See profile for Sheldon.
Sheldon
Grundlagen von optischen Verteilern (ODF)
02. Apr 2019
4.0k
Kenntnisse
See profile for Sheldon.
Sheldon
LACP vs. PAGP: Was ist der Unterschied?
06. Jun 2022
6.6k
Kenntnisse
See profile for Vincent.
Vincent
Einführung zu BiDi-Transceivern
26. Jun 2020
9.8k
Kenntnisse
See profile for Moris.
Moris
Simplex- vs. Duplex-Glasfaserkabel
10. Jun 2021
39.4k