Die richtigen Komponenten für GPU-Anwendungen
0GPU-Anwendungen gehen heute weit über klassische Grafikprozesse hinaus, sie spielen bei der KI- Entwicklung eine wichtige Rolle. Viele Standardrechner können dies jedoch nicht leisten. Die Frage ist für viele IT-Verantwortliche, wie sie die zusätzliche Leistung bereitstellen. Wir geben mit diesem Beitrag einen Überblick.
Ein Grafikprozessor (Graphics Processing Unit, GPU) ist ein spezieller Chip, der vor allem für die Bildwiedergabe entwickelt wurde. Lange Zeit beließ man diese Aufgabe beim Hauptprozessor (Central Processing Unit, CPU). Als jedoch grafikintensivere Anwendungen wie AutoCAD hinzukamen, stießen diese Prozessoren regelmäßig an ihre Grenzen. Denn die Anforderungen solcher Applikationen, die eine hohe Rechenleistung erfordern, überlasteten die CPU. Die Folge: Die Perfomance des Hauptprozessors und damit des gesamten Rechners ließ nach. Um diesen Leistungsverlust zu vermeiden, wurden die GPUs erfunden. Sie übernahmen fortan diese und andere Aufgaben – wie die computergestützte Produktion (Computer Aided Manufacturing, CAM), grafische Benutzeroberflächen sowie Computerspiele und Video-Anwendungen – und machten so Kapazitäten für andere Prozesse frei.
GPU-Anwendungen sind mehr als klassische Grafik: Machine Learning, KI, Augmented Reality
Wie alle anderen Hardwarekomponenten haben auch moderne Grafikprozessoren enorm an Leistung zugelegt: Die meisten CPUs haben heute zwischen vier und acht Kerne. Diese können mittlerweile virtuell unterteilt werden, dass ein einzelner Kern zwei Aufgaben parallel verarbeiten kann. GPUs können jedoch vier bis zehn solcher Prozesse abwickeln – pro Kern. So können sie mittlerweile spezielle Aufgaben übernehmen, die über Video- und klassische Bildbearbeitung hinausgehen, etwa für künstliche Intelligenz, maschinelles Lernen oder Augmented Reality.
Mehr Infos zu KI & Machine Learning im Webinar:
Die Praxis zeigt jedoch, dass diese integrierten GPUs immer noch nicht an die Leistung der meisten externen Grafikkarten heranreichen.
Denn mittlerweile müssen sie genug Rechenpower liefern, um beispielsweise neuronale Netze für Anwendungen in der künstlichen Intelligenz zu „trainieren“. Dabei versucht man, die Funktionsweise des menschlichen Gehirns zu imitieren. Ein künstliches neuronales Netz besteht aus einem abstrahierten Modell miteinander verbundener Neuronen, durch deren spezielle Anordnung und Verknüpfung sich Anwendungsprobleme aus verschiedenen Bereichen wie der Statistik, der Technik oder der Wirtschaftswissenschaften computerbasiert lösen lassen. Um diese Transferleistung eigenständig erbringen zu können, müssen solche Netze gewissermaßen angelernt werden, was wiederum eine enorme Rechenleistung erfordert.
GPU-Anwendung in der Praxis: Neuronale Netzwerke für die Sprach- oder Bilderkennung
Neuronale Netze sind weit mehr als Forschungsprojekte ambitionierter Wissenschaftler. Sie kommen bereits in vielen Bereichen zum Einsatz, insbesondere dann, wenn eine große Menge teils unpräziser Informationen aus unterschiedlichen Quellen zu einem möglichst konkreten Ergebnis verarbeitet werden muss. Anwendungsfälle sind beispielsweise:
- Sprach- oder Bilderkennung
- Simulationen und Prognosen, z.B. die Wettervorhersage
- medizinische Diagnostik
- Frühwarnsysteme, die bestimmte Entwicklungen vorhersagen können
Kostenloses E-Book:
GPU-Computing
Jetzt PDF anfordern
Recheneinheiten und Taktrate bestimmen über das Tempo der GPU-Anwendung
Damit IT-Verantwortliche für ihre Anwendung die passende Grafikkomponente finden, haben wir eine kleine Checkliste zusammengestellt:
- Die Leistung der Grafikkarte hängt wie bei jedem anderen Prozessor von der Taktrate und den Recheneinheiten ab.
- Art des Speichers: In den meisten Grafikkarten werden DDR5-, bei höherklassigen DDR6-Speichereinheiten (Dual Data Rate) verbaut.
- Auch das Storage-Modul verfügt über eine eigene Taktrate.
- Der VRAM einer Grafikkarte übernimmt, wie der RAM eines Prozessors, Zwischenspeicherungen, die vor allem bei der Videobearbeitung und bei modernen Games den Unterschied ausmachen können.
In den Standard-Grafikkarten werden in der Regel acht bis zwölf Gigabyte verbaut – Grenze nach oben (fast) offen. Profi-Gamer greifen auf Modelle mit maximalem Videospeicher zurück. Aber es kommt neben der reinen Rechen-Power auch auf die Recheneinheiten und die Taktrate an. Dabei muss „mehr“ nicht zwangsläufig besser sein, die beiden Elemente können sich gegenseitig kompensieren. Grafikkarten aus dem obersten (Preis-)Segment besitzen zwischen 2.500 und 4.500 Recheneinheiten. Die Taktrate im Premium-Bereich liegt hingegen zwischen 1.200 und 1.800 Megahertz. Eine niedrige Taktrate weist also nicht zwangsläufig auf eine langsame Grafikkarte hin.
Die beiden Marktführer in diesem Segment sind AMD und NVIDIA, teilweise auch in Partnerschaften mit Hardwareherstellern wie Asus.
Die derzeit wohl leistungsfähigste Grafikkarte ist die Geforce RTX 3080 Ti von NVIDIA. Sie ermöglicht eine 4K-Auflösung mit bis zu 60 Frames pro Sekunde – die Kosten dafür liegen allerdings bei mehr als 2000 Euro, je nach Händler sogar deutlich darüber. Da stellt sich für jeden Einkäufer die Frage, ob hier der Preis und die benötigte Leistung in einem angemessenen Verhältnis stehen. Grafikkarten, die eine Full-HD-Auflösung (1920 x 1080 Pixel, zum Vergleich: 4K genau doppelt so viel) abbilden, gibt es bereits im Bereich von 300 bis 500 Euro. Die mittlere Leistungsklasse WQHD (Wide Quad High Definition) liegt bei rund 700 Euro. Im Platin-Segment steigen die Kosten dann beinahe exponentiell, auf den mehr als dreifachen Preis.