Machine Learning

GPU Server für Machine Learning

Höhere Rechenleistung durch GPU-Einsatz

Machine Learning, neuronale Netze und Deep Learning sind Disziplinen im Bereich der künstlichen Intelligenz, die in den letzten Jahren einen enormen Aufschwung erlebt haben und vom Sprachassistenten bis zu autonomen Fahrzeugen zunehmend unser Leben bestimmen. Viele Algorithmen von Machine Learning setzen hohe Rechenleistung voraus. Diese wird von leistungsstarken Servern, vor allem aber auch von hoch spezialisierten Grafikkarten mit Tausenden Cores geliefert.

Anwendungsbereiche von Machine Learning

Machine Learning hat vor allem durch neuronale Netze und Deep Learning der bereits langjährig praktizierten Weiterentwicklung künstlicher Intelligenz in Wissenschaft, Forschung und Industrie zu gänzlich neuen Möglichkeiten verholfen.

So basieren etwa lernfähige Sprachassistenzsysteme wie Siri (Apple), Alexa (Amazon), Google Assistant oder Cortana (Microsoft) auf Deep-Learning-Verfahren. Auch in der Industrie 4.0 kommen vermehrt Machine-Learning-Systeme zum Einsatz, etwa um autonome Systeme mit KI auszurüsten, Netzwerke von smarten IoT-Maschinen aufzubauen oder Big Data durch die Auswertung von Sensordaten nutzbar zu machen. Die Medizin setzt heute die Stärken von Machine-Learning-Verfahren vor allem in der Diagnostik bei der Auswertung bildgebender Verfahren ein. Nicht zuletzt finden Machine-Learning-Algorithmen verstärkt Anwendung im Bereich der IT-Sicherheit, um die Lernfähigkeit bei der Überwachung von Unregelmäßigkeiten kritischer Systeme zu verbessern.

Machine-Learning-Methoden werden vor allem genutzt, wenn Muster in sehr großen, unstrukturierten Datenmengen wie etwa Bilddaten, Sensordaten, Transaktionsdaten, Videodaten oder auch gesprochener Sprache erkannt werden sollen. Je mehr Daten einem Algorithmus bereitgestellt werden, desto besser lernt das System dabei zu unterscheiden, welche Verhaltensweisen typisch oder auffällig sind. Die Anzahl der dafür nötigen Rechenoperationen kann extrem hoch sein. Der Vorteil ist aber: Sie lassen sich besser als in vielen anderen Anwendungen parallel abarbeiten.

GPU Computing für Machine Learning

Machine-Learning-Verfahren stellen in der Regel sehr hohe Anforderungen an die Hardware, u.a. im Hinblick auf Rechenleistung Abwärme, Leistungsaufnahme oder Storage-Anbindung. Klassische Prozessoren (CPUs) mit wenigen, aber dafür sehr leistungsfähigen Kernen sind jedoch für die eigentlichen Algorithmen – vor allem beim Deep Learning mittels neuronaler Netze – nicht geeignet. Die Algorithmen werden deshalb zumeist von der CPU an die Grafik-Prozessoren (GPUs) ausgelagert, da diese architekturbedingt auf Tausenden von logischen Kernen aufsetzen. Vor allem NVIDIA entwickelt hoch leistungsfähige GPUs, die besonders auf diese parallele Datenverarbeitung ausgerichtet sind und mit der CUDA-Technologie angesprochen werden. Mit solchen spezialisierten GPUs, wie etwa den NVIDIA Tesla GPUs und deren Nachfolgern, werden Machine-Learning-Anwendungen signifikant beschleunigt. Schon bei einer einzigen GPU-Karte der Volta-Generation werden diese Anwendungen oft um das 40fache schneller berechnet als nur mittels CPUs möglich wäre – und unsere GPU-Server bieten sogar Platz für bis zu acht GPU-Karten.

Sie haben Fragen zu unseren Machine Learning GPU Servern oder benötigen Unterstützung bei der Konzeption Ihres GPU Servers? Unsere erfahrenen Ansprechpartner beraten Sie gerne bei der Konfiguration Ihres neuen Server-Systems für Machine Learning.