Früher waren sie vor allem im Gaming-Umfeld relevant. Heute spielen sie eine entscheidende Rolle, um das Thema Künstliche Intelligenz in Unternehmen voranzubringen. Die Rede ist von Grafikkarten. Wieso das der Fall ist und welche Rolle der Hersteller NVIDIA dabei spielt, erklärt CANCOM-Experte Janick Rehberger im Gastbeitrag.
30. November 2023
|
Lesedauer: ca. 4 Min.
Bild: © Aliaksandra/stock.adobe.com
NVIDIA, Grafikkarten, KI: Was früher essenziell für flüssige Computerspiele war, ist heute elementar, sobald es um das Thema Künstliche Intelligenz geht. Aber was hat eine Grafikkarte mit KI zu tun? Und wie können Plattformen wie NVIDIA DGX Unternehmen künftig in ihrer KI-Strategie helfen? Um diese Fragen zu beantworten, muss zunächst darauf eingegangen werden, wie KI-Lösungen überhaupt funktionieren.
Grundsätzlich befähigen KI-Lösungen technische Systeme, deren Umwelt wahrzunehmen, mit dem Wahrgenommen umzugehen, daraus Schlussfolgerungen zu ziehen und entsprechende Handlungen einzuleiten. Darüber hinaus ist ein solches System in der Lage, sich veränderten Rahmenbedingungen anzupassen.
Damit all das funktioniert, setzen sich KI-Lösungen aus zwei Technologien zusammen: Machine Learning und Deep Learning. Der erste Teilbereich Machine Learning wird mithilfe von menschlichen Eingriffen geschult, wobei sich dessen Algorithmen im Laufe der Zeit verbessern, je mehr strukturierte Daten es geliefert bekommt. Der zweite Teilbereich Deep Learning, der wiederum eine Untergruppe von Machine Learning ist, kann seine Algorithmen mittels mehrschichtiger neuronaler Netze sowie strukturierter, aber auch unstrukturierter Daten eigenständig verbessern.
Der Hauptunterschied zwischen Machine Learning und Deep Learning besteht also aus der Fähigkeit des Deep Learnings, auch unstrukturierte Daten zu verarbeiten – wofür künstliche neuronale Netze (kurz: KNN) zum Einsatz kommen. Dadurch können Informationen, die in Text-, Bild-, Audio- und Videoform vorliegen, in nummerische Werte umgewandelt werden. Diese Werte lassen sich anschließend zur Mustererkennung oder zum weiteren Lernen verwenden.
Genau hier kommen Grafikkarten ins Spiel: So benötigen KNN viel Rechenleistung, damit sie eigenständig aus den (strukturierten und unstrukturierten) Daten lernen können. Diese Rechenleistung stellen Grafikkarten bzw. GPUs zur Verfügung.
In diesem Kontext sind GPUs deutlich besser geeignet als klassische Prozessoren bzw. CPUs. Dies liegt vor allem daran, dass GPUs mehrere Aufgaben parallel bearbeiten können – während CPUs nur in der Lage sind, die Aufgaben nacheinander abzuarbeiten. Dadurch ist mit einer GPU eine schnellere Verarbeitung möglich als mit einer CPU. Gerade im KI-Umfeld ist dabei zu berücksichtigen, dass neben den „klassischen“ Grafikkarten heute auch spezielle Data Center GPUs zum Einsatz kommen – die mit „klassischen“ Grafikkarten nicht mehr viel gemeinsam haben: Sie weisen zwar noch eine typische GPU-Architektur auf, sind aber nicht mehr für den Grafikbetrieb geeignet.
Der aktuell wohl bekannteste Vertreter, der Deep Learning mit KNN nutzt, ist ChatGPT. Das KI-Tool gehört zu den sogenannten „Large Language Modellen“: Als eine Form der generativen KI sind diese Modelle darauf ausgerichtet, natürliche Sprache zu verstehen, zu verarbeiten und zu generieren. Das Ziel ist die Erstellung menschenähnlicher Texte.
Neben dem gängigen ChatGPT-Beispiel lässt sich generative KI auch für andere Aufgaben nutzen. Dazu zählen beispielsweise die Bearbeitung von E-Mails, die Bereitstellung intelligenter Chatbots oder die Erstellung von Bild-, Audio- oder Videoinhalten.
Wer nun eine eigene KI-Lösung mit eigenen Daten und Compliance-Richtlinien betreiben möchte, benötigt also kurz gesagt Daten, ein KI-Modell (zum Beispiel das Large Language Modell), die nötige Rechenpower und viel Know-how.
Damit Unternehmen weder das „KI-Rad“ neu erfinden, noch viel Zeit und Geld in Modell- und Infrastrukturentwicklung stecken müssen – sodass sie mit geringem Investment starten können – bietet unter anderem NVIDIA mit der NVIDIA DGX Cloud-Lösung quasi ein „KI-Komplettpaket“ an.
Darin enthalten sind vortrainierte KI-Modelle, leistungsstarke KI-Infrastrukturen in verschiedenen Leistungsstufen, ein KI-Softwarestack durch die sogenannte NVIDIA AI Enterprise Suite sowie dazugehöriger Support durch KI-Experten. Im Endeffekt also Künstliche Intelligenz als Infrastructure as a Service (IaaS).
Die einzelnen Elemente der NVIDIA DGX Cloud sehen Sie hier in der Übersicht:
Bild: © NVIDIA
Gemeinsam mit NVIDIA konnte CANCOM als erster deutscher NVIDIA-Partner die sogenannte AI-Training-as-a-Service-Lösung bei einem DAX-Konzern implementieren. Die Mehrwerte der DGX-Cloud zeigten sich bereits nach kurzer Zeit. So konnte mit der Lösung die Komplexität gegenüber einer On Premises-Infrastruktur deutlich reduziert werden: Die DGX-Cloud musste weder extra angeschafft noch bereitgestellt werden.
Die so gewonnene Zeit konnten die jeweiligen Fachabteilungen des Konzerns nutzen, um die gewünschten KI-Szenarien mit dem NVIDIA KI-Supercomputer in mehreren Phasen zu testen und gleichzeitig auf die KI-Experten von NVIDIA zurückzugreifen. Ein weiterer Vorteil der DGX-Cloud war, dass das Unternehmen nicht nur auf die NVIDIA-Hardware zugreifen konnte, sondern auch auf den NVIDIA NGC-Catalog. Dieser erlaubt den Zugriff auf Hunderte vorab trainierter KI-Modelle – wodurch unternehmenseigene KI-Lösungen schnell bereitgestellt werden können.
Neben dem Bezug der Ressourcen über die DGX-Cloud hat der Kunde zukünftig alternativ die Option, die DGX-Infrastruktur mit eigener NVIDIA-Hardware im lokalen Rechenzentrum zu betreiben.
Für KI-Projekte, wie oben beschrieben, wenden wir als CANCOM den sogenannten „One-4-all“-Lösungsansatz an. Dieser deckt die gesamte Kette einer KI-Implementierung vollumfänglich ab.
Bild: © CANCOM
Gemeinsam mit unseren Kunden erarbeiten wir die Use Case-Definition, beschäftigen uns mit den Daten sowie der Datenqualität und implementieren die jeweils am besten geeignete KI-Technologie. Darüber hinaus berücksichtigen wir die passive und aktive Serverinfrastruktur und unterstützen beim Change Management – inklusive User Adoption. Gerade letzteres ist für den Erfolg eines KI-Projekts entscheidend, weil die Mitarbeiter die „neue“ KI-Technologie nicht nur akzeptieren, sondern auch wissen müssen, wie sie diese im Arbeitsalltag optimal einsetzen können.
Sie möchten sich näher zu den DGX-Lösungen von NVIDIA informieren – oder sich allgemein zum Thema Künstliche Intelligenz in Unternehmen beraten lassen? Hier gelangen Sie zur Themenseite.
Janick Rehberger
Solution Sales Manager, CANCOM
Janick Rehberger ist bei CANCOM als Solution Sales Manager für die Bereiche Modern Datacenter und Cloud tätig. In seiner Position beschäftigt er sich vor allem intensiv mit dem Thema Künstliche Intelligenz.
Davor kümmerte sich Janick Rehberger als IT-Consultant um Themen rund um On Premises-, Cloud- und Hybrid IT-Infrastrukturen.