HPE Private Cloud AI und CANCOM-Services
Um Firmen die Einführung von KI-Technologien zu erleichtern, hat HPE im vergangenen Jahr die „HPE Private Cloud AI“ auf den Markt gebracht: Hier handelt es sich um eine digitale Plattform, auf der „Out of the Box“ zahlreiche (generative) KI-Software-Anwendungen, -Modelle und -Workflows vorinstalliert sind (CANCOM.info berichtete). Was diese Lösung konkret auszeichnet und wie Unternehmen mithilfe von CANCOM und der HPE Private Cloud AI in vergleichsweise kurzer Zeit KI-Projekte erfolgreich umsetzen können, erfahren Sie im Beitrag.
14. Februar 2025
|
Lesedauer: ca. 9 Min.
Bild: © anantachat/stock.adobe.com
Künstliche Intelligenz hat das Potenzial, Unternehmen zu transformieren und Wettbewerbsvorteile zu schaffen. Doch der Weg zu einer produktiven KI-Lösung ist alles andere als einfach. Unternehmen stehen vor der Herausforderung, nicht nur die richtigen Tools und Technologien auszuwählen, sondern auch flexibel auf sich ändernde Anforderungen zu reagieren. Gerade zu Beginn eines KI-Projekts ist oft unklar, welche Ressourcen benötigt werden, wie groß die Infrastruktur sein muss oder wie schnell das System skalieren soll.
Hier setzt die HPE Private Cloud AI an – eine digitale Plattform, die Unternehmen eine vorkonfigurierte, vollständig integrierte KI-Infrastruktur bietet, inklusive optimierter Hard -und Software für KI-Workloads. Über die Cloud-Managementlösung „HPE GreenLake Cloud“ lässt sich die Plattform zentral verwalten. HPE Private Cloud AI zielt darauf ab, KI-Projekte in Unternehmen schneller, sicher und effizient von der Pilotphase in die Produktion zu überführen.
Konkret kombiniert die HPE Private Cloud AI skalierbare, vorgetestete und für KI-optimierte Hardware mit der umfassenden Softwareumgebung von NVIDIA AI Enterprise. Letztere bietet eine umfangreiche Suite von KI-Tools, Frameworks und vortrainierten Modellen, die für verschiedene Anwendungen optimiert sind – von Computer Vision über Natural Language Processing bis hin zu generativer KI. Das Management der Plattform ist zentralisiert über HPE GreenLake Cloud möglich.
Der wesentliche Vorteil von HPE Private Cloud AI ist, wie der Name schon impliziert, das Private-Cloud-Betriebsmodell. Denn während die Skalierung cloudbasiert und die Abrechnung, ähnlich wie in der Public Cloud, bedarfsgerecht über ein Pay per Use-Modell erfolgt, wird die eigentliche KI-Infrastruktur im lokalen Rechenzentrum oder in einer Colocation betrieben. Wie HPE betont, profitieren Unternehmen von der Agilität der Cloud, können KI-Modelle flexibel skalieren und behalten gleichzeitig die volle Kontrolle und Sicherheit über ihre Daten und Infrastruktur.
Durch die enge Zusammenarbeit mit NVIDIA ist HPE Private Cloud AI zudem mit modernsten GPU-Beschleunigern ausgestattet, die eine schnelle Verarbeitung großer Datenmengen ermöglichen – eine Grundvoraussetzung für rechenintensive KI- und Machine-Learning-Anwendungen. Nicht zuletzt ist die Plattform in verschiedenen vorkonfigurierten Servergrößen von Small bis Extra Large verfügbar. Laut HPE können Unternehmen damit ihre KI-Workloads exakt an ihre Infrastruktur anpassen.
Die einzelnen Bestandteile der HPE Private Cloud AI im Überblick (Bild: © HPE).
Wie gerade erwähnt, können Firmen ihre durch HPE Private Cloud AI vorkonfigurierte KI-Infrastruktur im lokalen Rechenzentrum oder in einer Colocation sowie in unterschiedlichen Servergrößen betreiben. Doch was bedeutet das nun konkret?
Hier wird die gesamte KI-Infrastruktur direkt im Rechenzentrum des Kunden installiert und betrieben. Unternehmen behalten also die volle Kontrolle über Hardware, Daten und Sicherheit – was insbesondere für Organisationen mit strikten Compliance- und Datenschutzanforderungen essenziell ist.
Hier wird die KI-Infrastruktur in einem externen Colocation-Rechenzentrum gehostet. Dabei können Unternehmen die Ressourcen der jeweils angemieteten Rechenzentrumsfläche nutzen, um die Infrastruktur zu betreiben. Der Betrieb eines eigenen, lokalen Rechenzentrums entfällt.
Damit Firmen die KI-Infrastruktur möglichst genau an ihre Anforderungen anpassen können, bietet HPE Private Cloud AI insgesamt vier Konfigurationsmodelle an.
Neben der Hardware (Server, GPUs, Netzwerk, Storage) bietet HPE Private Cloud AI auch die passende Software. Hier setzt HPE auf den NVIDIA Software-Stack, den NVIDIA AI Enterprise mit sich bringt: NVIDIA AI Enterprise umfasst eine umfangreiche Suite an KI-Tools, Frameworks und vortrainierten Modellen, die für verschiedene Anwendungen optimiert sind – von Computer Vision über Natural Language Processing bis hin zu generativer KI. Wie HPE betont, wird dabei auch der Support gewährleistet. Insgesamt ergibt sich so mit HPE Private Cloud AI und NVIDIA AI Enterprise ein Full AI Stack, der sowohl Hard- als auch Software und Modelle bereitstellt.
Doch wie lässt sich die HPE Private Cloud AI nun auf CANCOM übertragen? Wo liegen die Mehrwerte für die Kunden? Dies lässt sich am besten anhand des One-4-All-Ansatzes von CANCOM verdeutlichen, der sowohl die Beratung als auch die Bereitstellung von KI-Modellen abdeckt. Der Ansatz gliedert sich in insgesamt neun Schritte, die aufeinander aufbauen. Die nachfolgende Grafik zeigt den One-4-All-Ansatz von CANCOM im Überblick:
Bild: © CANCOM
Der Einsatz der HPE Private Cloud AI kommt besonders ab dem sechsten Schritt (Infrastrukturberatung) zum Tragen. Wie genau, wird im Folgenden aufgezeigt: Dabei werden die einzelnen Schritte des One-4-All-Ansatzes – inklusive Integration der HPE Private Cloud AI – anhand des Use Cases des digitalen Zwillings einer Produktionsstraße erklärt. Das bedeutet, dass die Produktionsstraße mit all ihren physikalischen Eigenschaften und Abhängigkeiten digital abgebildet wird. Anhand des digitalen Zwillings können alle möglichen Simulationen durchgeführt werden, ohne die Produktion zu beeinträchtigen. Die Plattform, um digitale Zwillinge zu modellieren, heißt dabei Omniverse – eine weitere von NVIDIA lizenzierte Entwicklungsumgebung (neben NVIDIA AI Enterprise).
Zu Beginn steht die klare Definition des Use Cases – CANCOM hat eine große Auswahl an Use Cases als Blueprints, die innerhalb des hauseigenen AI Discovery Workshops mit dem Kunden ausgearbeitet werden. Der Kunde kann entweder aus den Blueprints den passenden Use Case wählen oder einen eigenen Use Case mitbringen – in diesem Fall der digitale Zwilling einer Produktionsstraße.
Daten bilden die Basis jedes KI-Modells. Sobald der Use Case feststeht, werden in diesem Schritt relevante Daten für das Training des Modells identifiziert. Im Use Case des digitalen Zwillings einer Produktionsstraße sind relevante Daten beispielsweise Sensordaten der Maschinen, Qualitätskontrolldaten, Produktionskennzahlen, Logistik- und Supply-Chain-Daten sowie Umweltdaten. Hierbei sind die Datenqualität und -verfügbarkeit entscheidend für die spätere Modellgenauigkeit.
Nach der Identifikation relevanter Daten erfolgt nun deren Erfassung und zentrale Speicherung. Sensordaten, Produktionskennzahlen und weitere Informationen werden in eine zentrale Datenplattform überführt, wo sie für die KI-Modelle nutzbar gemacht werden. Für die Verarbeitung und Analyse kommt hierzu ein Data Lakehouse zum Einsatz. Dieses kombiniert die Vorteile eines Data Lakes mit der Struktur und Performanz eines Data Warehouses (die Data Lakehouse-Lösung von HPE heißt Ezmeral Data Fabric und wird im Rahmen der HPE Private Cloud AI bereitgestellt). Die gesammelten Daten werden bereinigt, normalisiert und qualitätsgesichert, um eine konsistente Grundlage zu gewährleisten. Fehlerhafte oder unvollständige Daten werden gefiltert, synchronisiert und aufbereitet, sodass sie für Simulationen und Optimierungen in NVIDIA Omniverse nutzbar sind.
Für den Use Case wird nun das passende KI-Modell ausgesucht. NVIDIA bietet hier eine Reihe von vortrainierten KI-Modellen und Microservices, die innerhalb des Omniverse genutzt werden können. Diese Modelle unterstützen bei der Generierung von 3D-Assets, physikalisch korrekten Simulationen und anderen spezifischen Funktionen.
Nachdem das passende KI-Modell für den digitalen Zwilling im NVIDIA Omniverse ausgewählt wurde, erfolgt nun die Verknüpfung mit den vorbereiteten Daten. In diesem Schritt wird das Modell mit den zuvor aufbereiteten Daten gespeist, trainiert und optimiert. Durch die Kombination aus KI-Modell und Daten entsteht ein intelligentes System, das reale Produktionsabläufe nicht nur abbildet, sondern Prozessoptimierungen, vorausschauende Wartung (Predictive Maintenance) und Optimierungslösungen der Produktionsstraße vorschlägt.
Nachdem das KI-Modell für den digitalen Zwilling der Produktionsstraße entwickelt und mit den Produktionsdaten trainiert und in einem PoC getestet wurde, stellt sich nun die Frage: Wie wird dieses Modell effizient betrieben? Genau hier kommt die HPE Private Cloud AI ins Spiel.
Um das KI-Modell in der Produktionsumgebung für Inferencing einzusetzen, analysiert CANCOM gemeinsam mit dem Kunden die Leistungsanforderungen. Basierend auf diesen Anforderungen empfiehlt CANCOM die passende, über HPE Private Cloud AI vorkonfigurierte KI-Infrastruktur. Um diese KI-Infrastruktur zu verwalten, stehen dem Kunden grundsätzlich zwei Optionen offen:
Der Einsatz von KI-Modellen, insbesondere im industriellen Umfeld, erfordert eine sorgfältige Einhaltung regulatorischer Vorgaben. Mit dem AI Act der EU und weiteren nationalen Regularien steigen die Anforderungen an Transparenz, Sicherheit und Verantwortlichkeit von KI-Systemen. Um eine rechtskonforme KI-Implementierung zu gewährleisten, verfügt CANCOM über eine eigene Legal-Abteilung, die auf KI-relevante rechtliche Fragestellungen spezialisiert ist. Im Rahmen der KI-Projekte berät CANCOM Unternehmen zu Compliance-Anforderungen, Datenschutzrichtlinien und ethischen Richtlinien für den Betrieb ihrer Modelle. Diese enge Abstimmung soll sicherstellen, dass das KI-Modell des digitalen Zwillings nicht nur technisch performant, sondern auch rechtlich abgesichert ist.
Der Betrieb des digitalen Zwillings erfordert nicht nur fortschrittliche Rechenressourcen, sondern stellt auch Anforderungen an die passive Infrastruktur. Hier kümmert sich entweder das Passive Infrastructure-Team von CANCOM oder das HPE-Team in Bezug auf die HPE Private Cloud AI darum, dass die Umgebung optimal mit angepasster Kühlung, erhöhter Stromkapazität und stabiler Netzwerkanbindung ausgestattet ist.
Im letzten Schritt geht es darum, den digitalen Zwilling in den Betriebsalltag zu integrieren. Das beste KI-Modell bringt keinen Mehrwert, wenn es auf Widerstand oder Unverständnis stößt. Change Management stellt sicher, dass Mitarbeiter geschult, Prozesse angepasst und neue digitale Werkzeuge sinnvoll in bestehende Abläufe integriert werden. Dies ist besonders relevant, da der AI Act seit dem 2. Februar 2025 eine Verpflichtung zur KI-Kompetenz vorschreibt. Unternehmen sind dann rechtlich verpflichtet, sicherzustellen, dass ihr Personal sowie alle Personen, die KI-Systeme betreiben oder nutzen, über ausreichendes Wissen und Verständnis für die Technologie verfügen.
Diese regulatorische Anforderung unterstreicht, wie essenziell Change Management für eine erfolgreiche KI-Implementierung ist. Nur wenn Mitarbeiter den digitalen Zwilling verstehen und aktiv in ihre Arbeitsprozesse integrieren, kann er sein volles Potenzial entfalten – sei es zur Optimierung von Produktionsprozessen, zur vorausschauenden Wartung oder für innovative Simulationsszenarien.
Das beste KI-Modell bringt keinen Mehrwert, wenn es auf Widerstand oder Unverständnis stößt.
Durch die konsequente Umsetzung all dieser Schritte entsteht ein vollständig integrierter digitaler Zwilling der Produktionsstraße, der nicht nur Effizienz und Qualität steigert, sondern auch als Plattform für kontinuierliche Verbesserung und Innovation dient.
Der Weg vom KI-Use Case bis zur produktiven Umsetzung ist oft komplex und mit vielen Herausforderungen verbunden. Mit der HPE Private Cloud AI bietet HPE eine Komplettlösung, die darauf abzielt, dass Unternehmen KI-Projekte schneller, effizienter und sicher in die Produktion überführen können.
Wie HPE betont, reduziert sich die Markteinführungszeit dank der vorkonfigurierten und vorgetesteten Kombination aus HPE Hardware, NVIDIA AI Enterprise Software und leistungsstarken GPUs erheblich. Firmen würden von einem zentralisierten Management über die HPE GreenLake Cloud sowie von vier unterschiedlichen Servergrößen, die speziell für KI-Workloads optimiert sind, profitieren. Durch die Flexibilität des Pay per Use-Modells über HPE GreenLake können Unternehmen dabei klein starten und bei Bedarf skalieren, ohne hohe Anfangsinvestitionen tätigen zu müssen – so HPE.
Die wesentlichen Mehrwerte der HPE Private Cloud AI sind laut HPE:
Mit dem One-4-All-Ansatz unterstützt CANCOM Unternehmen über den gesamten KI-Lifecycle: von der Use Case-Definition, über die Infrastrukturberatung – bei der die HPE Private Cloud AI eine wichtige Rolle spielen kann – bis hin zum produktiven Betrieb des KI-Modells.