Lösungsansatz für produktive AI: Souverän, skalierbar und im eigenen Rechenzentrum

Künstliche Intelligenz hat sich von einem visionären Zukunftsthema zu einem entscheidenden Faktor für die Wertschöpfung von Unternehmen entwickelt. Sie verbessert die betriebliche Effizienz, ermöglicht datenbasierte Entscheidungen in Echtzeit und eröffnet neue Geschäftsmodelle. Der Weg zu einer produktiven AI ist jedoch komplex: Benötigt werden skalierbare Plattformen, eine sichere Datenverarbeitung, starke Governance und eine nahtlose Integration in bestehende IT-Landschaften. Genau hier setzt Red Hat AI an – mit einem Architekturansatz, der Unternehmen erlaubt, ihre AI-Strategie flexibel, sicher und unter voller Kontrolle im eigenen Rechenzentrum umzusetzen. 

27. Juni 2025

|

Lesedauer: ca. 2 Min.

250626_cc_info_redhat

Bild: © kirania/stock.adobe.com

Immer mehr Unternehmen tendieren dazu, Generative AI-Modelle in vertrauten lokalen Umgebungen zu entwickeln und zu betreiben. Bevorzugt stellen Unternehmen aus Deutschland Generative AI dabei On-Premises oder in der Hybrid Cloud bereit. Das berichtet der „Big Data Insider“ in Bezug auf eine Umfrage von Dell Technologies. Diese Präferenz wird durch die Notwendigkeit verstärkt, sensible Unternehmensdaten zu schützen und die Kontrolle über AI-Modelle zu behalten.

Wie bedeutend Generative AI heute für Unternehmen ist, zeigt KPMG auf. In der Studie „Generative KI in der deutschen Wirtschaft 2025” stellen die Verfasser des Wirtschaftsprüfungsunternehmens fest, dass bereits 91 Prozent der Unternehmen Generative AI als entscheidend für ihr Geschäftsmodell und ihre künftige Wertschöpfung einstufen. Das ist eine signifikante Steigerung gegenüber 55 Prozent im Vorjahr.

Der Weg hin zur produktiven Nutzung von Generative AI und anderen AI-Modellen (produktive AI) ist jedoch vielfältig: Es braucht skalierbare Plattformen, sichere Datenverarbeitung, eine starke Governance und eine nahtlose Integration in bestehende IT-Landschaften. Genau hier setzen moderne AI-Plattformen wie Red Hat AI an: Ihr Architekturansatz ist darauf ausgerichtet, dass Unternehmen ihre (Generative) AI-Strategien flexibel, sicher und unter voller Kontrolle im eigenen Rechenzentrum umsetzen können.

Was bietet Red Hat AI konkret?

Einstieg mit Red Hat Enterprise Linux AI: Lokal, sicher, kontrollierbar

Red Hat Enterprise Linux AI (RHEL AI) bietet Unternehmen einen Startpunkt, um erste Generative AI-Protoypen in vertrauten, lokalen Rechenzentrumsumgebungen zu entwickeln und anschließend zu betreiben. Die Plattform basiert auf der Red Hat Enterprise Linux Infrastruktur und bietet Zugriff auf leistungsfähige, gängige Sprachmodelle wie der Granite-Familie von IBM. Dabei handelt es sich um eine Modellreihe von Foundation‑LLMs (Large Language Models), die von IBM entwickelt und in die Open Source Community gegeben wurden.  

  • Effiziente AI-Individualisierung mit Open Source: Wie Red Hat beschreibt, ist das Kernstück von RHEL AI das Open Source-Projekt InstructLab: Damit ließen sich AI-Modelle gezielt und effizient auf unternehmensspezifische Daten anpassen – bei gleichzeitig optimaler Nutzung der GPU-Ressourcen.
  • Datensouveränität durch isolierte AI-Infrastrukturen: Dank Air-gapped Deployments  –  einer speziellen Form der Systembereitstellung, bei der IT-Systeme oder Netzwerke physisch oder logisch vollständig vom Internet und anderen externen Netzwerken getrennt sind – können auch in hochregulierten Branchen sensible Daten sicher verarbeitet werden. Laut Hersteller behalten Unternehmen dabei stets die volle Kontrolle über ihre Daten: Ein klarer Vorteil für alle, die maximale Datensouveränität benötigen. 

Red Hat OpenShift AI: Künstliche Intelligenz auf Unternehmensniveau – skalierbar und integriert

Unternehmen, die ihre AI-Initiativen ganzheitlich vorantreiben möchten, sollten laut Hersteller auf Red Hat OpenShift AI (RHOS AI) setzen – die skalierbare MLOps-Plattform für den produktiven Einsatz von AI in hybriden Cloud-Umgebungen. Aufbauend auf der Kubernetes-Plattform Red Hat OpenShift verbindet RHOS AI End-to-End-MLOps-Funktionen mit konsistenter Governance und Sicherheit – so Red Hat. 

  • Autonomes Arbeiten in geschützten AI-Umgebungen: Laut Hersteller ist für Unternehmen insbesondere der Self-Service-Zugang attraktiv, über den Entwickler und Data Scientists in einer standardisierten, geschützten Umgebung Modelle entwickeln, trainieren und bereitstellen können.
  • Effiziente Umsetzung komplexer Workloads: Dank der Unterstützung verteilter Trainingsumgebungen und GPU-Beschleunigung lassen sich auch anspruchsvolle Workloads performant und effizient umsetzen, so der Hersteller.  

Praxisbeispiel: Skalierbare AI in der Hybrid Cloud

Nach Einschätzung von Red Hat hat ein führendes europäisches Handelsunternehmen kürzlich einen bedeutenden Schritt in Richtung einer zukunftssicheren IT-Infrastruktur unternommen, indem es seine AI-Workloads in eine moderne Hybrid-Cloud-Architektur auf Basis von Red Hat OpenShift auf Microsoft Azure überführt hat. Ausschlaggebend für diese Entscheidung waren laut Red Hat insbesondere die gewonnene Flexibilität, die hohe Skalierbarkeit sowie die konsistente Betriebsführung der AI-Modelle über On-Premises- und Cloud-Umgebungen hinweg.

Red Hat hebt hervor, dass die Möglichkeit, Entwicklung und Betrieb von AI-Modellen auf einer einheitlichen Plattform zu bündeln, für das Unternehmen eine zentrale Rolle spielte. Mithilfe containerisierter Workloads, agiler Entwicklungsprozesse und integrierter Governance-Mechanismen konnte der Handelskonzern seine Innovationszyklen deutlich verkürzen – und zugleich selbst strengste Compliance-Vorgaben erfüllen.

Fazit: Von der Idee zur produktiven AI – sicher, skalierbar und souverän 

Die Einführung von AI in Unternehmen erfordert nicht nur technologische Kompetenz, sondern auch strategisches Vorgehen. Mit RHEL AI und RHOS AI bietet Red Hat AI eine abgestufte Vorgehensweise, die Unternehmen genau dort abholen, wo sie stehen – ob beim ersten AI-Prototyp im Rechenzentrum oder beim ganzheitlichen, produktiven Rollout der AI-Modelle in der Hybrid Cloud. 

Wer mit Red Hat startet, profitiert laut Hersteller nicht nur von einer offenen, interoperablen Architektur, sondern sichert sich auch ein Höchstmaß an Datensouveränität, Flexibilität und Zukunftssicherheit. CANCOM begleitet Unternehmen dabei mit fundierter Beratung und Best Practices – für eine AI, die nicht nur funktioniert, sondern echten Mehrwert schafft. 

Sie möchten mehr darüber erfahren? Dann melden Sie sich für unser Online Seminar hier an oder kontaktieren Sie uns direkt und lassen Sie sich unverbindlich beraten. 

Mehr zum Thema „Artificial Intelligence“

250402_sml_models_ai_agent
Klein, smart, autonom: Warum effiziente KI-Modelle und Agenten jetzt durchstarten

Effizient, lokal einsetzbar und zunehmend autonom: Kleine Sprachmodelle und KI-Agenten verändern die Art, wie Firmen KI nutzen. Doch wie funktioniert das genau?

Lesedauer: 3 Min.

dell-ai-factory
AI ganzheitlich denken: die Dell AI Factory

Der praktische Einsatz von AI-Lösungen birgt zahlreiche Herausforderungen. Die Dell AI Factory soll dazu beitragen, diese zu meistern.

Lesedauer: 7 Min.

ai-kuenstliche-intelligenz-intel
„AI Everywhere“: Wie Intel die Zukunft der Künstlichen Intelligenz mitgestaltet

Bei der Einführung von KI setzen Firmen vermehrt auf schlanke KI-Modelle. Wie Intel auf diesen Trend reagiert, erklärt CANCOM-Expertin Eva Dölle im Gastbeitrag.

Lesedauer: 4 Min.