Hybride Umgebung, einheitliche Plattform: Die richtigen Server für Cloud-native

Die Cloud-native Technologie erfreut sich einer wachsenden Beliebtheit. Dank cloudbasiertem Entwicklungs- und Betriebsansatz und modularem Anwendungsdesign macht sie Geschäftsapplikationen schnell verfügbar, flexibel einsetzbar und skalierbar. Aber: Die daraus resultierenden, hybriden Cloud-Strukturen erfordern Lösungen für ein durchdachtes Management der hybriden IT-Umgebung. Lesen Sie im Folgenden, welche Rolle Server der neuen Generation dabei spielen.

9. Februar 2023

|

  • Franziska Hild

Lesedauer: ca. 4 Min.

server-cloud-native

Bild: © monsitj/stock.adobe.com

Die Erwartungen an Cloud-native sind hoch. Laut einer IDG Studie aus 2022 versprechen sich Unternehmen aus Deutschland, Frankreich und Großbritannien davon eine bessere Verfügbarkeit von Anwendungen, kürzere Entwicklungszyklen, eine bessere Skalierbarkeit sowie eine schnellere Time-to-Market.

Der Trend zu Cloud-native – also der Entwicklung und Bereitstellung von Anwendungen speziell für die Cloud – wird sich auch in diesem Jahr fortsetzen: Im ISG Pulse Check 2022 gaben 27 Prozent der IT-Entscheider an, dass ihr Unternehmen bereits Anwendungen in der Public-Cloud-Umgebung erstellt hat und dort betreiben lässt. Das ist ein Zuwachs von fünf Prozentpunkten gegenüber dem Vorjahr.

Was ist Cloud-native und welche Vorteile bietet die Technologie?

Gründe für den Cloud-native Trend gibt es viele: Eine schnellere Entwicklung und Bereitstellung von Anwendungen, flexible Einsatzmöglichkeiten, hohe Anpassungsfähigkeit und Skalierbarkeit, Ausfallsicherheit sowie Unabhängigkeit von der Cloud-Umgebung.

All das kann die Technologie dank ihrer Grundphilosophie bieten. Danach werden Anwendungen für die Cloud programmiert und von Anfang an dort eingesetzt und betrieben. Damit dies funktioniert, sind die Applikationen modular aufgebaut. Die Bausteine sind dabei Microservices, die jeweils nur einen ganz bestimmten Prozess ausführen, zum Beispiel Authentifizierung, Benachrichtigung oder Zahlungsverarbeitung.

Das Zusammenspiel der Services stellen Lösungen wie Kubernetes sicher. Als Basis für den Betrieb der Microservices dienen Container-Technologien. Diese verpacken eine Anwendung und alle zu ihrer Ausführung erforderlichen Dateien in ein handliches Paket, sodass die Applikation isoliert ausgeführt werden kann. Dadurch lassen sich Cloud-native Anwendungen in verschiedenen Umgebungen einsetzen und unkompliziert umziehen.

Im Endergebnis bemerkt der End-User keinen Unterschied zu traditionell „in einem Stück“ aufgebauten monolithischen Anwendungen, die alle Funktionen bündeln. Im Gegensatz zu den sogenannten Monolithen können Entwickler jedoch Updates und Änderungen an einer einzelnen Funktion jederzeit gezielt vornehmen, ohne in die ganze Applikation eingreifen zu müssen. Das macht Softwareanpassungen flexibel und schränkt die Anwendungsperformance weniger ein.

Für Cloud-native ist das richtige Server Management entscheidend

Bei allen Vorzügen gilt aber auch: Der Wechsel zu Cloud-native muss sich für Unternehmen lohnen. So ist es laut ISG Pulse Check für 92 Prozent der Befragten entscheidend, dass der Betriebsaufwand reduziert wird.

Und: Der vollständige Wechsel auf Cloud-native Umgebungen ist noch ausstehend, wie die ISG-Studie festhält. Dies bedeutet im Umkehrschluss, dass viele Unternehmen weiterhin On-Premise Anwendungen nutzen – also Anwendungen, die nicht in der Cloud sondern im lokalen Rechenzentrum laufen – und dadurch hybride IT-Strukturen pflegen.

Um Zusatzaufwand zu vermeiden, benötigen Unternehmen daher Lösungen, die ein einheitliches Management solcher hybriden IT-Umgebungen ermöglichen. Dazu zählen unter anderem Plattformen und Server, die auf die hybride Betriebsform ausgelegt sind.

Solche Plattformen und Server bietet zum Beispiel HPE mit der neuen Servergeneration ProLiant Gen11 an. Die Server wurden für hybride Umgebungen entwickelt und umfassen nun eine Lizenz für die Service- und Management-Software „HPE GreenLake for Compute Ops Manager“. Kunden können über GreenLake for Compute Ops Manager Tausende von verteilten Systemen einbinden, egal ob sich diese in der Cloud oder in physischen Rechenzentren befinden – so HPE.

Einfaches und sicheres Management für Cloud-native Umgebungen

Für noch mehr Komfort können Firmen optional ihrem IT-Dienstleister über das GreenLake-Programm von HPE Zugang gewähren. „Über HPE GreenLake für Compute Ops Manager können Unternehmen ihre Server weltweit managen. Wenn der Kunde uns eine entsprechende Berechtigung erteilt, können wir als CANCOM direkt über GreenLake unterstützen und im Rahmen unseres Premium Supports zum Beispiel Remote Firmware Updates durchführen, Sicherheitslücken erkennen und Administrationsaufgaben erledigen,“ schildert Martin Schmid, Manager Solution Sales Modern Datacenter bei CANCOM.

Neben dem Thema Verwaltung bietet HPE Gen11 auch in puncto Sicherheit ein Upgrade: Silicon Root of Trust, der HPE eigene Ransomware-Schutz auf Hardware-Ebene, umfasst bei der neuen Servergeneration auch ILO Karten. Dies bewirkt, dass nun auch Netzwerkkarten von HPEs Firmwaresicherung abgedeckt sind – wodurch es für Malware deutlich schwieriger geworden ist, über einsteckbare Karten ins System zu gelangen. 

Für noch mehr Sicherheit auf Hardware-Ebene sorgen bei HPE Gen11 Servern die verbauten AMD EPYC™ Prozessoren: Mit dem AMD Infinity Guard bieten sie eine Suite mit auf Chipebene integrierten Sicherheitstechnologien. Diese schützen auf Firmware- und BIOS-Ebene und ermöglichen so laut AMD ein sicheres Booten. Außerdem würden sie bei der Abwehr komplexer Angriffe unterstützen. Beispiele dafür seien  BIOS-Manipulationen oder speicherinternes Return-Oriented-Programming (ROP), das vorhandene Codeschnipsel gegen das Angriffsziel verwendet. Besonderen Schutz für den gesamten Speicher sowie für virtuelle Maschinen stelle AMD Infinity Guard mittels Verschlüsselung her. Dies gewährleiste einen umfassenden Schutz vor Kaltstart- und internen sowie physischen Speicherangriffen, so der Hersteller.

Optimiert für leistungsintensive Workloads

Weiterhin ist die neue HPE Servergeneration laut Hersteller für die Ausführung besonders leistungsintensiver Workloads optimiert, wie Künstliche Intelligenz (KI), maschinelles Lernen oder Rendering in hybriden Umgebungen.

Für den Leistungsschub sorgen laut HPE unter anderem die neuen Enterprise & Datacenter SSD Form Factor“ (EDSFF) Speicher, die über eine höhere Speicherdichte verfügen. Ein weiteres beschleunigendes Element beim ProLiant Gen11 sei der neue PCIE 5.0 Standard für Hochgeschwindigkeitsschnittstellen, der die Server für rechenintensive Leistungen wie SAP HANA prädestiniere.

Im Vergleich zu ihrem Vorgänger würden die Proliant-Gen11-Server doppelt so viel I/O-Bandbreite unterstützen, 50 Prozent mehr Kerne pro CPU für eine bessere Workload-Konsolidierung und eine um 33 Prozent höhere Dichte an Hochleistungs-GPUs besitzen. Eine Überhitzung verhindere das neue Smart Cooling System, eine eingebaute Flüssigkeitskühlung für die CPU mit abgeschlossenem Kreislauf, die sich auch für Server mit sehr kompakter Bauform eigne.

Insights zu Energiebedarf und CO2-Abdruck

Die Energiezufuhr stellen neue Power Supplies sicher: Diese sorgen laut HPE für eine optimale Stromversorgung, indem sie den Bedarf aller Komponenten abfragen. Gleichzeitig ließe sich damit ein geringerer Verbrauch erzielen. Beispielsweise können die HPE Gen 11 Server dank der verbauten AMD EPYC™ Prozessoren der 4. Generation jährlich bis zu 29 Prozent Strom einsparen gegenüber Servern mit gleicher Performance, aber Chips anderer Hersteller  –  so AMD. Dies könne die Stromkosten um bis zu 46 Prozent senken.

Einblicke in den Energieverbrauch gibt es direkt im Compute Ops Manager: Dort steht ein CO2-Reporting zur Verfügung, das auf Basis der hinterlegten Stromquellen erstellt wird und die Emissionskennzahlen von einzelnen Servern bis hin zu kompletten Server-Umgebungen liefert.

Da die Energieart berücksichtigt wird, sind nicht nur Insights zum Stromverbrauch möglich, sondern auch die Berechnung des CO2-Abdrucks. Das hebt HPE hervor. Darüber hinaus würden Auslastungsdaten Rückschlüsse darauf erlauben, ob ein Standort „überausgerüstet“ ist und somit auch mit einer schmaleren Energieversorgung zurechtkommen würde. Das eröffne Einsparungspotenziale.  

Fazit

Mit ihrem neuen Gen11-Server stellt HPE neben mehr Sicherheit und Leistung vor allem ein umfassenderes und komfortableres Server-Management für hybride IT-Umgebungen in Aussicht. Angesichts des Trends hin zu Cloud-native dürfte das eine interessante Option für viele Unternehmen sein. So können Firmen mit dem Gen11-Server eine Vielzahl von Anwendungen managen – egal, ob diese weiterhin im lokalen Rechenzentrum oder in der Cloud laufen.

Sie wollen mehr über Hybrid Cloud Management mit HPE GreenLake erfahren? Als kürzlich von ISG ausgezeichneter Public Cloud Anbieter unterstützt Sie CANCOM gerne. Vereinbaren Sie hier einen unverbindlichen Beratungstermin mit einem unserer Experten!

Mehr zum Thema „Datacenter“

Deshalb sind lokale Speicherlösungen für Unternehmen weiterhin erforderlich
Deshalb sind lokale Speicherlösungen für Unternehmen weiterhin erforderlich

Spätestens seit der COVID19-Pandemie ist Cloud Computing im Storage-Bereich unabdingbar. Dennoch benötigen viele Firmen weiterhin lokale Speicherlösungen.

Lesedauer: 3 Min.

Schneller und skalierbarer Speicher auch für große Datenmengen: Das bieten Objektspeicher
Schneller und skalierbarer Speicher auch für große Datenmengen: Das bieten Objektspeicher

Angesichts rasant steigender Datenmengen wird es für Firmen immer wichtiger, große Datenbestände sicher abzuspeichern. Genau das ermöglichen Objektspeicher.

Lesedauer: 3 Min.

Hyper Converged Infrastructure: „HCI bietet alle notwendigen Eigenschaften für eine zukunftsfähige IT-Plattform“
„HCI bietet alle notwendigen Eigenschaften für eine zukunftsfähige IT-Plattform“

IT-Plattformen wie die Hyper Converged Infrastructure (HCI) sind zunehmend businesskritisch. Mehr dazu im Interview mit Matthias Barre von CANCOM.

Lesedauer: 4 Min.