14. März 2016 | pArtikel drucken | kKommentieren

Meistern Sie die 4 größten Hürden der Virtualisierung

Die größten Herausforderungen durch Virtualisierung für die IT: Application Awareness, Infrastuktur- und Storage-Management sowie Backup in der virtuellen Umgebung. Was dahinter steckt, zeigt CANCOM auf einer Roadshow im April/Mai 2016 in vier großen deutschen Städten.

Seit 2002 wandert die Virtualisierung immer mehr ins Rechenzentrum und ist hier eine wesentliche – wenn nicht sogar die kritische – Komponente der Datacenter-IT geworden. Denn: Funktioniert die Virtualisierung nicht, sind sämtliche Systeme mit betroffen.

Bildschirmfoto 2016-03-09 um 17.55.56

Virtualisierung ist die Basis mordernen Cloud Computings. Quelle: CANCOM.

Virtualisierung ist die Basis für die Einführung von Cloud-Lösungen, einen effizienteren Einsatz und bessere Auslastung der Systeme, entsprechend Einsparungen unter anderem bei den Energiekosten und eine höhere Flexibilität der IT.  „Mit der Virtualisierung haben sich die Firmen jedoch eine Komplexität mit ins Haus geholt, die keine einfache und transparente Handhabung erlaubt, wie sie früher bei physischen Systemen gegeben war“, sagt Bjoern Hoeger, Lead Solutions Architect bei CANCOM.

„Heute können IT-Verantwortliche bei Problemen nicht einfach die betroffene Hardware oder Applikation überprüfen. Bei virtualisierten Maschinen und Applikationen haben es die Zuständigen stets mit einer Vielzahl an Ebenen zu tun, die etwa bei einem Fehlerkreis abgeprüft werden müssen.“

Die Crux: Häufig besteht gerade bei der kritischen Komponente Virtualisierung keine Transparenz, wie die Abläufe der einzelnen virtuellen Maschinen, der einzelnen Applikationen bis hin zum Virtualization Stack und zum Storage funktionieren und zusammenhängen.

Virtualisierungs-Challenge Nummer 1: Application Awareness

Welche Applikation benötigt wie viel Performance? Viele IT-Verantwortliche können das bis heute nur erraten. Die Folge: Um die Leistungsfähigkeit zu garantieren, wird viel Geld für Hardware ausgegeben, die eigentlich gar nicht benötigt würde, wenn die bestehenden Systeme besser genutzt werden. Die Lösungen heißt „Application Awareness“. Damit können letztlich auch sogenannte Latenz sensitive Applikationen, wo jeweils unterschiedliche Systeme voneinander abhängen, um einen Dienst bereitzustellen, sicher virtualisiert werden.

VVOLs_spaghetti diagram

Physische Workloads wurden für physische Speicher entwickelt. Während es bei physischen Speichern blieb, wurden die Workloads virtuell. Das sorgte für ein Durcheinander. VM-Aware Storage (VAS) wurde konsequent auf virtualisierte Workloads und die Cloud ausgelegt und sorgt so für Ordnung. Quelle: Tintri.

Ein Beispiel: Application Aware Storage heißt einfach gesagt, Storage über ein Outbound-Management so intelligent zu machen, dass es weiß, was die Applikation in einer virtuellen Maschine tatsächlich benötigt und automatisch entsprechende Kapazitäten und Leistung zur Verfügung stellt. Folglich kann bedarfsorientiert eine virtuelle Infrastruktur aufgebaut werden. Analog dazu kann das Prinzip auf den Hardware-Stack, den Netz-Stack bis in die gesamte Virtualisierungsware angewandt werden.

Virtualisierungs-Challenge Nummer 2: Infrastruktur Management

Bildschirmfoto 2016-03-09 um 18.26.05

CANCOM und namhafte Hersteller der Virtualisierungstechnologie warten mit Vorträgen aus der Praxis auf Sie. Jetzt klicken und mehr erfahren.

Wer Transparenz schaffen will, kommt dabei nicht an einem entsprechenden Monitoring vorbei. Im Gegensatz zu einem bloß reaktiven Silo-Management und Monitoring, stellt CANCOM auf seinem Event vor, wie Firmen ein proaktives Monitoring implementieren können.

Proaktives Monitoring bedeutet, dass nicht nur im Störfall reagiert werden kann, sondern auch Vorhersagen über die virtuellen Systeme und ihre Verbindung durch die Datensammlung, -analyse und die Transparenz bis hin in einzelnen verwendeten Komponenten erstellt werden. Damit erhält die IT die Chance, Risiken für die Infrastruktur abzuwägen und passende Abläufe für die Wartung der Infrastruktur aufzusetzen.

Ein analoges Beispiel aus der Automobilindustrie macht klar, was das für die Effizienz eines Rechenzentrums bedeuten kann: Die großen Automobilhersteller nutzen bereits solche Predictive Analyse Systeme, um die Wartung von Fahrzeugen am tatsächlichen Fahrverhalten auszurichten. Sprich, ein Fahrzeug wird nicht mehr nach einer vorgegebenen Anzahl an Kilometern einberufen, sondern anhand des tatsächlichen Fahrverhaltens des Fahrers, das die größten Auswirkungen auf den Verschleiß der verschiendensten Bauteile haben kann.

Virtualisierungs-Challenge Nummer 3: Virtualisierungschancen wahrnehmen und Kosten senken

Dieses Prinzip aus der Automobiltechnologie kann mit der proaktiven Monitoring-Lösung auf Rechenzentrums-IT in einer virtuellen Umgebung übertragen werden, um die Wartungsintervalle smarter zu gestalten. Mittels einer zentralen Management Oberfläche  – statt einzelner Silos – erhalten IT-Leiter eine ganzheitliche Transparenz.

So können im Zuge der Digitalisierung etwa auch Applikationen, die bis dato noch nicht in die virtuelle Welt übertragen werden konnten, jetzt die Leistung und Performance erhalten, die benötigt wird.

Außerdem lassen sich Kosten sparen: Die Administration wird enorm erleichtert, weil sie nicht mehr dem Zufallsprinzip überlassen wird, sondern die IT-Abteilungen die Infrastruktur optimal verwalten können. So senken Firmen zusätzlich ihre Investitionskosten und die operativen Kosten – die Systeme können sich quasi automatisch selbst optimieren.

Virtualisierungs-Challenge Nummer 4: Effizientes und sicheres Backup

Traditionell wurde auf den Servern jeweils ein Agent installiert, um das jeweilige System einzeln zu sichern.

Virtuelle Maschinen sollten heute komplett und zentral gesichert werden. Auch dies sollte „application aware“ ablaufen. Das heißt, anstatt nur die virtuelle Maschine abzusichern, werden auch die Applikationen komplett ins Backup einbezogen, sodass sich nicht nur die Applikation, sondern das gesamte System im Ernstfall wiederherstellen lässt. Schließlich läuft die Applikation ja nicht alleine, sondern steht in verschiedenen Abhängigkeiten, etwa zur Hardware.

Ein Applikation Aware Backup bedeutet für die IT eine deutliche höhere Flexibilität im künftigen Risikoverhalten, da auch eine Rücksicherung enorm erleichtert ist. Ein Applikation Aware Backup macht sich auch im Wartungsverhalten bemerkbar, denn Fremdtreiber, wie Sicherungs-Agents, waren bisher immer eine der größten Fehlerquellen.

Mit einem Application Aware Backup wird die benötigte Zeit – im Gegensatz zum Arbeiten mit Agents – enorm reduziert. Sicherungen, die früher zehn Stunden in Anspruch nahmen, können heute innerhalb von einer Stunde durchgeführt werden.

Quelle Titelbild: CANCOM

Hier schreibt Doris Breitenreuter für Sie

Mehr Artikel vom Autor