30. Juli 2021 | pArtikel drucken | kKommentieren

Effizientes Datenmanagement in hybriden Infrastrukturen

Die Menge und Vielfalt der Daten in Unternehmen wachsen immer weiter. Diese Daten liegen meist in hybriden Umgebungen – lokal gespeichert, in der Private Cloud oder über mehrere Public Clouds verteilt. Damit wird das Datenmanagement zu einer großen Herausforderung. Hier helfen Lösungen für das einheitliche Datenmanagement wie die Data Services Cloud Console von HPE weiter.

Internet of Things, Social Media oder vernetzte Produktion – durch die Digitalisierung wächst die Menge der verfügbaren Informationen in Unternehmen mehr oder weniger exponentiell an. Die intelligente Analyse dieser Daten bildet die Basis für optimierte Prozesse, richtige geschäftliche Entscheidungen oder die Entwicklung neuer, datenbasierter Geschäftsmodelle. Das gilt für Firmen aus allen Branchen.

Um erfolgreich zu sein, müssen Unternehmen die vorhandenen Datenmengen allerdings erst erschließen, aufbereiten und integrieren. Dies stellt viele Firmen vor große Herausforderungen.

Hybride Umgebungen als Herausforderung

Erschwerend kommt hinzu, dass Firmen ihre Daten zunehmend innerhalb hybrider Infrastrukturen speichern und nutzen. Bereits Mitte 2020 setzten laut IDC etwas mehr als ein Viertel (27 Prozent) der Firmen auf die Hybrid Cloud, sprich eine Mischung aus interner IT-Infrastruktur, Private und Public Cloud. Zugleich nutzten immer mehr Unternehmen die Services verschiedener Cloud-Anbieter parallel: 87 Prozent der Befragten gaben an, solche Multi Cloud-Umgebungen zu betreiben oder deren Betrieb zu planen.

Das Problem: Die Komplexität steigt, wenn Unternehmen ihre On Premise-Infrastruktur und Private Cloud mit mehreren Public Cloud-Angeboten kombinieren. So besteht etwa die Gefahr der „Wölkchenbildung“, sprich von Cloud- und Daten-Silos, da die Stacks der verschiedenen Public Cloud-Angebote oft nicht miteinander kompatibel sind und die Daten in verschiedenen Cloud-Umgebungen gespeichert sind. Die schnelle Migration der Daten für Anwendungen zwischen On Premise-Infrastruktur, Private und Public Cloud wird damit zum Knackpunkt. Viele Firmen sind mit der Integration und dem Management dieser fragmentierten Daten überfordert. Mögliche negative Folgen sind fehlende Konsistenz der Daten, teure Storage-Nutzung, ineffiziente Verarbeitung oder Analyse von Daten.

Außerdem müssen Unternehmen folgende Fragen beantworten können: Was passiert, wenn sie Daten von einem Cloud-Anbieter zum anderen mitnehmen? Werden die Daten vom ehemaligen Provider gelöscht? Zusätzlich müssen sich Firmen mit dem Thema Data Governance auseinandersetzen. Unternehmen müssen die Vorgaben der DSGVO erfüllen und dürfen Kundendaten von EU-Bürgern auch nur innerhalb der Europäischen Union lagern. Nicht zuletzt sind die Daten vor unbefugtem Zugriff und Manipulation zu schützen, um Compliance-Vorschriften einzuhalten.

Intelligentes Datenmanagement als Schlüssel

Eine intelligente und effiziente Datenverwaltung wird daher immer mehr zum Kern der Unternehmensstrategie: Indem sie Firmen ermöglicht, dem Datenwachstum gerecht zu werden und auch komplexe, hybride Infrastrukturen einheitlich zu verwalten, trägt sie entscheidend zur Zukunftsfähigkeit von Unternehmen bei.

Bei der Umsetzung besteht laut einer Studie noch Nachholbedarf. Demnach verwalten weniger als 10 Prozent der befragten Firmen ihre Daten effizient und zentralisiert, obwohl sie damit Umsatz, Gewinn und Kundenzufriedenheit bedeutend steigern könnten. Unternehmen, die ihre Daten effektiv verwalten, haben im Vergleich zu ihren Mitbewerbern die Nase vorn. Konkret hätten diese Betriebe 69 Prozent mehr Einnahmen, 57 Prozent höhere Gewinne und eine um 72 Prozent gesteigerte Kundenzufriedenheit.

Doch wie erreichen Firmen ein intelligentes Datenmanagement? Am Anfang steht eine klare Strategie rund um die Ziele und die Vorgehensweise beim Datenmanagement. Das Fundament bildet ein zuverlässiges Backup, damit sich Daten und Anwendungen nach einem Ausfall, Angriff oder Diebstahl schnell wiederherstellen lassen. Hinzu kommt die zentrale Verwaltung und das Monitoring aller Speicherorte über eine Konsole für einen ganzheitlichen Überblick über die Nutzung der Daten, Prozesse und mögliche Leistungsprobleme in der gesamten Storage-Umgebung. So lassen sich die Datenströme reibungslos steuern und an den jeweils besten Speicherort verschieben.

Beispiel: Data Services Cloud Console von HPE

Mit der Data Services Cloud Console bietet HPE eine derartige Konsole für das einheitliche Datenmanagement in hybriden Umgebungen im As-a-Service-Modell an. Die Lösung soll den einheitlichen Betrieb und das Management von Daten an jedem Ort aus der Cloud ermöglichen und Firmen dabei helfen, dem Datenwachstum Herr zu werden und Datensilos zusammenzuführen. Ziel ist es, dass Unternehmen damit datenorientierte Innovationen schneller voranbringen, Daten überall schützen und sie intelligent über Clouds verschieben können.

Die Data Services Cloud Console basiert auf der Technologie von Aruba Central, die 90.000 Kunden und 10 Millionen Endgeräte über global bereitgestellte Cluster unterstützt. Sie zeichnet sich laut HPE durch erweiterte mehrstufige Sicherheit aus, einschließlich verschlüsselter Konnektivität, Multi-Faktor-Authentifizierung und rollenbasierter Zugriffskontrolle. Ihre Microservices-Architektur soll die schnelle Entwicklung, Bereitstellung und Skalierung neuer Daten- und Infrastruktur-Services aus der Cloud beschleunigen. Die Data Services Cloud Console bietet zudem eine einheitliche Programmierschnittstelle für Daten- und Infrastruktur-Dienste von HPE, Partnern und Kunden. Auch erlaubt sie Entwicklern den Zugriff auf Infrastruktur und Daten als Code.

Weiterhin ist über die Cloud-Plattform der neue Data Ops Manager verfügbar, über den Firmen ihre weltweit verteilte Dateninfrastruktur von jedem Ort und jedem Gerät aus steuern und verwalten können.  Der Data Ops Manager unterstützt das so genannte „Intent-based Provisioning“. Auf diese Weise möchte HPE die Bereitstellung von Speicherinfrastrukturen mithilfe eines KI-gesteuerten, anwendungszentrierten Ansatzes erheblich vereinfachen. Auf der Grundlage weniger Angaben – etwa Workloadtyp und Speichervolumen – wählt das System laut HPE automatisch den passenden Speicher und Speicherort aus.

Storage aus der Cloud

Über die Data Services Cloud Console lassen sich auch die neuen, cloud-nativen Storage-Lösungen HPE Alletra 6000 und 9000 verwalten.

  • HPE Alletra 9000 ist für geschäftskritische Anwendungen ausgelegt, die hohe Anforderungen an Latenz und Verfügbarkeit stellen. Daher kommt die 9000-Serie mit einer hundertprozentigen Verfügbarkeitsgarantie. Eine All-Active-Architektur ermöglicht laut Hersteller massive Parallelisierung für die Anwendungsbeschleunigung.
  • HPE Alletra 6000 ist ein Midrange-System für geschäftskritische Datenbanken oder mittelgroße virtualisierte oder containerisierte Umgebungen. Es bietet eine garantierte Verfügbarkeit von 99,9999 Prozent und verfügt laut HPE über eine effiziente Architektur und applikationszentrierte Intelligenz für Leistungsoptimierung, Backup und Recovery.

Sie benötigen Unterstützung beim effizienten Datenmanagement? CANCOM berät sie beim sicheren Speichern und Verwalten von Daten aus unterschiedlichen Quellen und hilft bei der Implementierung entsprechender Lösungen – wie der Data Services Cloud Console von HPE.

Weitere Informationen zu den neuen HPE-Lösungen sowie den Services von CANCOM in diesem Umfeld erfahren Sie in diesem Online-Seminar. Das Online-Seminar ist On-Demand verfügbar.

Jetzt registrieren

Quelle Titelbild: © ZinetroN/stock.adobe.com

Hier schreibt CANCOM.info Redaktion für Sie

Mehr Artikel vom Autor

Lesen Sie weiter auf CANCOM.info