Effizientes Datenmanagement in hybriden Infrastrukturen

Die Menge und Vielfalt der Daten in Unternehmen wachsen immer weiter. Diese Daten liegen meist in hybriden Umgebungen – lokal gespeichert, in der Private Cloud oder über mehrere Public Clouds verteilt. Damit wird das Datenmanagement zu einer großen Herausforderung. Hier helfen Lösungen für das einheitliche Datenmanagement wie die Data Services Cloud Console von HPE weiter.

30. Juli 2021

|

Lesedauer: ca. 4 Min.

Effizientes Datenmanagement in hybriden Infrastrukturen

Bild: © ZinetroN/stock.adobe.com

Internet of Things, Social Media oder vernetzte Produktion – durch die Digitalisierung wächst die Menge der verfügbaren Informationen in Unternehmen mehr oder weniger exponentiell an. Die intelligente Analyse dieser Daten bildet die Basis für optimierte Prozesse, richtige geschäftliche Entscheidungen oder die Entwicklung neuer, datenbasierter Geschäftsmodelle. Das gilt für Firmen aus allen Branchen.

Um erfolgreich zu sein, müssen Unternehmen die vorhandenen Datenmengen allerdings erst erschließen, aufbereiten und integrieren. Dies stellt viele Firmen vor große Herausforderungen.

Hybride Umgebungen als Herausforderung

Erschwerend kommt hinzu, dass Firmen ihre Daten zunehmend innerhalb hybrider Infrastrukturen speichern und nutzen. Bereits Mitte 2020 setzten laut IDC etwas mehr als ein Viertel (27 Prozent) der Firmen auf die Hybrid Cloud, sprich eine Mischung aus interner IT-Infrastruktur, Private und Public Cloud. Zugleich nutzten immer mehr Unternehmen die Services verschiedener Cloud-Anbieter parallel: 87 Prozent der Befragten gaben an, solche Multi Cloud-Umgebungen zu betreiben oder deren Betrieb zu planen.

Das Problem: Die Komplexität steigt, wenn Unternehmen ihre On Premise-Infrastruktur und Private Cloud mit mehreren Public Cloud-Angeboten kombinieren. So besteht etwa die Gefahr der „Wölkchenbildung“, sprich von Cloud- und Daten-Silos, da die Stacks der verschiedenen Public Cloud-Angebote oft nicht miteinander kompatibel sind und die Daten in verschiedenen Cloud-Umgebungen gespeichert sind. Die schnelle Migration der Daten für Anwendungen zwischen On Premise-Infrastruktur, Private und Public Cloud wird damit zum Knackpunkt. Viele Firmen sind mit der Integration und dem Management dieser fragmentierten Daten überfordert. Mögliche negative Folgen sind fehlende Konsistenz der Daten, teure Storage-Nutzung, ineffiziente Verarbeitung oder Analyse von Daten.

Außerdem müssen Unternehmen folgende Fragen beantworten können: Was passiert, wenn sie Daten von einem Cloud-Anbieter zum anderen mitnehmen? Werden die Daten vom ehemaligen Provider gelöscht? Zusätzlich müssen sich Firmen mit dem Thema Data Governance auseinandersetzen. Unternehmen müssen die Vorgaben der DSGVO erfüllen und dürfen Kundendaten von EU-Bürgern auch nur innerhalb der Europäischen Union lagern. Nicht zuletzt sind die Daten vor unbefugtem Zugriff und Manipulation zu schützen, um Compliance-Vorschriften einzuhalten.

Intelligentes Datenmanagement als Schlüssel

Eine intelligente und effiziente Datenverwaltung wird daher immer mehr zum Kern der Unternehmensstrategie: Indem sie Firmen ermöglicht, dem Datenwachstum gerecht zu werden und auch komplexe, hybride Infrastrukturen einheitlich zu verwalten, trägt sie entscheidend zur Zukunftsfähigkeit von Unternehmen bei.

Bei der Umsetzung besteht laut einer Studie noch Nachholbedarf. Demnach verwalten weniger als 10 Prozent der befragten Firmen ihre Daten effizient und zentralisiert, obwohl sie damit Umsatz, Gewinn und Kundenzufriedenheit bedeutend steigern könnten. Unternehmen, die ihre Daten effektiv verwalten, haben im Vergleich zu ihren Mitbewerbern die Nase vorn. Konkret hätten diese Betriebe 69 Prozent mehr Einnahmen, 57 Prozent höhere Gewinne und eine um 72 Prozent gesteigerte Kundenzufriedenheit.

Doch wie erreichen Firmen ein intelligentes Datenmanagement? Am Anfang steht eine klare Strategie rund um die Ziele und die Vorgehensweise beim Datenmanagement. Das Fundament bildet ein zuverlässiges Backup, damit sich Daten und Anwendungen nach einem Ausfall, Angriff oder Diebstahl schnell wiederherstellen lassen. Hinzu kommt die zentrale Verwaltung und das Monitoring aller Speicherorte über eine Konsole für einen ganzheitlichen Überblick über die Nutzung der Daten, Prozesse und mögliche Leistungsprobleme in der gesamten Storage-Umgebung. So lassen sich die Datenströme reibungslos steuern und an den jeweils besten Speicherort verschieben.

Beispiel: Data Services Cloud Console von HPE

Mit der Data Services Cloud Console bietet HPE eine derartige Konsole für das einheitliche Datenmanagement in hybriden Umgebungen im As-a-Service-Modell an. Die Lösung soll den einheitlichen Betrieb und das Management von Daten an jedem Ort aus der Cloud ermöglichen und Firmen dabei helfen, dem Datenwachstum Herr zu werden und Datensilos zusammenzuführen. Ziel ist es, dass Unternehmen damit datenorientierte Innovationen schneller voranbringen, Daten überall schützen und sie intelligent über Clouds verschieben können.

Die Data Services Cloud Console basiert auf der Technologie von Aruba Central, die 90.000 Kunden und 10 Millionen Endgeräte über global bereitgestellte Cluster unterstützt. Sie zeichnet sich laut HPE durch erweiterte mehrstufige Sicherheit aus, einschließlich verschlüsselter Konnektivität, Multi-Faktor-Authentifizierung und rollenbasierter Zugriffskontrolle. Ihre Microservices-Architektur soll die schnelle Entwicklung, Bereitstellung und Skalierung neuer Daten- und Infrastruktur-Services aus der Cloud beschleunigen. Die Data Services Cloud Console bietet zudem eine einheitliche Programmierschnittstelle für Daten- und Infrastruktur-Dienste von HPE, Partnern und Kunden. Auch erlaubt sie Entwicklern den Zugriff auf Infrastruktur und Daten als Code.

Weiterhin ist über die Cloud-Plattform der neue Data Ops Manager verfügbar, über den Firmen ihre weltweit verteilte Dateninfrastruktur von jedem Ort und jedem Gerät aus steuern und verwalten können.  Der Data Ops Manager unterstützt das so genannte „Intent-based Provisioning“. Auf diese Weise möchte HPE die Bereitstellung von Speicherinfrastrukturen mithilfe eines KI-gesteuerten, anwendungszentrierten Ansatzes erheblich vereinfachen. Auf der Grundlage weniger Angaben – etwa Workloadtyp und Speichervolumen – wählt das System laut HPE automatisch den passenden Speicher und Speicherort aus.

Storage aus der Cloud

Über die Data Services Cloud Console lassen sich auch die neuen, cloud-nativen Storage-Lösungen HPE Alletra 6000 und 9000 verwalten.

  • HPE Alletra 9000 ist für geschäftskritische Anwendungen ausgelegt, die hohe Anforderungen an Latenz und Verfügbarkeit stellen. Daher kommt die 9000-Serie mit einer hundertprozentigen Verfügbarkeitsgarantie. Eine All-Active-Architektur ermöglicht laut Hersteller massive Parallelisierung für die Anwendungsbeschleunigung.
  • HPE Alletra 6000 ist ein Midrange-System für geschäftskritische Datenbanken oder mittelgroße virtualisierte oder containerisierte Umgebungen. Es bietet eine garantierte Verfügbarkeit von 99,9999 Prozent und verfügt laut HPE über eine effiziente Architektur und applikationszentrierte Intelligenz für Leistungsoptimierung, Backup und Recovery.

Sie benötigen Unterstützung beim effizienten Datenmanagement? CANCOM berät sie beim sicheren Speichern und Verwalten von Daten aus unterschiedlichen Quellen und hilft bei der Implementierung entsprechender Lösungen – wie der Data Services Cloud Console von HPE.

Weitere Informationen zu den neuen HPE-Lösungen sowie den Services von CANCOM in diesem Umfeld erfahren Sie auf der exklusiven Themenseite

Mehr zum Thema „Data Management & Edge Computing“

"Die synchrone Datenspiegelung ist die Technologie, um sich vor Datenverlusten bestmöglich zu schützen"
“Die synchrone Datenspiegelung ist die Technologie, um sich vor Datenverlusten bestmöglich zu schützen”

Was die redundante Datenhaltung mithilfe der synchronen Datenspiegelung konkret auszeichnet, verrät CANCOM-Experte Ansgar Burmann im Interview.

Lesedauer: 5 Min.

Intelligentes Datenmanagement dank KI und Automatisierung
Intelligentes Datenmanagement dank KI und Automatisierung

Eine manuelle Verwaltung der Datenströme wird in Unternehmen immer aufwendiger – Intelligentes Datenmanagement schafft Abhilfe.

Lesedauer: 3 Min.

Studie: Unternehmen wenden Datenmanagement nur unzureichend an
Studie: Unternehmen wenden Datenmanagement nur unzureichend an

Ein effizientes Datenmanagement ist für die Zukunftsfähigkeit einer Firma entscheidend. Laut Studie gibt es in diesem Bereich allerdings noch Aufholbedarf.

Lesedauer: 2 Min.

datenmanagement-ki
Mangelhaftes Datenmanagement gefährdet Erfolg von KI-Projekten

Damit die Einführung von KI-Technologien zum Erfolg führt, müssen Unternehmen vor allem ihr Datenmanagement verbessern. Das zeigt eine aktuelle Studie.

Lesedauer: 2 Min.

3 Schlüssel zur höheren Datenverfügbarkeit
3 Schlüssel zur höheren Datenverfügbarkeit

Um die Datenverfügbarkeit zu gewährleisten, müssen Unternehmen ihre Storage- und Backup-Systeme auf den neuesten Stand bringen.

Lesedauer: 4 Min.

Deshalb ist Edge Computing in Zukunft von zentraler Bedeutung
Deshalb ist Edge Computing in Zukunft von zentraler Bedeutung

Angesichts des massiv wachsenden Datenvolumens wird Edge Computing für Unternehmen immer wichtiger.

Lesedauer: 3 Min.

Edge Computing steht vor dem Durchbruch
Edge Computing steht vor dem Durchbruch

Für Marktforscher wie Gartner oder Forrester Resarch ist Edge Computing eine der wichtigsten Technologietrends in 2020. Mehr dazu lesen Sie hier.

Lesedauer: 1 Min.

Datensicherung und -wiederherstellung auf einer zentralen Plattform
Datensicherung und -wiederherstellung auf einer zentralen Plattform

Die Themen Datensicherung und -wiederherstellung sind für Firmen essenziell. Für diesen Bereich bietet Zerto die sogenannte IT-Resilience-Plattform an.

Lesedauer: 2 Min.

So revolutioniert Edge Computing das Rechenzentrum
So revolutioniert Edge Computing das Rechenzentrum

Edge Computing wird den Data Center-Bereich in den kommenden Jahren massiv verändern. Zu diesem Ergebnis kommt ein aktueller Report.

Lesedauer: 2 Min.

cloud-objektspeicher-datenspeicherung
Von “kalten” bis “heißen” Daten: Das leisten moderne Objektspeicher für die Datenspeicherung

“Kalte”, “warme” oder “heiße” Daten bergen unterschiedliche Anforderungen an die Datenspeicherung. Moderne Objektspeicher können diese Anforderungen adressieren.

Lesedauer: 4 Min.

iot-edge-computing
Studie: IoT und Edge Computing in Unternehmen auf dem Vormarsch

Laut aktueller Studie treiben Unternehmen die Einführung von IoT- und Edge Computing-Lösungen mit zunehmender Geschwindigkeit voran.

Lesedauer: 2 Min.

datenmanagement-datenanalyse
Warum Datenmanagement für den Unternehmenserfolg entscheidend ist

Viele Firmen können aus ihren Daten keinen Mehrwert generieren. Wie Sie Datensilos beseitigen und Datenmanagement zum Erfolgsfaktor machen, lesen Sie hier.

Lesedauer: 3 Min.

interface-datenmanagement-nachhaltigkeit
Datenmanagement: Unausgeschöpftes Potenzial für mehr Nachhaltigkeit

Viele Firmen nutzen ihre Daten nicht optimal und verschenken Chancen. Lesen Sie hier, wie Datenmanagement zu mehr Nachhaltigkeit beiträgt.

Lesedauer: 3 Min.

Data Protection: Unternehmen stellen neue Anforderungen
Data Protection: Unternehmen stellen neue Anforderungen

Firmen werden immer häufiger zur Zielscheibe von Cyberkriminellen. Erfahren Sie, wie Modern Data Protection zum Schutz von Unternehmensdaten beiträgt.

Lesedauer: 3 Min.

Durchgängige Datenverfügbarkeit: Bedeutung und Umsetzung
Durchgängige Datenverfügbarkeit: Bedeutung und Umsetzung

Firmen müssen besonders ihre geschäftskritischen Daten jederzeit verfügbar machen. Im Beitrag lesen Sie, wie HPE Unternehmen hier unterstützt.

Lesedauer: 3 Min.