3. August 2021 | pArtikel drucken | kKommentieren

Durchgängige Datenverfügbarkeit: Bedeutung und Umsetzung

Dass weltweit immer mehr Daten generiert werden, ist längst kein Geheimnis mehr. Dieses von Trends wie IoT oder KI forcierte, rasante Datenwachstum stellt Unternehmen vor große Herausforderungen. So sind Firmen vor allem gefordert, ihre Anwendungen und Daten jederzeit verfügbar zu machen – gerade wenn diese geschäftskritisch sind. Im Beitrag lesen Sie, wie HPE Unternehmen bei dieser Aufgabe unterstützen möchte.

Eine Studie, die das künftige Datenwachstum einprägsam beschreibt, veröffentlichten IDC und Seagate bereits im November 2018. Unter dem Titel „DataAge 2025 – Die Digitalisierung der Welt“ zeichnen die Analysten für die Zukunft eine datengetriebene Welt, in der die weltweite Datenmenge von 33 Zettabyte in 2018 auf 175 Zettabyte in 2025 ansteigen wird.

Ein ähnliches Bild zeichnet die aktuelle IDC-Studie „Data Driven Intelligence“, über die CANCOM.info berichtet hat. Demnach wächst die generierte Datenmenge bei jedem dritten Unternehmen pro Jahr zwischen 31 und 60 Prozent.

Unzureichende Datenwiederherstellung als Problem

Angesichts des rasanten Datenwachstums ist es mehr denn je erforderlich, die Daten umfassend abzusichern und Datenverluste und Ausfallzeiten möglichst vollständig zu vermeiden. Gerade beim Verlust geschäftskritischer Daten drohen sonst Schäden in Millionenhöhe.

Allerdings sind Firmen in der Praxis häufig mit diesen Aufgaben überfordert. Laut dem „Data Protection Report 2021“ von Veeam schlagen über die Hälfte aller Datenwiederherstellungen fehl (CANCOM.info berichtete).

Erschwerend kommt hinzu, dass selbst erfolgreiche Wiederherstellungen in vielen Fällen zu lange dauern. Wie die Funkschau mit Verweis auf eine Storage Craft-Studie schreibt, sehen sich nur 17 Prozent der Befragten mit ihrer vorhandenen IT-Infrastruktur in der Lage, Daten innerhalb einer Stunde wiederherzustellen. Fast die Hälfte glaubt, dass die Datenwiederherstellung bis zu einem Tag dauern kann.

Welche Folgen das hat, beschreibt ein Beitrag des Fachportals „Storage Insider“. Demzufolge gehen die finanziellen Schäden für nur eine Stunde Ausfallzeit bereits in den sechsstelligen Bereich. „Konnte früher mit dem Zurückspielen der Informationen noch ein Tag vergehen, erfordern digitalisierte und automatisierte Abläufe einen Recovery Point Objective (RPO, Zeitpunkt der letzten Sicherung) beziehungsweise ein Recovery Time Objective (RTO, notwendige Zeit für die Wiederherstellung) von Minuten oder Sekunden“, so der Artikel. Nötig sei ein Paradigmenwechsel: „Wiederherstellung ist das falsche Wort. An ihre Stelle tritt die Forderung nach dauerhafter Verfügbarkeit.“

Doch wie lässt sich eine dauerhafte Verfügbarkeit herstellen, die gerade für geschäftskritische Anwendungen und Daten essenziell ist?

HPE verspricht hundertprozentige Datenverfügbarkeit

Eine Antwort auf diese Frage möchte HPE geben. So hat der IT-Konzern mit HPE Alletra 9000  jüngst eine Storage-Lösung vorgestellt, die zur neuen Produktfamilie HPE Alletra gehört und eine durchgängige Datenverfügbarkeit herstellen soll – und zwar zu hundert Prozent. Speziell auf geschäftskritische Anwendungen ausgelegt, sollen selbst minimale Ausfallzeiten ausnahmslos der Vergangenheit angehören.

Damit präsentiert der IT-Konzern nach HPE Primera eine weitere Lösung, die das Ziel einer hundertprozentigen Datenverfügbarkeit verfolgt. Tatsächlich fußen die Storage-Arrays von HPE Alletra 9000 auf einer Code-Basis, die von Primera abgeleitet ist.

Um die Verfügbarkeit der Daten kontinuierlich zu gewährleisten, setzt Alletra 9000 besonders auf die Funktionen der KI-Plattform HPE InfoSight. Wie der Hersteller betont, kann InfoSight mögliche Probleme im Datenspeicher, die Ausfälle verursachen könnten, proaktiv aufspüren. Zudem sei die Lösung in der Lage, Unterbrechungen auf der Netzwerk-, Anwendungs- und Serverebene vorherzusagen und zu verhindern.

Neben der garantierten, hundertprozentigen Datenverfügbarkeit soll Alletra 9000 Unternehmen weitere Vorteile bieten wie:

  • Intelligentes Datenmanagement: HPE Alletra lässt sich mit der neuen Cloud-Plattform Data Services Cloud Console (DSCC) zentral managen: Laut HPE ermöglicht DSCC den einheitlichen Betrieb sowie das Management von Daten an jedem Ort aus der Cloud. Dies soll Datensilos verhindern und das Datenmanagement effizient gestalten.
  • Hohe Skalierbarkeit
  • Konsistent hohe Performance von Anwendungen und Workloads: Laut HPE ermöglicht das die sogenannte All-Active-Architektur von Alletra 9000.
  • Pay-As-You-Go-Prinzip: Dieses Prinzip zeichnet sich dadurch aus, dass Unternehmen nur diejenigen Leistungen bezahlen müssen, die sie auch tatsächlich nutzen. Wie HPE hervorhebt, ist dieses Prinzip für die gesamte neue Produktfamilie HPE Alletra als Option verfügbar.

Nähere Informationen zu HPE Alletra finden Sie hier

Quelle Titelbild: © geralt/pixabay.com

Hier schreibt Christian Schinko für Sie

Mehr Artikel vom Autor

Lesen Sie weiter auf CANCOM.info