5. November 2019 | pArtikel drucken | kKommentieren

Durchgängige Datenverfügbarkeit: Bedeutung und Umsetzung

Dass weltweit immer mehr Daten generiert werden, ist längst kein Geheimnis mehr. Dieses von Trends wie IoT oder KI forcierte, rasante Datenwachstum stellt Unternehmen vor große Herausforderungen. So sind Firmen vor allem gefordert, ihre Anwendungen und Daten jederzeit verfügbar zu machen – gerade wenn diese geschäftskritisch sind. Eine hundertprozentige Verfügbarkeit soll die neue Storage-Lösung HPE Primera gewährleisten. Mehr dazu im Beitrag.

Eine Studie, die das künftige Datenwachstum einprägsam beschreibt, veröffentlichten IDC und Seagate im November 2018. Unter dem Titel „DataAge 2025 – Die Digitalisierung der Welt“ zeichnen die Analysten für die Zukunft eine datengetriebene Welt, die kontinuierlich tracken, überwachen, zuhören, beobachten und dazulernen wird. Dabei wird die globale Datensphäre laut Studie rasant ansteigen: von 33 Zettabyte im Jahr 2018 auf 175 Zettabyte im Jahr 2025.

Ein wesentlicher Treiber für diese Entwicklung ist, neben IoT, die Künstliche Intelligenz (KI). So benötigen KI-Systeme riesige Datenmengen, um automatisiert Aktionen ausführen zu können. Und diese Fähigkeit gewinnt zunehmend an Relevanz. Denn die Umsetzung von KI-Projekten wird für Unternehmen zum Wettbewerbsfaktor – CANCOM.info berichtete.

Unternehmen nicht für Datenwachstum gewappnet

Allerdings sind nur die wenigsten Firmen auf den massiven Anstieg des Datenvolumens vorbereitet – auch wenn sie darüber Bescheid wissen. Das geht aus einer aktuellen Studie hervor, über die unter anderem die Funkschau berichtet hat. Demnach bewerten 79 Prozent der befragten deutschen Unternehmen diesen Anstieg als Geschäftsrisiko. 67 Prozent erwarten höhere Betriebskosten, 39 Prozent befürchten größere Sicherheitsrisiken.

Sollten Daten verloren gehen, sehen sich nur 17 Prozent der Befragten mit ihrer vorhandenen IT-Infrastruktur in der Lage, diese Daten innerhalb einer Stunde wiederherzustellen. Fast die Hälfte glaubt, dass die Datenwiederherstellung bis zu einem Tag dauern kann.

Welche Folgen das hat, beschreibt ein aktueller Beitrag des Fachportals „Storage Insider“. Demzufolge gehen die finanziellen Schäden für nur eine Stunde Ausfallzeit bereits in den sechsstelligen Bereich. „Konnte früher mit dem Zurückspielen der Informationen noch ein Tag vergehen, erfordern digitalisierte und automatisierte Abläufe einen Recovery Point Objective (RPO, Zeitpunkt der letzten Sicherung) beziehungsweise ein Recovery Time Objective (RTO, notwendige Zeit für die Wiederherstellung) von Minuten oder Sekunden“, so der Artikel. Nötig sei ein Paradigmenwechsel: „Wiederherstellung ist das falsche Wort. An ihre Stelle tritt die Forderung nach dauerhafter Verfügbarkeit.“

Unterschiedliche Wege zur durchgängigen Datenverfügbarkeit

Doch wie lässt sich eine dauerhafte Verfügbarkeit herstellen, die gerade für geschäftskritische Anwendungen und Daten essenziell ist? Ein im Fachportal „Search IT Operations“ veröffentlichter Artikel nennt verschiedene Ansätze. Dazu gehört unter anderem, redundante Kopien zu erstellen – sowohl von der geschäftskritischen Anwendung als auch von IT-Systemen und der Rechenzentrumsinfrastruktur, auf der die Anwendung läuft. Außerdem sollten Firmen sogenannte „Hot Backups“ bzw. dynamische Backups erstellen: Hier werden Daten gesichert, während sie in der Anwendung in Betrieb sind.

Weiterhin ist es möglich, unternehmenskritische Anwendungen und Daten in der Public Cloud zu speichern. Eine Maßnahme, die laut Beitrag höchst umstritten ist. Neben der hohen Verfügbarkeit geben Unternehmen, die sich für die Public Cloud entscheiden, Kosteneinsparungen sowie eine hohe Skalierbarkeit als wichtige Gründe an. Auch würden Public Cloud-Services immer sicherer werden. Dagegen spreche, dass Unternehmen abhängig vom Cloud-Provider werden. Das bedeutet: Sollte ein Public Cloud-Service technische Probleme aufweisen oder gar ausfallen, könnten Firmen nicht mehr auf ihre geschäftskritischen Anwendungen und Daten zugreifen – was ernsthafte Konsequenzen nach sich ziehe.

HPE verspricht hundertprozentige Datenverfügbarkeit

Mit HPE Primera hat der IT-Konzern HPE eine neue Storage-Lösung im Portfolio, die in Unternehmen eine durchgängige Datenverfügbarkeit herstellen soll – und zwar zu hundert Prozent. Ausfallzeiten, selbst minimale, sollen ausnahmslos der Vergangenheit angehören. Dies mache HPE Primera einzigartig am Markt. „Wir haben bei der Verfügbarkeit nicht ein paar Neunen hinzugefügt, sondern alle weggenommen“, wird Phil Davis (Chief Sales Officer, HPE) in einem Heise-Artikel zitiert.

Ermöglicht wird das durch die integrierte Ausfallsicherheit sowie dem Einsatz von Künstlicher Intelligenz mit HPE InfoSight – so der Hersteller. Dabei soll Primera nicht nur in der Lage sein, mögliche Probleme im Datenspeicher proaktiv aufzuspüren. Auch Unterbrechungen auf der Netzwerk-, Anwendungs- und Serverebene könne die Lösung vorhersagen und verhindern. Das ist auch nötig, wie HPE betont, denn über 50 Prozent aller Probleme entstehen jenseits des Datenspeichers.

Neben der garantierten, hundertprozentigen Datenverfügbarkeit soll Primera über weitere zentrale Vorteile verfügen:

  • Schnellere Bereitstellung und hohe Skalierbarkeit: Laut HPE lässt sich Primera in Minuten einrichten und problemlos aktualisieren. Damit liegt der Management-Aufwand auf dem Niveau von Public Cloud-Umgebungen. In gleichem Maß lässt sich laut Hersteller das Primera-System ohne Downtime erweitern – sodass dieses einem weiteren Cloud Anspruch genügt.
  • Einfache Administration: Neben InfoSight sind in Primera Entwicklungen aus dem HPE Nimble Produkt eingeflossen. Viele voreingestellte Best Practices vereinfachen die Administration und Primera kann sich, entsprechend dem Nimble System, weitgehend selbst verwalten – so der Hersteller. Die IT müsse nur noch in seltenen Fällen eingreifen.
  • Storage-Konsolidierung: Die Einfachheit und Cloud-Affinität wirken sich nicht auf die Ausfallsicherheit von Primera aus. Wie HPE unterstreicht, lassen sich damit alle Anwendungs-Workloads auf Primera vereinigen. So behält die IT den Überblick über alle Anwendungs-Workloads im Unternehmen – und kann, falls nötig, schnell und flexibel Optimierungen vornehmen.

Nähere Informationen zu den intelligenten Storage-Lösungen von HPE inklusive Kontaktmöglichkeit finden Sie hier.

Quelle Titelbild: © geralt/pixabay.com

Hier schreibt Christian Schinko für Sie

Mehr Artikel vom Autor

Lesen Sie weiter auf CANCOM.info