3 Schlüssel zur höheren Datenverfügbarkeit

Downtime kostet bares Geld. Nicht zuletzt deshalb erkennen Unternehmen zunehmend an, wie wichtig die Datenverfügbarkeit für den Geschäftserfolg ist. Allerdings hält die bestehende IT-Infrastruktur noch nicht mit den steigenden Anforderungen Schritt. So fehlen unter anderem moderne Storage-Lösungen – die einen wesentlichen Beitrag dazu leisten, die Datenverfügbarkeit sicherzustellen.

28. Januar 2021

|

Lesedauer: ca. 4 Min.

3 Schlüssel zur höheren Datenverfügbarkeit

Bild: © tippapatt/stock.adobe.com

Fallen unternehmenskritische Anwendungen auch nur eine Stunde aus, kostet Unternehmen dies nicht selten einen mittleren fünfstelligen Betrag. Angesichts des schnell steigenden Datenvolumens und der heterogenen IT-Landschaft wird es für Firmen allerdings immer schwieriger, eine hohe Datenverfügbarkeit zu gewährleisten und Daten bei Systemausfällen schnell wiederherzustellen. Daten liegen inzwischen On-Premise, in der Cloud, auf physischen Speichern und virtuellen Maschinen – was Systeme und Backup-Prozesse verlangsamen kann.

Verschärft wird die Situation, da die Zahl der unternehmenskritischen oder missionskritischen IT-Prozesse zunimmt. Vor allem kleine und mittlere Unternehmen erkennen bei sich Mängel in der Datenverfügbarkeit und haben Schwierigkeiten, Service-Level-Agreements einzuhalten. Mehr als zwei Drittel der Unternehmen gaben in einem Veeam Trends Report an, dass es ihnen nicht gelingt, Business-Anwendungen im gewünschten Zeitraum wiederherzustellen. Es fehlen sowohl Knowhow als auch die Technologie, um die vorhandenen Datenmengen effektiv zu managen.

Was müssen moderne Storage-Systeme leisten?

Wollen Unternehmen einen Always-on-Anspruch realisieren, müssen sie nicht nur ihr Backup-System überdenken, sondern Storage- und Backup-Systeme intelligent miteinander verbinden. Drei Aspekte sind wichtig, die IT-Entscheider bei der Wahl einer Storage-Lösung beachten sollten.

1. Cloud-Affinität und Flexibilität

Sicherheits- und Performance-Aspekte veranlassen viele Unternehmen dazu, zumindest die unternehmenskritischen Daten weiterhin On-Premise zu lagern. Doch häufig bieten solche Lösungen nicht die gleiche Agilität wie Cloud Storage.

Einige Anbieter von Storage-Lösungen haben mittlerweile nachgebessert. Ihr Storage OS lässt sich ähnlich flexibel wie Cloud-Services konfigurieren. Unternehmen können Services hinzubuchen, Systeme einfach upgraden und Storage unkompliziert erweitern.

Im Idealfall bietet eine Storage-Lösung Monitoring- und Repair-Funktionen, die über das eigene System hinausreichen und auch Secondary Storage, Cloud-Speicher und Edge Computing einbeziehen. Die Administration sämtlicher Workloads erfolgt über ein zentrales System – ohne die Sicherheit der On-Premise-Daten zu gefährden. So gewinnt die IT mehr Übersicht und kann kürzere Reaktionszeiten und effizientere Backup-Strategien umsetzen.

2. Snapshots

Egal, wie durchdacht die Architektur ist: Kein IT-System ist vor Ausfällen geschützt. Klassische Backup-Prozesse können mehrere Stunden oder – bei umfangreichen Systemwiederherstellungen – auch Tage in Anspruch nehmen. Doch zumindest kleine Wiederherstellungen sollten im laufenden Betrieb in unter 15 Minuten umgesetzt werden. Um dieses Ziel zu erreichen, ist die Kombination von klassischem Backup und Snapshots empfehlenswert. Gerade für Unternehmen, in denen viele Updates in den Business-Applikationen stattfinden.

Unterläuft einem Mitarbeiter bei der Bildbearbeitung, im Videoschnitt oder bei CAD-Arbeiten ein Fehler und soll die Anwendung auf einen bestimmten Zeitpunkt zurückgesetzt werden, wäre ein Backup-Prozess überdimensioniert. Snapshots kann man sich als Datenabbild auf Image-Ebene vorstellen. Sie verbrauchen keinen Speicherplatz, sind in Sekunden erstellt und verringern den Wiederherstellungsprozess auf einen Bruchteil der bisherigen Zeit – und während der Wiederherstellung können Anwender ungestört weiterarbeiten.

Warum also nicht ganz auf klassische Backups verzichten? Snapshots werden auf demselben System wie die Originaldaten gespeichert. Bei einer echten Datenkatastrophe wären auch die Snapshots nicht wiederherstellbar. Zumal Snapshots den Nachteil haben, dass sie nicht prüfen, ob Dateien beim Speichern beschädigt wurden oder Fehler beim Wiederherstellen unterlaufen sind. Snapshots sind daher eine intelligente Ergänzung zu Backups, die die Performance des Gesamtsystems erhöhen, aber kein Backup-Ersatz.

3. Künstliche Intelligenz

Smarte Systeme können komplexe IT-Infrastrukturen verlässlicher überwachen als menschliche Administratoren. Da 90 Prozent der technischen Probleme, die zu Datenausfällen führen, oberhalb der Hardware-Ebene auf Netzwerk-, Server-, oder Anwendungs-Ebene entstehen, sollten Unternehmen ein KI-gestütztes Monitoring implementieren. Dieses ist im besten Fall in die zentrale Datenmanagement-Plattform integriert.

Sensoren an diversen Messpunkten der Infrastruktur überwachen, ob Abweichungen zu finden sind oder sich Probleme abzeichnen. Ein nicht unerheblicher Teil an Downtime kann verhindert werden, weil die intelligenten Systeme proaktiv eingreifen. Falls es doch einmal zum Ausfall kommt, können sie viele Fehler schnell und ohne menschliches Eingreifen beheben.

Auf dem Weg zur 100%-igen Verfügbarkeit

Um die Ausfallsicherheit und Effizienz zu optimieren, sollten Unternehmen ihre Storage- und Backupstrategien möglichst aus einer Produktlinie beziehen. HPE hat sich in den vergangenen Jahren als Innovationsführer für Tier 0 Storage etabliert. Ob KI, Cloud-Affinität oder Skalierbarkeit – die Storage-Plattform HPE Primera integriert alle wichtigen Technologietrends.

HPE Primera ist modular aufgebaut und, obwohl On-Premise, so flexibel wie eine Cloud-Lösung. Über ein zentrales Datenmanagement haben Administratoren sämtliche Unternehmensdaten im Griff. Sie können Storage-Ressourcen optimal aufeinander abstimmen, Erweiterungen bei Bedarf schnell hinzubuchen und Upgrades unkompliziert vornehmen. Die integrierte Lösung HPE InfoSight sorgt dabei für ein KI-gestütztes Monitoring der Datenverwaltung: Auf diese Weise lässt sich das Risiko von unerwarteten IT-Problemen laut Hersteller um bis zu 79 Prozent senken.

Damit Storage und Backup ideal aufeinander abgestimmt sind, kooperiert HPE mit Veeam und kann Kunden so auch neueste Snapshot-Technologie anbieten. Konkret ist es möglich, die Storage-Plattform HPE Primera mit der Backup-Lösung Veeam Backup & Replication mit einer 1-Klick-Installation zu verbinden. Ab diesem Zeitpunkt können Unternehmen Snapshots des Primär- und Sekundärspeichers nach individuellen Zeitplänen erstellen. Laut Veeam lassen sich damit die Wiederherstellungspunkte für VMs oder Applikationen signifikant erhöhen – was ein wesentlicher Schritt hin zu einer höheren Datenverfügbarkeit sei. Dabei würden die Wiederherstellungszeiten bei unter fünf Minuten im laufenden Betrieb liegen. Über die für HPE Primera erhältliche Software Peer Persistence können Unternehmen Backups außerdem von einem System auf einem anderen wiederherstellen, damit die Datenverfügbarkeit auch bei größeren IT-Problemen nicht gefährdet ist.

Die HPE ist von HPE Primera indes so überzeugt, dass sie ihren Kunden als einziger Anbieter weltweit eine Datenverfügbarkeit von 100 Prozent verspricht. Für Bereitstellung, Administration und Skalierung sei eine Zeitersparnis von bis zu 93 Prozent erreichbar.

Mehr Informationen zu HPE Primera inklusive unverbindlicher Beratung finden Sie hier.

Mehr zum Thema „Data Management & Edge Computing“

So revolutioniert Edge Computing das Rechenzentrum
So revolutioniert Edge Computing das Rechenzentrum

Edge Computing wird den Data Center-Bereich in den kommenden Jahren massiv verändern. Zu diesem Ergebnis kommt ein aktueller Report.

Lesedauer: 2 Min.

Data Protection: Unternehmen stellen neue Anforderungen
Data Protection: Unternehmen stellen neue Anforderungen

Firmen werden immer häufiger zur Zielscheibe von Cyberkriminellen. Erfahren Sie, wie Modern Data Protection zum Schutz von Unternehmensdaten beiträgt.

Lesedauer: 3 Min.

Edge Computing steht vor dem Durchbruch
Edge Computing steht vor dem Durchbruch

Für Marktforscher wie Gartner oder Forrester Resarch ist Edge Computing eine der wichtigsten Technologietrends in 2020. Mehr dazu lesen Sie hier.

Lesedauer: 1 Min.

Deshalb ist Edge Computing in Zukunft von zentraler Bedeutung
Deshalb ist Edge Computing in Zukunft von zentraler Bedeutung

Angesichts des massiv wachsenden Datenvolumens wird Edge Computing für Unternehmen immer wichtiger.

Lesedauer: 3 Min.

cloud-objektspeicher-datenspeicherung
Von “kalten” bis “heißen” Daten: Das leisten moderne Objektspeicher für die Datenspeicherung

“Kalte”, “warme” oder “heiße” Daten bergen unterschiedliche Anforderungen an die Datenspeicherung. Moderne Objektspeicher können diese Anforderungen adressieren.

Lesedauer: 4 Min.

datenmanagement-datenanalyse
Warum Datenmanagement für den Unternehmenserfolg entscheidend ist

Viele Firmen können aus ihren Daten keinen Mehrwert generieren. Wie Sie Datensilos beseitigen und Datenmanagement zum Erfolgsfaktor machen, lesen Sie hier.

Lesedauer: 3 Min.

Intelligentes Datenmanagement dank KI und Automatisierung
Intelligentes Datenmanagement dank KI und Automatisierung

Eine manuelle Verwaltung der Datenströme wird in Unternehmen immer aufwendiger – Intelligentes Datenmanagement schafft Abhilfe.

Lesedauer: 3 Min.

iot-edge-computing
Studie: IoT und Edge Computing in Unternehmen auf dem Vormarsch

Laut aktueller Studie treiben Unternehmen die Einführung von IoT- und Edge Computing-Lösungen mit zunehmender Geschwindigkeit voran.

Lesedauer: 2 Min.

Durchgängige Datenverfügbarkeit: Bedeutung und Umsetzung
Durchgängige Datenverfügbarkeit: Bedeutung und Umsetzung

Firmen müssen besonders ihre geschäftskritischen Daten jederzeit verfügbar machen. Im Beitrag lesen Sie, wie HPE Unternehmen hier unterstützt.

Lesedauer: 3 Min.

Datensicherung und -wiederherstellung auf einer zentralen Plattform
Datensicherung und -wiederherstellung auf einer zentralen Plattform

Die Themen Datensicherung und -wiederherstellung sind für Firmen essenziell. Für diesen Bereich bietet Zerto die sogenannte IT-Resilience-Plattform an.

Lesedauer: 2 Min.

interface-datenmanagement-nachhaltigkeit
Datenmanagement: Unausgeschöpftes Potenzial für mehr Nachhaltigkeit

Viele Firmen nutzen ihre Daten nicht optimal und verschenken Chancen. Lesen Sie hier, wie Datenmanagement zu mehr Nachhaltigkeit beiträgt.

Lesedauer: 3 Min.

"Die synchrone Datenspiegelung ist die Technologie, um sich vor Datenverlusten bestmöglich zu schützen"
“Die synchrone Datenspiegelung ist die Technologie, um sich vor Datenverlusten bestmöglich zu schützen”

Was die redundante Datenhaltung mithilfe der synchronen Datenspiegelung konkret auszeichnet, verrät CANCOM-Experte Ansgar Burmann im Interview.

Lesedauer: 5 Min.

Effizientes Datenmanagement in hybriden Infrastrukturen
Effizientes Datenmanagement in hybriden Infrastrukturen

Die Datenmenge wächst in Firmen stetig, wobei die Daten meist in hybriden Umgebungen liegen. Dies macht das Datenmanagement zu einer großen Herausforderung.

Lesedauer: 4 Min.

Studie: Unternehmen wenden Datenmanagement nur unzureichend an
Studie: Unternehmen wenden Datenmanagement nur unzureichend an

Ein effizientes Datenmanagement ist für die Zukunftsfähigkeit einer Firma entscheidend. Laut Studie gibt es in diesem Bereich allerdings noch Aufholbedarf.

Lesedauer: 2 Min.