Intelligentes Datenmanagement dank KI und Automatisierung

Die Menge an Daten nimmt in Unternehmen rasant zu, während die Umgebungen, in denen diese sich bewegen, zu immer komplexeren Multi-Cloud-Infrastrukturen wachsen. Intelligentes und automatisiertes Datenmanagement verschafft den Überblick, wo die Daten sich befinden und wie sie geschützt sind. Dadurch lassen sich Betriebsausfälle durch Datenverlust vorhersagen und verhindern.

18. November 2019

|

Lesedauer: ca. 3 Min.

Intelligentes Datenmanagement dank KI und Automatisierung

Bild: © metamorworks/stock.adobe.com

Mobile Endgeräte, vernetzte Produktionssysteme, vielzählige Sensoren – die Digitalisierung in Unternehmen verspricht eine Steigerung von Erfolg und Wettbewerbsfähigkeit. Zunächst sorgt sie aber für eins: Daten. Und zwar eine ganze Menge davon.

Ein wenig greifbar macht das die IDC-Studie „DataAge 2025“: Demzufolge wird sich die globale Datenmenge von geschätzten 33 Zettabyte in 2018 bis 2025 auf 175 Zettabyte erhöhen – umgerechnet sind das stolze 175 Milliarden Terabyte. Über zwei Drittel dieser Daten werden 2025 von Unternehmen stammen, heißt es weiter.

Die Nutzung und Speicherung der Daten findet zunehmend in Multi-Cloud-Infrastrukturen statt. Das bedeutet, dass Unternehmen Cloud-Services von mehr als nur einem Anbieter nutzen, da es spezialisierte Angebote für die verschiedenen Einsatzzwecke gibt.

Für Firmen wird es also immer schwieriger nachzuvollziehen, wo Daten erzeugt werden, wo sie gespeichert sind, wer auf sie zugreift und wie sie geschützt sind. Eine Studie von Exasol offenbart: Über 80 Prozent der befragten deutschen Unternehmen geben an, nicht zu wissen, wo sich all ihre kritischen Daten befinden.

Intelligente Automatisierung ist das Zauberwort

Das macht deutlich: Eine manuelle Datenorganisation mit händisch eingestellten Regeln wird immer aufwändiger und ineffizienter. Markantestes Beispiel ist das klassische Backup, bei dem man in regelmäßigen Abständen Dateien auf ein Backup-Medium kopiert, um diese im Notfall wiederherzustellen.

Dieses Verfahren kommt aus Zeiten, in denen IT-Landschaften noch überschaubar und nicht hybrid waren. Aber Daten sind heute „heiß“, also in ständiger Bewegung, und das am Edge, im Rechenzentrum oder in Multi-Cloud-Umgebungen.

Das Zauberwort heißt intelligente Automatisierung. Moderne Datenmanagement-Lösungen ersetzen reaktive Absicherungsmechanismen durch ein aktives System, das die enormen und permanenten Datenströme in Multi-Cloud-Umgebungen optimal und sicher zu steuern vermag.

Die fünf Phasen des intelligenten Datenmanagements

Eine schlüsselfertige Lösung für das richtige Datenmanagement gibt es allerdings nicht – die Anforderungen und IT-Infrastrukturen in den Unternehmen sind dafür einfach zu verschieden.

Der Anbieter von Datenmanagement-Lösungen Veeam hat kürzlich ein Modell vorgestellt, das Unternehmen den Weg zu einem intelligenten Datenmanagement ebnen soll. Veeam beschreibt diesen Weg in fünf Phasen:

Phase 1: Das Backup bleibt die Basis

Eine zuverlässige Datensicherung ist auch weiterhin das Fundament. Daten und Workloads müssen bei Ausfällen, Angriffen, Verlust oder Diebstahl schnell wiederhergestellt werden können.

Phase 2: Zentrale Verwaltung aller Speicherorte

Die gesamte Datensicherung, ob für physische, virtuelle oder cloudbasierte Workloads, wird in Phase 2 zusammengeführt. Die unterschiedlichen Speicherorte werden zentral verwaltet und ein sofortiger Zugriff auf alle Daten und Anwendungen wird möglich, egal, wo diese sich befinden. Das beschleunigt die Wiederherstellung und ermöglicht bessere Analysen.

Phase 3: Ein klarer Einblick ermöglicht präventive Maßnahmen

In dieser Phase wird eine zentrale Konsole eingesetzt, die einen ganzheitlichen Überblick über Datennutzung, Abläufe und Leistungsprobleme in der gesamten Umgebung schafft. Monitoring, Ressourcenoptimierung und Kapazitätsplanung ermöglichen es, präventiv einzugreifen, bevor die Datenverfügbarkeit überhaupt erst beeinträchtigt wird.

Hier geschieht der Wandel von einem reaktiven zu einem aktiven Datenmanagement, noch aber mit manueller Verwaltung.

Phase 4: „Orchestrierung“ der Datenströme

Das schöne Wort „Orchestrierung“ beschreibt, Daten reibungslos zu steuern und an den jeweils besten Speicherort zu verschieben. Neben Business Continuity und einer einfacheren Einhaltung von Richtlinien gelingt damit eine effizientere Nutzung von Ressourcen.

Jetzt werden die Daten schon automatisiert verwaltet, allerdings noch auf Basis von vordefinierten Regeln. Die Rolle der Dirigent*in muss also noch vom Menschen selber eingenommen werden, um im Bild zu bleiben.

Phase 5: Volle Automatisierung durch künstliche Intelligenz

Die „echte“ Automatisierung kommt mit künstlicher Intelligenz und maschinellem Lernen in der letzten Phase. Die Idee dahinter: Die Daten werden intelligent, wissen, wo sie sich befinden, und handeln autonom.

Daten lernen, sich an den Ort zu bewegen, an dem sie leicht zugänglich sind und für die Geschäftsabläufe gebraucht werden. Sie sichern sich ab und erstellen Backups von sich selbst. Sie erkennen anomales Verhalten im System und können darauf reagieren – sich etwa bei Bedarf selbst wiederherstellen, um eine durchgehende Verfügbarkeit zu gewährleisten.

„Veeam Hyper-Availability Platform“ als Lösung für intelligentes Datenmanagement

Um diese fünf Phasen im Unternehmen umzusetzen, bedarf es entsprechenden Datenmanagement-Lösungen. Veeam wirbt damit, Unternehmen mit ihrem Portfolio auf dem Weg zur „Hyper-Available Enterprise“ unterstützen zu können.

Die sogenannte „Veeam Hyper-Availability Platform“ biete Integration, Transparenz, Orchestrierung, Intelligenz und Automatisierung – also genau die Fähigkeiten, die zur Umsetzung der fünf Phasen benötigt werden. Damit sei es Unternehmen möglich, von aktuell manueller Verwaltung ihrer Daten zu einer intelligenten Automatisierung zu gelangen.

Laut Veeam seien Unternehmen durch die sichere Steuerung der enormen Datenströme in Multi-Cloud-Umgebungen in der Lage, schnell auf betriebliche Anforderungen zu reagieren und effizienter zu werden.

Mehr zum Thema „Data Management & Edge Computing“

"Die synchrone Datenspiegelung ist die Technologie, um sich vor Datenverlusten bestmöglich zu schützen"
„Die synchrone Datenspiegelung ist die Technologie, um sich vor Datenverlusten bestmöglich zu schützen“

Was die redundante Datenhaltung mithilfe der synchronen Datenspiegelung konkret auszeichnet, verrät CANCOM-Experte Ansgar Burmann im Interview.

Lesedauer: 5 Min.

Effizientes Datenmanagement in hybriden Infrastrukturen
Effizientes Datenmanagement in hybriden Infrastrukturen

Die Datenmenge wächst in Firmen stetig, wobei die Daten meist in hybriden Umgebungen liegen. Dies macht das Datenmanagement zu einer großen Herausforderung.

Lesedauer: 4 Min.

Deshalb ist Edge Computing in Zukunft von zentraler Bedeutung
Deshalb ist Edge Computing in Zukunft von zentraler Bedeutung

Angesichts des massiv wachsenden Datenvolumens wird Edge Computing für Unternehmen immer wichtiger.

Lesedauer: 3 Min.