Um das heutige, rasante Datenwachstum zu bewältigen, müssen Unternehmen mehrere Maßnahmen ergreifen. Dazu gehört es unter anderem, alle vorhandenen Daten in “kalte”, “warme” und “heiße” Daten einzuordnen. Wieso gerade “heiße” Daten bzw. Hot Data eine hohe Priorität genießen sollten, lesen Sie im Beitrag. Außerdem erfahren Sie, was beim Einsatz von “Hot Data” zu beachten ist.
13. April 2023
|
Lesedauer: ca. 3 Min.
Bild: © Tatiana/stock.adobe.com
Es ist längst kein Geheimnis mehr: Die Datenflut in Unternehmen wächst permanent – und stellt Firmen vor immense Herausforderungen. Um diese zu meistern, gilt als wichtige Aufgabe, die Daten zu priorisieren und in die Kategorien “kalt”, “warm” und “heiß” einzuordnen.
Dabei sollten Unternehmen ein besonderes Augenmerk auf “heiße” Daten bzw. Hot Data legen. In diese Kategorie fallen alle Daten, die für die Aufrechterhaltung des Betriebs unerlässlich sind. Entsprechend spielen “heiße” Daten in der Regel eine geschäftskritische Rolle.
“Heiße” Daten sind auch deshalb geschäftskritisch, weil sie die Grundvoraussetzung bilden, um Echtzeit-Anwendungen in Bereichen wie Künstliche Intelligenz oder High Performance Computing auszuführen. Gerade KI-Anwendungen werden für den Geschäftserfolg immer bedeutender.
Dies zeigt unter anderem eine Studie zum Thema Künstliche Intelligenz von Deloitte auf – für die weltweit über 2.600 KI-Experten befragt wurden. Laut Studie entwickelt sich der Markt für Künstliche Intelligenz rasant. Konkret haben 76 Prozent eine Zunahme der KI-Investitionen im Betrieb festgestellt. Und ganze 94 Prozent messen dem KI-Bereich eine hohe Relevanz für die Zukunft ihres Unternehmens zu.
Doch was müssen Unternehmen nun berücksichtigen, um “heiße” Daten gewinnbringend einzusetzen – und damit etwa KI-Anwendungen effektiv auszuführen? Auf diese Frage gehen Dirk Hannemann (Principal Solution Architect bei HPE) und Christian Hansmann (Solution Sales Architect bei CANCOM) im Experten-Podcast des Fachportals “Storage Consortium” explizit ein. Demnach gilt es zunächst, die Menge an Daten zu priorisieren – um zu ermitteln, welche Daten oft benötigt und deshalb als “heiße” Daten klassifiziert werden können. Anschließend müssten Firmen entscheiden, welches Speichermedium, welches Speichernetzwerkprotokoll und welcher Speicherort für die “heißen” Daten zum Einsatz kommen sollen.
Im Bereich der Speichermedien falle die Entscheidung relativ leicht: Hier gelte die Flash-Technologie inzwischen als Standard für die Speicherung von “heißen” Daten. Dies kommt nicht von ungefähr: Daten, die auf Flash-Speichern (zum Beispiel SSDs) liegen, lassen sich innerhalb kürzester Zeit abrufen. Solch schnelle Zugriffszeiten sind beispielsweise für die Ausführung von KI-Anwendungen unabdingbar.
Wie Dirk Hannemann und Christian Hansmann im Experten-Podcast betonen, gestaltet sich die Situation beim Thema Speichernetzwerkprotokolle weniger eindeutig. Speichernetzwerkprotokolle beeinflussen die jeweiligen Latenzzeiten maßgeblich, indem sie Anwendungen, Servern und anderen Systemen ermöglichen, über ein Netzwerk mit dem Speicher zu kommunizieren.
Grundsätzlich könnten Unternehmen aus verschiedenen Protokollen wählen – wie NVME oder Fibre Channel. Hier müssten Firmen individuell, je nach Einsatzzweck und auszuführender Applikation, entscheiden. Zum Beispiel eigne sich NVME optimal, um für geringe Latenzen im Primärspeicher zu sorgen. Eine Storage-Lösung, bei der NVME-SSDs eingesetzt werden, hat HPE kürzlich vorgestellt: HPE Alletra Storage MP. Dabei handelt es sich um eine Speicher-Architektur, die die Basis für den Einsatz von File und Block-Storage von HPE bildet.
Ähnlich differenziert wie das Thema Speichernetzwerkprotokolle betrachten Dirk Hannemann und Christian Hansmann auch die Frage, an welchem Speicherort die “heißen” Daten abliegen sollen. So gebe es den “einen”, idealen Speicherort nicht. Vielmehr sei es nötig, die jeweiligen “heißen” Daten genau zu analysieren und auf Basis dieser Analyse zu bestimmen, ob man die Daten etwa in die Cloud oder in das lokale Rechenzentrum verschieben möchte. Diese Vorgehensweise führe zwangsläufig zu hybriden IT-Umgebungen.
Um hier den Überblick zu behalten, benötigen Firmen eine Lösung, mit der sie sämtliche Daten unabhängig vom Speicherort und auch vom Speichermedium verwalten können – so die Experten. Eine solche Lösung hat unter anderem der Hersteller CTERA mit der Plattform “Global File Services” im Portfolio (CANCOM.info berichtete).
Sie möchten weitere Informationen zum Thema Hot Data und weiteren Themen erhalten? Die vollständige Version des Experten-Podcasts mit Dirk Hannemann und Christian Hansmann können Sie hier abrufen. Zudem haben Sie die Möglichkeit, sich direkt mit CANCOM-Experte Christian Hansmann in Verbindung zu setzen – und sich unverbindlich beraten zu lassen.