Hot Data: Über die Relevanz und den richtigen Einsatz von “heißen” Daten

Um das heutige, rasante Datenwachstum zu bewältigen, müssen Unternehmen mehrere Maßnahmen ergreifen. Dazu gehört es unter anderem, alle vorhandenen Daten in “kalte”, “warme” und “heiße” Daten einzuordnen. Wieso gerade “heiße” Daten bzw. Hot Data eine hohe Priorität genießen sollten, lesen Sie im Beitrag. Außerdem erfahren Sie, was beim Einsatz von “Hot Data” zu beachten ist.

13. April 2023

|

Lesedauer: ca. 3 Min.

hot data-relevanz-einsatz

Bild: © Tatiana/stock.adobe.com

Es ist längst kein Geheimnis mehr: Die Datenflut in Unternehmen wächst permanent – und stellt Firmen vor immense Herausforderungen. Um diese zu meistern, gilt als wichtige Aufgabe, die Daten zu priorisieren und in die Kategorien “kalt”, “warm” und “heiß” einzuordnen.

Dabei sollten Unternehmen ein besonderes Augenmerk auf “heiße” Daten bzw. Hot Data legen. In diese Kategorie fallen alle Daten, die für die Aufrechterhaltung des Betriebs unerlässlich sind. Entsprechend spielen “heiße” Daten in der Regel eine geschäftskritische Rolle.

Hot Data essenziell für KI-Anwendungen

“Heiße” Daten sind auch deshalb geschäftskritisch, weil sie die Grundvoraussetzung bilden, um Echtzeit-Anwendungen in Bereichen wie Künstliche Intelligenz oder High Performance Computing auszuführen. Gerade KI-Anwendungen werden für den Geschäftserfolg immer bedeutender.

Dies zeigt unter anderem eine Studie zum Thema Künstliche Intelligenz von Deloitte auf – für die weltweit über 2.600 KI-Experten befragt wurden. Laut Studie entwickelt sich der Markt für Künstliche Intelligenz rasant. Konkret haben 76 Prozent eine Zunahme der KI-Investitionen im Betrieb festgestellt. Und ganze 94 Prozent messen dem KI-Bereich eine hohe Relevanz für die Zukunft ihres Unternehmens zu.

Flash-Technologie für heiße Daten prädestiniert

Doch was müssen Unternehmen nun berücksichtigen, um “heiße” Daten gewinnbringend einzusetzen – und damit etwa KI-Anwendungen effektiv auszuführen? Auf diese Frage gehen Dirk Hannemann (Principal Solution Architect bei HPE) und Christian Hansmann (Solution Sales Architect bei CANCOM) im Experten-Podcast des Fachportals “Storage Consortium” explizit ein. Demnach gilt es zunächst, die Menge an Daten zu priorisieren – um zu ermitteln, welche Daten oft benötigt und deshalb als “heiße” Daten klassifiziert werden können. Anschließend müssten Firmen entscheiden, welches Speichermedium, welches Speichernetzwerkprotokoll und welcher Speicherort für die “heißen” Daten zum Einsatz kommen sollen.

Im Bereich der Speichermedien falle die Entscheidung relativ leicht: Hier gelte die Flash-Technologie inzwischen als Standard für die Speicherung von “heißen” Daten. Dies kommt nicht von ungefähr: Daten, die auf Flash-Speichern (zum Beispiel SSDs) liegen, lassen sich innerhalb kürzester Zeit abrufen. Solch schnelle Zugriffszeiten sind beispielsweise für die Ausführung von KI-Anwendungen unabdingbar.

Speichernetzwerkprotokolle und -orte können variieren

Wie Dirk Hannemann und Christian Hansmann im Experten-Podcast betonen, gestaltet sich die Situation beim Thema Speichernetzwerkprotokolle weniger eindeutig. Speichernetzwerkprotokolle beeinflussen die jeweiligen Latenzzeiten maßgeblich, indem sie Anwendungen, Servern und anderen Systemen ermöglichen, über ein Netzwerk mit dem Speicher zu kommunizieren.

Grundsätzlich könnten Unternehmen aus verschiedenen Protokollen wählen – wie NVME oder Fibre Channel. Hier müssten Firmen individuell, je nach Einsatzzweck und auszuführender Applikation, entscheiden. Zum Beispiel eigne sich NVME optimal, um für geringe Latenzen im Primärspeicher zu sorgen. Eine Storage-Lösung, bei der NVME-SSDs eingesetzt werden, hat HPE kürzlich vorgestellt: HPE Alletra Storage MP. Dabei handelt es sich um eine Speicher-Architektur, die die Basis für den Einsatz von File und Block-Storage von HPE bildet.

Ähnlich differenziert wie das Thema Speichernetzwerkprotokolle betrachten Dirk Hannemann und Christian Hansmann auch die Frage, an welchem Speicherort die “heißen” Daten abliegen sollen. So gebe es den “einen”, idealen Speicherort nicht. Vielmehr sei es nötig, die jeweiligen “heißen” Daten genau zu analysieren und auf Basis dieser Analyse zu bestimmen, ob man die Daten etwa in die Cloud oder in das lokale Rechenzentrum verschieben möchte. Diese Vorgehensweise führe zwangsläufig zu hybriden IT-Umgebungen.

Um hier den Überblick zu behalten, benötigen Firmen eine Lösung, mit der sie sämtliche Daten unabhängig vom Speicherort und auch vom Speichermedium verwalten können – so die Experten. Eine solche Lösung hat unter anderem der Hersteller CTERA mit der Plattform “Global File Services” im Portfolio (CANCOM.info berichtete).

Sie möchten weitere Informationen zum Thema Hot Data und weiteren Themen erhalten? Die vollständige Version des Experten-Podcasts mit Dirk Hannemann und Christian Hansmann können Sie hier abrufen. Zudem haben Sie die Möglichkeit, sich direkt mit CANCOM-Experte Christian Hansmann in Verbindung zu setzen – und sich unverbindlich beraten zu lassen.

Mehr zum Thema „Data & Analytics“

Warum Unternehmen zu wenig aus ihren Daten machen
Warum Unternehmen zu wenig aus ihren Daten machen

Daten spielen für den künftigen Geschäftserfolg eine zentrale Rolle. In der Praxis schöpfen Unternehmen das Potenzial ihrer Daten jedoch zu wenig aus.

Lesedauer: 2 Min.

Daten-NetApp-Interview
„Daten bleiben im Zentrum von allem, was wir tun“

NetApp möchte das Thema Daten künftig verstärkt mit KI verknüpfen. Das betont Begoña Jara (Vice President Germany, NetApp) im Video.

Lesedauer: 2 Min.

ki-it-betrieb-aiops
KI für den IT-Betrieb: Was sich hinter AIOps verbirgt – und wie Unternehmen davon profitieren können

Der Einsatz von KI für den IT-Betrieb, kurz “AIOps”, ist in Firmen stark im Kommen. So setzen immer mehr auf AIOps-Plattformen. Doch was zeichnet AIOps aus?

Lesedauer: 4 Min.

Datenmonetarisierung: Mit Daten Geld verdienen
Datenmonetarisierung: Mit Daten Geld verdienen

Daten zu Geld machen – das bedeutet die Datenmonetarisierung. Angesichts der weltweit steigenden Datenmenge wird dies für Unternehmen immer wichtiger.

Lesedauer: 2 Min.

monitoring-datenvisualisierung
Monitoring der Produktion: Das bietet die Datenvisualisierung mit CONNECT|M

CANCOM und der Werkzeughersteller Marbach haben gemeinsam eine Plattform für die Datenvisualisierung entwickelt: CONNECT|M. Mehr dazu im Video.

Lesedauer: 2 Min.

Über die Anforderungen und Umsetzung der digitalen Archivierung
Über die Anforderungen und Umsetzung der digitalen Archivierung

Wie kann das Gesundheitswesen die Herausforderungen rund um die digitale Archivierung lösen? Das verrät Veritas-Experte Dr. Nils Albrechtsen im Interview.

Lesedauer: 6 Min.

Datenmonetarisierung: Steigende Bedeutung für Unternehmen
Datenmonetarisierung: Steigende Bedeutung für Unternehmen

Noch steckt die Datenmonetarisierung in den Kinderschuhen. Doch das wird sich in Zukunft ändern. Zu diesem Ergebnis kommt eine aktuelle Studie.

Lesedauer: 2 Min.

Moderne Dateninfrastruktur: Wie sich AL-KO Kober für die digitale Zukunft rüstet
Moderne Dateninfrastruktur: Wie sich AL-KO Kober für die digitale Zukunft rüstet

Um eine neue, moderne Dateninfrastruktur umzusetzen, entschied sich AL-KO Kober für die Speicherlösung All Flash FAS von NetApp.

Lesedauer: 3 Min.

marbach-sprache-maschinen-digitalisierung
„Die Sprache der Maschinen übersetzen“

Mittels Analyse und Visualisierung von Maschinendaten übersetzt der Werkzeugbauer Marbach die Sprache der Maschine für den Menschen.

Lesedauer: 4 Min.

Unstrukturierte Daten: Wie Unternehmen diese Herausforderung meistern können
Unstrukturierte Daten: Wie Unternehmen diese Herausforderung meistern können

Unstrukturierte Daten können die Zusammenarbeit erschweren und sogar zum Datenverlust führen. Im Artikel lesen Sie, wie NetApp Abhilfe schaffen möchte.

Lesedauer: 3 Min.

hpe-speicherloesung-big-data
Mit Speicherlösungen die Datenflut bewältigen

Die Datenflut überfordert Unternehmen und verzögert wichtige Entscheidungen. Hier erfahren Sie, wie Speicherlösungen das Datenchaos bereinigen.

Lesedauer: 4 Min.

Wettbewerbsfaktor Künstliche Intelligenz (KI): Hürden und Umsetzungsmöglichkeiten
Wettbewerbsfaktor Künstliche Intelligenz (KI): Hürden und Umsetzungsmöglichkeiten

Die Umsetzung von KI-Projekten ist für Firmen künftig essenziell. Das Problem: Sie ist meist langwierig und kostspielig. Genau das möchte Fujitsu ändern.

Lesedauer: 3 Min.