13. Mai 2016 | pArtikel drucken | kKommentieren
Von Descritive, über Diagnostic und Predictive zu Prescriptive - das sind die Unterschiede

Analytics – der „prescriptive“ Ansatz ist die Zukunft

Im Bereich Big Data ist immer wieder von Predictive Analytics die Rede. Hier werden die Daten genutzt, um Aussagen über Vorausliegendes zu treffen. Die Zukunft allerdings liegt in Prescriptive Analytics. CANCOM.info erklärt die Unterschiede.

Per Push-Nachricht auf dem Smartphone, Tablet oder PC erhalten Servicetechniker dank der Lösung alle maschinenbezogenen Wartungs- und Serviceoptionen in Echtzeit. Erkennt das System einen Mangel oder die Möglichkeiten zur Prozessoptimierung, wird der richtige Mitarbeiter sofort kontaktiert – egal ob die Anlage in den USA ist und der Mitarbeiter in Deutschland.

Lesen Sie weiter auf CANCOM.info

Nur durch die Sammlung und vor allen Dingen die Auswertung von gesammelten Daten, sind solche Abläufe überhaupt möglich. Mithilfe von Analytics sollen in Zukunft zahlreiche Branchen davon profitieren. In smarten Citys wird so der Verkehr optimal geregelt, in Krankenhäusern erhalten Patienten schnellere Therapievorschläge und (Online-)Händler bekommen das Werkzeug, den potentiellen Kunden mit zugeschnittenen Angeboten zu adressieren. >>> Lesen Sie hier mehr über Analytics in Healthcare, Industrie und Retail.

Der Reifegrad der Technologie lässt sich dabei in vier Phasen einteilen. Während heute noch häufig die Rede von Predictive Analytics ist, lassen sich noch größerer Mehrwerte mittels Prescriptive Analytics generieren. CANCOM.info erklärt die Unterschiede und fasst zusammen, welche Voraussetzungen Unternehmen für die Technologie mitbringen sollten.

Analytics Ansätze nach Reifegrad

Am Beispiel der Industrie lassen sich die Unterschiede von Descriptive, Diagnostic, Predictive und Prescriptive Analytics wie folgt aufzeigen:

➀  Descriptive Analytics (was passiert?): Beschreibend – Hier werden zum Beispiel Maschinendaten, wie Temperatur nach Zeit, Temperatur und Vibration strukturiert angezeigt. Diese Daten und Zusammenhänge konnten zuvor noch nicht dargestellt werden.

➁ Diagnostic Analytics (was ist passiert?): Unterscheidend – Es werden erste Analysen der Daten ausgewertet und direkt diagnostiziert, wenn etwa ein bestimmter Schwellenwert für die Temperatur einer Maschine überschritten wurde.

➂ Predictive Analytics (was wird passieren?): Vorhersagend – Die Vergangenheit der Daten wird auf die Zukunft projiziert. Dies ist die Basis für Maschine Learning und die Vorhersage von Ereignissen, wie beispielsweise der Ausfall eines Bauteils.

➃ Prescriptive Analytics (was sollte passieren?): Vorschreibend – Hier wird nicht nur analysiert was passieren wird, sondern direkt konkrete Handlungsanweisungen oder Lösungsvorschläge gegeben. Dabei können auch automatisierte Prozesse angeknüpft werden, sodass Maschinen autonom entscheiden, welche Aktion passiert.

Videos von CANCOM.info

Voraussetzungen für Prescriptive Analytics

Big Data-Potential richtig nutzen.

Big Data-Potential richtig nutzen. Quelle: Pixabay.

Soll die menschliche Beteiligung minimiert und automatische Entscheidungen bereitgestellt werden, ist es unabdingbar, eine verlässliche Datensammlung und Analyse zu gewährleisten. Ein Ausfall könnte sonst massive Folgen haben. Soll etwa ein Aufzug automatisch die optimale Entscheidung für die Auslastung treffen oder werden der Technologie Menschenleben anvertraut, darf es keine Fehler geben.

Viele Firmen schrecken aktuell daher vor Prescriptive Analytics zurück. Um Verfügbarkeit und Sicherheit herzustellen, müssen Firmen einen Weg finden, technologische Hürden zu meistern. Bisher wird stark auf die Cloud gesetzt, doch gerade die fehlende Bandbreite steht Echtzeitanalysen und -Entscheidungen entgegen.

Um riesige Datenmengen zu handhaben, muss also die Spreu vom Weizen getrennt werden, da nicht alle Informationen gespeichert werden können. Das wäre zudem zu teuer. Eine Maschine produziert schnell innerhalb von einer Stunde ein Terrabyte an Daten.

Fog Computing ergänzt die Cloud

Fog Computing.

Beim Fog Computing werden die Daten nicht in der Cloud sondern quasi direkt am Bodennahen Nebel ausgewertet. Quelle: Pixabay.

Mittels Fog Computing werden die Daten nicht erst an die Cloud gesendet, sondern eine Vorentscheidung direkt am Entstehungsort getroffen. Der Fog agiert hier als Filter, sodass nur die vereinzelt auftretende Fehlermeldung weitergeben wird. Auch weitere Entscheidungen können direkt getroffen werden, ohne die Daten an die Cloud zu senden. Schließlich müssen manche Entscheidungen in geringerer Zeit als einem Wimpernschlag getroffen werden. Doch auch im Fog muss es Sicherungsmaßnahmen geben, die mittels eines Security Schirms integriert werden können.

Ein Statement zum Zukunftsthema Fog Computing liefert Dr. Bernd Heinrichs, Managing Director Cisco IoT Solutions EMEAR, in diesem Videointerview.

YouTube

Mit dem Laden des Videos akzeptieren Sie die Datenschutzerklärung von YouTube.
Mehr erfahren

Video laden

Quelle Titelbild: Evernine

 

Hier schreibt Doris Breitenreuter für Sie

Mehr Artikel vom Autor