31. März 2014 | pArtikel drucken | kKommentieren

Big Data hält Produktion am Laufen


Produktionsstopps und Ausfälle bei industriellen Anlagen sind aufwändig zu beheben und teuer. Unternehmen sammeln deshalb Daten, um zu wissen, wie es ihren Anlagen geht. Auf der Hannover Messe zeigt das Fraunhofer-Institut Verfahren, die diese großen Datenmengen analysieren und Betreiber frühzeitig warnen, wenn Probleme drohen.

Wenn Industrieunternehmen ihre Anlagen überwachen, fallen große Datenmengen an. Sensoren kontrollieren Temperaturen, Drücke, Förderströme oder Energiedaten. „Innerhalb einer Woche können leicht mehrere Terabytes zusammenkommen, wenn sekundengenau abgetastet wird“, sagt Dr. Olaf Sauer, Geschäftsfeldkoordinator „Automatisierung“ am IOSB.

Doch oft fehlen noch geeignete Verfahren, um die Informationen auszuwerten. „Heute nutzen die Betreiber lediglich sieben Prozent der Daten, um ihre Anlagen zu warten und vor Ausfällen zu schützen“, ergänzt Sauer.

Verfügbarkeit steigt, Energieverbrauch sinkt

Der Forscher stellt auf der Hannover Messe zusammen mit Kollegen aus Karlsruhe und Lemgo Verfahren vor, die dieses brachliegende Potenzial heben solen. Die Systeme des Fraunhofer Instituts für Optronik, Systemtechnik und Bildauswertung IOSB sind in der Lage, die gewonnen Daten so aufzubereiten, dass die Verfügbarkeit der Anlagen signifikant steigt und sich der Energieverbrauch reduziert.

Die Wissenschaftler aus Karlsruhe fokussieren sich auf kontinuierliche Prozesse in der chemischen oder pharmazeutischen Industrie. In Lemgo habe man Lösungen entwickelt, mit denen komplexe Fertigungstechnik und hybride Anlagen einfach überwacht werden können, erklärt Prof. Oliver Niggemann, stellvertretender Leiter des IOSB-INA in Lemgo aus.

Gemeinsam seien die Systeme des Fraunhofer IOSB für alle Industrieanlagen geeignet, die kapitalintensiv sind und lange laufen sollen. „Selbst Windenergieanlagen können damit überwacht werden“, so Sauer.

Die Forscher nutzen lernfähige Data-Mining-Methoden, die je nach Art der Fertigungsverfahrens die optimalen Abläufe errechnen. Das Referenzmodell werde mit den Ist-Daten verglichen, um Abweichungen schnell zu entdecken, genau zu lokalisieren und treffsicher zu beseitigen.

Eine aufwändige separate Modellierung der komplexen Anlagenstrukturen sei nicht nötig. Spezielle Datenlogger erfassen die Informationen zeitgenau und legen sie über das Netzwerk in einer Datenbank ab.

Eine Software normalisiere diese dann, mache sie vergleichbar und stelle Zusammenhänge zwischen ihnen her. Die Ergebnisse werden übersichtlich in einem Webportal dargestellt – anhand einer dreidimensionalen Landkarte.

„Täler“ und „Berge“ stellen die einzelnen Prozessphasen dar, auftretende Störungen und Anomalien lassen sich schnell erkennen. „Die Tools sind bereits seit einiger Zeit erfolgreich in der industriellen Praxis im Einsatz“, sagt Niggemann. Beispielsweise werde die Toolbox proKNOWS derzeit in Projekten mit den Partnern Jowat AG und Siemens erprobt.

Seite 1 | 2

Übersicht dieses Artikels:
  1. SEITE 1:Big Data hält Produktion am Laufen
  2. SEITE 2:Auf dem Weg zur Industrie 4.0

Hier schreibt CANCOM.info Redaktion für Sie

Mehr Artikel vom Autor

Lesen Sie weiter auf CANCOM.info