Umfrage zu Big Data

Warum Big-Data-Analysen oft scheitern

Rund zwei Drittel der 152 Namur -Mitgliedsunternehmen sind davon überzeugt, dass die Datenanalyse prinzipiell zur Optimierung von Anlagen geeignet ist. Die Umsetzung von Big-Data-Analysen verläuft jedoch in den Betrieben eher schleppend, wie eine Umfrage der Technischen Universität München ergab.

Big-Data-Analysen sind zukünftig unverzichtbar, so die Experten. Sie werden gerne als Schlüssel für zukünftige Industrie-4.0-Konzepte angesehen. In der Praxis stehen Anwender bei der Umsetzung und Einführung solcher Methoden aber vor großen Herausforderungen. „Unstrukturierte Daten sind das größte Hindernis beim Einsatz von Big-Data-Analysen in der Prozessindustrie“, erklärt Professorin Dr.-Ing. Birgit Vogel-Heuser, Leiterin des Lehrstuhls Automatisierung und Informationssysteme an der Technischen Universität München. „Dies bestätigen auch die Ergebnisse unserer Umfrage.“

Messgeräte in chemischen Anlagen produzieren eine Vielzahl an Nutzungs-, Wartungs- und Qualitätsdaten. Diese werden aber meist in verschiedenen Datenbanken gesammelt und selten mit einer synchronen Zeitstempelung versehen. Zusammenhänge sind im Nachhinein schwer auszumachen, bzw. sie müssen für eine Analyse meist händisch zusammengefügt werden. Dies sind aber nicht die einzigen Herausforderungen. Weiter wurden in der Umfrage die fehlende Definition eines allgemeinen Datenmodells, die Unterschiedlichkeit der Schnittstellen und der hohe Implementierungsaufwand bemängelt, so Vogel-Heuser.

Wie umgehen mit unstrukturierten Daten?

Um die Herausforderung der unstrukturierten Daten besser zu meistern, entsteht derzeit mit Sidap ein skalierbares Integrationskonzept zur Datenaggregation, -analyse, -aufbereitung von großen Datenmengen in der Prozessindustrie. Daran arbeiten Betreiber wie Bayer, Covestro und Evonik, Armaturenhersteller wie Samson, Feldgerätehersteller wie Krohne und Sick, sowie IT-Unternehmen wie Gefasoft und IBM mit der TU München zusammen. Hierbei sollen aus großen Datenmengen, die u. a. von vorhandenen Messgeräten stammen, neue Zusammenhänge ermittelt werden.

Gleichzeitig soll eine datengetriebene sowie serviceorientierte Integrationsarchitektur entwickelt werden. „Damit werden Messdaten, Informationen aus der Instandhaltung sowie Daten aus dem Engineering und den Prozessleitsystemen unter Berücksichtigung ihrer unterschiedlichen Semantik in abstrahierter, integrierter und zugriffsgeschützter Form für interaktive Analysen zugänglich“, so Vogel-Heuser. Erklärtes Ziel sei es, mit aufbereiteten Daten aus heterogenen Quellen die Anlagenverfügbarkeit zu erhöhen, indem Ausfälle vermieden und die Wartung angepasst wird.

Bitte beachten Sie

Die Beiträge in der Rubrik "Trends und Innovationen" sind Inhalte unseres Medienpartners Vogel Business Media. Sie spiegeln nicht unbedingt die Meinung von DATEV wider.