Big Data Analytics

Datenauswertung in Produktion und Logistik

Big Data Analytics hat Geschäftsprozesse in vielen Bereichen effizienter gemacht: Die Auswertung der Unmengen an anfallenden Maschinendaten gibt Aufschluss über die Vergangenheit und - noch wichtiger - prognostiziert die Wahrscheinlichkeit künftiger Ereignisse. Vorausgesetzt, die Daten sind vollständig, konsistent und aktuell. Mangelnde Datenqualität ist oft der entscheidende Hemmschuh für aussagekräftige Analysen, die in verschiedensten Einsatzbereichen Optimierungen bringen sollen.

image.jpg

© Bruce Rolff / Shutterstock

Big Data Analytics in der Produktion, das bedeutet zunächst einmal Analyse von Maschinendaten für die Optimierung von Produktions- und Logistikprozessen. Zentrale Aufgabe für Unternehmen ist es, die für sich genommen "dummen" Rohdaten aus Maschinen und Betriebsprozessen so zu integrieren und zu analysieren, dass sie sich zu echten Steuerungsinformationen veredeln lassen. Softwarelösungen untersuchen die Gesamtheit der vorhandenen Daten direkt nach dem Zeitpunkt, an dem sie entstehen, und können darin versteckte Muster erkennen, die auf mögliche Fehler oder Verbesserungspotenziale hinweisen. Sie finden kleinste Details, die auch dem Auge des erfahrensten Experten entgehen.

Nachholbedarf in der Industrie

Im Bereich Wartungsmanagement und -optimierung sind vor allem Sensordaten relevant. Diese Machine-to-Machine-Daten (M2M), die in Gebäuden, Geräten oder innerhalb der Infrastruktur anfallen, dienen der Erfassung von Zuständen und Einflüssen. Moderne Fertigungsanlagen produzieren davon laufend große Mengen, die sich beim Gerätehersteller oder bei spezialisierten Dienstleistern automatisch analysieren lassen.

Registriert die Software Auffälligkeiten in den Daten, wird untersucht, ob es sich um relevante Informationen oder lediglich um statistische Ausreißer handelt. Gegebenenfalls wird der zuständige Servicemanager alarmiert, um die notwendigen Schritte einzuleiten.

Beim Einsatz entsprechender analytischer Software hat die Fertigungsbranche allerdings noch Nachholbedarf, wie die Studie "Wettbewerbsfaktor Analytics" von SAS und der Universität Potsdam zeigt. Lediglich 37 Prozent der im Rahmen der Studie befragten Fertigungsunternehmen werten ihre Maschinen-und Sensordaten überhaupt aus. Und dort, wo analytische Software zum Einsatz kommt, geschieht dies meist nur spontan, einzelfallbezogen und wenig strategisch.

Fast alle befragten Industrieunternehmen nutzen weniger als die Hälfte der aktuell verfügbaren Unternehmensdaten für Analysezwecke. Wenn Daten überhaupt verwendet werden, dann stammen diese überwiegend aus Systemen für Enterprise Resource Planning (zum Beispiel SAP) oder Customer Relationship Management. Sensor- und Maschinendaten spielen nur eine untergeordnete Rolle.

Tausende von Parametern im Blick

Ein markantes Anwendungsbeispiel für die Vorteile, die Big Data Analytics im Zusammenhang mit Maschinendaten jedoch bringen kann, ist "Predictive Asset Maintenance". Die vorausschauende Wartung kommt nicht nur in der Produktion, sondern auch im Energiesektor zum Einsatz.

Ein Beispiel dafür ist der Ölproduzent Shell Exploration and Production: Dort werden täglich sehr große Mengen an Daten zu Pumpleistung, Bohrkernumdrehung und Materialverbrauch der Ölplattform Perdido im Golf von Mexiko erfasst und dann automatisch analysiert.

Die Big-Data-Analytics-Software von SAS Predictive Asset Maintenance sucht gezielt nach Abweichungen von bestimmten Datenmustern und gibt den Ingenieuren Hinweise auf den Zustand der Maschinen. Zum Beispiel alarmiert das System, wenn die Wahrscheinlichkeit steigt, dass eine Förderpumpe demnächst ausfällt. Ein einziger Wartungsingenieur ist somit in der Lage, Tausende von Parametern gleichzeitig im Blick zu behalten - und schnell zu reagieren.

Ein Beispiel aus der Industrie, wo die Analyse von Maschinendaten zu einer wesentlichen Verbesserung von Prozessen führte, ist Posco: Der südkoreanische Stahlkonzern hatte einen zu hohen Ausschuss bei warmgewalzten Stahlbändern. Herkömmliche statistische Verfahren konnten die Ursache dafür nicht identifizieren. Die Analyse der physikalischen Prozesse mithilfe der Software von SAS führte zu einer Senkung des Ausschusses von 15 Prozent auf 1,5 Prozent.

An anderer Stelle konnte die analytische Software den Auslöser für Profitabilitätsunterschiede zwischen verschiedenen Produktionsanlagen aufdecken - dies war der Ausgangspunkt für Optimierungsmaßnahmen, die jährlich 1,2 Millionen US-Dollar einbringen. Und auch die Lagerhaltung ließ sich mithilfe von Analytics entlasten. Nach entsprechenden Optimierungsmaßnahmen ist es Posco möglich, mit einem um 60 Prozent reduzierten Lagerbestand den Kundenbedarf in gewohntem Maß zu decken.

Eine hohe Datenqualität ist zwingend notwendig, damit fundierte Entscheidungen getroffen werden können.

© Sakuoka / Shutterstock

Eine hohe Datenqualität ist zwingend notwendig, damit fundierte Entscheidungen getroffen werden können.

Vorteile von Big Data Analytics

Wie die angeführten Beispiele zeigen, bringt die Auswertung von Maschinendaten beim Einsatz einer leistungsstarken Analyselösung zahlreiche Vorteile. Die wichtigsten sind:

  • Intelligente Automatisierung spart Zeit
  • Maschinen lassen sich mithilfe von Big Data Analytics in Echtzeit über ihren ganzen Lebenszyklus hinweg steuern und optimieren. Auf dieser Basis können neue Service- und Vertriebsmodelle entwickelt werden.
  • Moderne Analytics-Software ist in der Lage, die Daten nach bislang unentdeckten Fehlermustern zu durchsuchen. Herkömmliche Systeme dagegen können nur bei bekannten Fehlern einen Alarm auslösen.

Achillesferse Datenqualität

Automatisierte Prozesse sind nur so gut wie die Daten, auf denen sie beruhen. Menschliche Fehler, fehlerhafte Sensoren, inkonsistente und veraltete Daten beeinflussen das Ergebnis. Und bei Prozessen, die im Verborgenen ablaufen, sind die Fehler(quellen) nicht sofort ersichtlich. Die maschinell erzeugten Daten müssen mit den zu erwartenden Werten abgeglichen und in den Monitoring-Prozess eingebunden werden.

Ein Beispiel: Ein Logistikunternehmen hat Hunderte von Sensoren in die LKWs seiner Flotte integriert. Wenn einer davon einen zu niedrigen Reifendruck meldet, bedarf das der Prüfung. Handlungsbedarf ergibt sich in jedem Fall, gleich ob der Sensor korrekt einen Schaden meldet oder einfach defekt ist.

Damit dieser Handlungsbedarf frühzeitig erkannt wird, ist es entscheidend, dass für die Analyse aktuelle, konsistente und vollständige Daten zur Verfügung stehen. Doch gerade an der Datenqualität scheitern Analyseversuche oftmals. Einige Gründe:

  • "Silo"-Bildung: Wenn Daten in komplett voneinander abgetrennten Bereichen
  •  gelagert werden, kann kein Abgleich und Austausch stattfinden.
  • Menge alleine reicht nicht: Es werden zwar viele, aber nicht die richtigen Daten erhoben.
  • Menschliche Fehler: Unternehmen benötigen eine technologische Grundlage, mit der sie die Datenqualitätsprobleme zuverlässig aufdecken und beheben.

Eine hohe Qualität der Daten ist ausschlaggebend dafür, dass fundierte Entscheidungen getroffen und effektive Maßnahmen ergriffen werden können. Sogenannte Data Governance ermöglicht es, Daten zu analysieren, zu verbessern und zu kontrollieren.

Strategischer Ansatz erforderlich

Wenn im Unternehmen eine Strategie zur Verbesserung der Datenqualität aufgesetzt wird, ist zuerst eine Frage zu klären: Was macht "gute" (interne und externe) Daten aus? Die Antwort: Sie müssen in allen Systemen konsistent, aktuell und vollständig sein. Was etwa unter "aktuell" zu verstehen ist, kann sich von Unternehmen zu Unternehmen und von Branche zu Branche unterscheiden. Ein Beispiel: Energieunternehmen nutzen Daten aus Smart-Meters- und Smart-Grid-Sensoren in Produktions- und Übertragungsanlagen, um genaue Prognosen über den Verbrauch zu erstellen.

Eine Vielzahl von Sensoren übermitteln Unmengen an Daten, die nur dann nützlich sind, wenn sie schnell sinnvoll ausgewertet werden.

© Jirawat Jerdjamrat / Shutterstock

Eine Vielzahl von Sensoren übermitteln Unmengen an Daten, die nur dann nützlich sind, wenn sie schnell sinnvoll ausgewertet werden.

Wie viele Kunden werden gleichzeitig Strom nutzen? Wie werden sie ihn nutzen? Wie wird das Wetter die Nachfrage beeinflussen? Je genauer die Vorhersagen zum Verbrauch sind, desto besser kann der Energieversorger handeln und desto weniger Ausgleichsenergie ist notwendig. Eine Erhöhung der Messdichte von 15- auf 3- oder 1-Minuten-Intervalle kann eine erhebliche Verbesserung der Datenqualität mit sich bringen.

Fazit

Im Zuge der zunehmenden Digitalisierung wird die Menge an Maschinen- und Sensordaten weiter steigen. Diese Informationen bieten ein riesiges Potenzial: ob zur Optimierung der Netzauslastung, für die frühzeitige Wartung von Maschinen, als Entscheidungsgrundlage im Kreditgeschäft, zur Einsatzplanung von Fuhrparks oder zur Vorhersage von Kundennachfragen. Doch die Erschließung dieses Potenzials erfordert eine hohe Datenqualität und leistungsstarke Analysesoftware.

Wer Daten lediglich erfasst, sie aber nicht mit Big Data Analytics aufbereitet beziehungsweise auswertet, verzichtet auf eine wichtige Entscheidungsgrundlage. Unternehmen, die sich nur auf ihr Bauchgefühl und Erfahrungswerte verlassen, statt datengetriebene Entscheidungen zu treffen, verpassen damit wichtige Geschäftsvorteile.

Mehr zum Thema

Kundendialog über Social Media
Ratgeber: Social Media

Durch die sozialen Medien haben die Mitarbeiter heute viel mehr Möglichkeiten als früher, Informationen aus dem Unternehmen zu verbreiten. Das…
office, app, mobile
Mobiles Büro

In unserem großen Vergleichstest sehen Sie, welche Apps ihr Geld wert sind und von welchen Sie sich besser fern halten sollten.
Best Practice: Rossmann setzt auf QlikView, und das sehr effizient.
Best Practice

Die Business-Discovery-Plattform QlikView ermöglicht der Drogeriekette Rossmann die schnelle und einfache Auswertung großer Mengen von Bondaten.
ARM Prozessoren
ARM-Prozessoren

Der Siegeszug der Smartphones und Tablets brachte einen Aufschwung für ARM-Prozessoren. Wir werfen einen Blick hinter die Kulissen der extrem…
Trendthema Social Business
Internet der Dinge

M2M ermöglicht einen globalen Datentransfer in Echtzeit und hat das Zeug dazu, unsere Arbeitswelt zu revolutionieren. Wir müssen die Möglichkeiten,…