Industrienachrichten

Deutsche Industrie schöpft Big-Data-Potenzial nicht aus

Viel Nachholbedarf vorhanden

Die deutsche Industrie nutzt Big Data vor allem für das Qualitätsmanagement. Rund sieben von zehn Unternehmen mit Industrie-4.0-Anwendungen werten ihre in der Produktion anfallenden Datenmengen aus, um die Qualität ihrer Produkte zu kontrollieren. Vorreiter ist dabei die Elektroindustrie, wie der Deutsche Industrie 4.0-Index 2018 der Unternehmensberatung Staufen zeigt.

Allerdings schöpfen die Betriebe dabei das Potenzial von Big Data längst nicht aus. Den Ursachen von Qualitätsproblemen sind sie mit ihren Analysen bisher jedenfalls kaum auf der Spur, wie ein gemeinsames Forschungsprojekt von Staufen und der TU Darmstadt belegt. In der Elektroindustrie kontrollieren inzwischen fast drei Viertel der Unternehmen die Qualität mithilfe von Big Data. Im Maschinenbau dagegen liegen das Qualitätsmanagement (59%) und die Produktentwicklung (51%) fast gleichauf. „Die Unternehmen haben erkannt, dass Daten eine wichtige Grundlage für die Ermittlung und Lösung von Qualitätsproblemen sind. Doch sie nutzen die in der Produktion anfallenden Informationen bisher nur zu einem ganz geringen Teil“, erklärt Tobias Böing, Consultant bei der auf das Qualitätsmanagement spezialisierten Staufen-Tochter Staufen Quality Engineers GmbH (S.QE) „So beschränken sich die Firmen darauf, Abweichungen von vorgegebenen Standards oder Kennzahlen zu ermitteln. Aber in der Qualitätssicherung wird das Potenzial von Datenanalysen (Manufacturing Analytics) bisher überhaupt noch nicht ausgeschöpft.“

Ursachen besser erkennen

Ein genauer Blick auf die Produktionsdaten ermöglicht jedoch Einblicke in die Ursachen von Qualitätsproblemen und in Wirkungszusammenhänge, die nicht offensichtlich sind. Gemeinsam mit dem Institut für Produktionsmanagement, Technologie und Werkzeugmaschinen (PTW) der TU Darmstadt hat S.QE in einem Forschungsprojekt die Möglichkeiten von Datenanalysen im Produktionsprozess für das Qualitätsmanagement untersucht. Das Ergebnis: Ein großer Teil der Industrieunternehmen setzt Big Data lediglich auf der ersten Stufe (Descriptive Analytics) ein. „So schaffen die Betriebe zwar Transparenz im Produktionsprozess, können aber keine Aussagen zu Ursache-Wirkungs-Beziehungen treffen (Diagnostic Analytics). Auch für höherstufige Anwendungen wie Predictive oder Prescriptive Analytics zum vorzeitigen Erkennen von potenziellen Störungen beziehungsweise zur Automatisierung der Problembehandlung fehlt dann die dafür notwendige kausale Beziehung“, sagt Tobias Böing.

Vieles fehlt noch

Die für ein vollumfängliches Qualitätsmanagement notwendige Analyse (Manufacturing Analytics) findet sich noch selten in den Unternehmen. Denn es fehlt an Know-how und Software sowie passenden Datenbankstrukturen. Zudem werden bisher nicht alle gemessenen Daten in Speichersysteme überführt, wo sie im verlinkten Zustand ausgelesen und analysiert werden können. Stattdessen nutzen die Unternehmen häufig weiterhin traditionelle QM-Methoden, die zum Teil sogar noch auf Papier basieren und mit der Komplexität der Produkte und Produktionsnetzwerke nach und nach an ihre Grenzen stoßen.

Mann neben Bedienpanel
Die Technologie für Big Data ist längst entwickelt, doch viele Unternehmen nutzen die Daten aus der Produktion bisher kaum.
 
Weitere Informationen