Direkt zum Inhalt
Industrial IT

Big Data bringt Einsparungen in Milliardenhöhe

Bild: Funtap / Shutterstock.com

Die Nutzung von Maschinellem Lernen ist eine der Kernanwendungen, um Produktionsverfahren mit Künstlicher Intelligenz zu verbessern. Der Ansatz bringt jedoch sehr spezielle Anforderungen mit sich, die weit über das maschinelle Lernen hinausgehen. Obschon die Akzeptanz dieser Technologie nur sehr langsam voranschreitet, gibt es hierzu allerhand Anwendungen – mit mehr oder weniger großem Erfolg. Dieser hängt im Wesentlichen davon ab, ob die VDI/VDE-Richtlinie 3714 eingehalten wird.

Im Rahmen des Projektes www.future-data-assets.de, gefördert vom BMWi, haben sich Industriefirmen und Forschungsinstitute zusammengeschlossen, um den bilanziellen Wert von Daten zu bestimmen. Schnell wurde dabei allen Partnern klar, dass Daten keinen Wert an sich haben, sondern der Wert immer von ihrer Nutzung abhängt und die jeweils antizipierte Datennutzung sehr spezifische Qualitätsanforderungen an die Daten stellt. Eine wichtige, daraus resultierende Frage war nun, welche Auswirkungen es auf den Datenwert hat, wenn die Daten unterschiedliche Qualitäten haben und wie man den Datenwert möglichst objektiv messen kann.

Das Ergebnis ist ein Fragebogen, der unter https://readiness-assessment.com  nach Registrierung öffentlich einsehbar und nutzbar ist. Das Ergebnis der Fragen ist eine sehr ausführliche Bewertung, wie gut die eigene Datenqualität im Hinblick auf Big-Data-Analytics-Projekte ist. Zudem werden wichtige Hinweise gegeben, welche Maßnahmen empfehlenswert sind, um die eigene Produktion oder Fertigung zu optimieren.

Was ist der konkrete Nutzen von Daten in der Produktion?

Um diese Frage möglichst genau zu beantworten, hat atlan-tec Systems alle dort bisher durchgeführten oder unterstützten Projekte aus den Jahren 1994 bis 2020 ausgewertet, für die ausreichende Informationen und Daten zur Verfügung stehen. Bei der Auswahl der Projekte wurde auf folgende Kriterien geachtet:

  • Alle zur Modellbildung wichtigen Daten liegen vollständig als Datensätze vor.
  • Alle Verbrauchsdaten der Rohstoffe und der Energie und die Menge der erzeugten Produkte liegen vor.
  • Die Preise für Rohstoffe, Energie und Produkt lagen vor oder konnten wegen öffentlich verfügbarer Daten rekonstruiert werden.
  • Es konnten erfolgreiche Machine Learning Modelle erzeugt und mit unabhängigen Testdaten validiert werden.
  • Die Modelle konnten selbstständig als Softsensoren/Prädiktoren oder als Basis für Echtzeitoptimierer verwendet werden.
  • Es liegen ausreichend genaue Informationen in der standardisierten Projektdokumentation vor, die eine genaue Beurteilung der Datenqualität ermöglichen.

Es ergab sich eine Datenbasis mit insgesamt 338 erfolgreich durchgeführten Projekten an Industrieanlagen aus den Branchen: Kunststoff, Chemie, Lebensmittel, Zement, Raffinerie, Energie, Papier und Metallurgie. Die Produktionsverfahren umfassen beispielsweise Prozesse in Entschwefelungsanlagen, Methanolanlagen, Ammoniakanlagen, Zementöfen, Kartoffelchipsproduktion, Cracker, Sinteranlagen, Extruder, Spritzgiessen und weiteren. Nach umfangreichen Recherchen ist das weltweit die größte Datenbasis dieser Art.

Die Ziele der durchgeführten Projekte bestanden entweder darin, eine vorgegebene Qualitätsspezifikation bei den erzeugten Produkten sicher einzuhalten oder den Durchsatz (Ausbeute, Yield) mit gleichbleibender Qualität zu steigern. Letztlich geht es bei der Produktion immer um das zentrale Ziel, möglichst kostengünstig ein Produkt zu erzeugen, das die Spezifikation gerade eben, aber sicher einhält. Alle anderen Parameter sind nur Hilfsgrößen, um zu beurteilen, wie nah man dem Optimum gekommen ist.

Einsparungen in Milliardenhöhe

Über alle Beispiele hinweg ergibt sich eine mittlere Einsparung von 2,87 Prozent des gesamten erzielten Umsatzvolumens der Prozesse. Bei allen Projekten zusammen ergibt das eine Einsparung von fast einer Milliarde Euro pro Jahr und eine Energieeinsparung von 8.350 Gigawattstunden pro Jahr, das entspricht etwa 1,6 Prozent des Energieverbrauches des BRD. Die Kosten für Software- und Dienstleistungen liegen dagegen nur in einer Größenordnung von in Summe circa 40 Millionen Euro über alle Projekte hinweg gerechnet. Die Projekte haben sich daher im Durchschnitt nach 15 Tagen amortisiert!

Selbstverständlich kommen diese 15 Tage nur zustande, da es einzelne industrielle Großprozesse in den Daten gibt, bei denen bereits 0,8 Prozent Einsparung zweistellige Millionenbeträge einsparen. Immer jedoch konnte eine Zeit bis zum Return on Investment von weniger als sechs Monaten erreicht werden. Würde ein typisches DAX-Unternehmen diese Technologie also komplett auf die gesamte Produktion ausrollen, würde sich dessen Ertrag vor Steuern im Mittel fast verdoppeln, was auch einen erhöhten Aktienkurs zur Folge hätte. Die Investition für diesen Effekt macht nicht mal ein Prozent des Jahresumsatzes aus.

Datenqualität als Schlüsselgröße

Die Qualität der Daten wurde im Nachhinein für alle diese Projekte bewertet. Der Bewertungsschlüssel dabei war das bewährte SIPOC-Konzept aus Six-Sigma-Projekten gemäß DIN ISO 13053-2. SIPOC bedeutet „Supplier, Input, Process, Output, Customer“ und beschreibt die gesamte Prozesskette einer Produktion. Während viele statistische Modellierungsmethoden von klassischen Six-Sigma-Projekten im Zeitalter der Künstlichen Intelligenz hoffnungslos veraltet sind, ist das bewährte Vorgehensmodell von Six Sigma hochaktuell und wird auch in der Big-Data-Richtlinienreihe VDI/VDE 3714 empfohlen.

Die Anforderungen aus der SIPOC-Methode beinhalten, dass für jedes Stück oder jede Menge Produkt, die im Prozess erzeugt wird, der gesamte Lebenslauf exakt reproduzierbar ist. Für jede analysierte Menge des Produktes muss genau bekannt sein, wann sie wo welchen Prozessbedingungen unterlag und welche Eigenschaften die Rohstoffe haben. Mithin ist eine exakte Produktverfolgung – auch in Batchprozessen und Kontinuierlichen Prozessen entscheidend für den Erfolg.

Ist diese Kausalkette messtechnisch abgebildet und kann mit entsprechenden Rechenmodellen verfolgt werden, bedeutet dies, dass alle Größen, die auf Energieverbrauch, Rohstoffverbrauch, Kosten und Qualität einwirken, auch kausalrichtig gemessen werden. So müssen alle Einflussgrößen den Auswirkungen richtig zugeordnet werden. In diesem Falle lassen sich aus den Rohstoffeigenschaften und den Prozessbedingungen auch Qualität, Ausbeute, Kosten und Durchsatz genau vorhersagen.

Bei Prozessen, die nach dem Stand der Technik und gemäß dieser SIPOC-Anforderungen instrumentalisiert werden, können reproduzierbare Datensätze erzeugt werden. Diese Datensätze zeigen im Idealfall bei „gleichen“ Herstellbedingungen auch „gleiche“ Energieverbräuche, Rohstoffverbräuche, Kosten und Qualität, können also zu typischen, repräsentativen Datensätzen zusammengefasst werden. Treten dagegen Einflüsse auf, die nicht messtechnisch erfasst sind, sind Datensätze zueinander widersprüchlich. Mit entsprechenden Methoden lässt sich die Güte der Datensätze damit objektiv berechnen.

„What-If-Optimizer“

Für die gesamte Datenbasis mit den 338 Projekten wurde im zweiten Schritt  die Annahme simuliert, dass alle Projekte die Anforderungen aus dem SIPOC-Schema zu 100 Prozent erfüllt hätten. Daraus ergeben sich Modelle, die einen Restfehler von max. 1% aufweisen, was bei einem auf realen Daten basierenden Modell kaum möglich ist, da die Sensoren nicht mehr Reproduzierbarkeit hergeben.

Dann wurde berechnet, wie sich ein derart ideales Modell auf die Einsparungen der Projekte ausgewirkt hätte. Hierbei liegt die Logik zu Grunde, dass ein genaueres Modell zur Prognose von Qualität, Ausbeute etc. auch im Optimierer zu einer präziseren Berechnung der optimalen Sollwerte führt. Dies wurde für alle Projekte mit einem „What-If-Optimizer“ simuliert und aus dem Quotienten dieser geschätzten potenziellen optimalen Einsparungen zu den tatsächlich erzielten Einsparungen wurde dann ein „SIPOC-Score“ berechnet, der diesen Projekten zugeordnet wurde.

Der letzte Schritt der Studie bestand darin, bei allen der Projekte einen Satz aus Fragen zu entwickeln, die es erlauben, die Qualität der Daten entlang der SIPOC-Prozesskette abzuschätzen. Die Gewichtungsfaktoren dieser Fragen wurden dann so eingestellt, dass der daraus abgeschätzte SIPOC-Score im Mittel möglichst genau dem berechneten SIPOC-Score entspricht. Die Fragen wurden durch weitere Projektpartner an die Sprache und die Gegebenheiten in verschiedenen Industrien und Branchen angepasst. Dies führte zu der Erarbeitung des oben erwähnten Self-Assments: https://readiness-assessment.com

Auswirkungen der Datenqualität auf die Effizienz des Maschinellen Lernens

Der resultierende prozentuale SIPOC-Score kann mit dem Mittelwert der erzielten Effizienzverbesserungen über alle Industriebereiche von 4,3 Prozent multipliziert und dann mit dem Umsatz des betrachteten Prozesses multipliziert werden. So erhält man eine erste Abschätzung, welchen Effekt unsere spezielle Technologie des automatisierten Machine Learnings auf die eigene Wirtschaftlichkeit haben wird.

Um die Auswirkungen an einem typischen Beispiel zu demonstrieren: Bei einer typischen Methanolanlage beträgt der Umsatz durch die produzierte Menge Methanol 12.728,- Dollar pro Stunde, also 111,5 Millionen Dollar im Jahr. Wenn hier ein ein Readiness-Index von 60 Prozent berechnet wird, ergibt sich ein Zusatzertrag von 328,39 Dollar pro Stunde (0,6x0,043x12728 Dollar pro Stunde), was im Jahr 2,8 Millionen Daten pro Jahr entspricht. Mit ein paar Investitionen in die Messtechnik für circa 250.000 Dollar ließe sich dieser Mehrertrag auf 4,8 Millionen Dollar pro Jahr steigern, wenn die Readiness dadurch auf 100 Prozent steigen würde.

Der zu erwartende Effekt auf die Profitabilität und die Nachhaltigkeit von Fertigungs- und Produktionsprozessen ist derartig groß, dass sich selbst erhebliche Investitionen in Messtechnik, Analytik und Datenqualität nach deutlich weniger als drei Monaten amortisieren. Auch angesichts der Diskussionen über Nachhaltigkeit hoffen wir auf eine grundlegende Veränderung im Mindset der Europäischen Industrie, vor allem auf das Erkennen der immensen Vorteile und Potenziale, die sich aus der Digitalisierung und dem Einsatz moderner Big-Data-Methoden, wie dem maschinellem Lernen, ergeben. Die meisten industriellen Anwender finden sich derzeit im asiatischen Raum. Diese Unternehmen liefern der europäischen Industrie einen immer stärkeren Wettbewerb und werden uns mittelfristig überholen.

Autor: 
Thomas Froese, Vorsitzender Fachausschuss 7.24 Big Data

Ihre Ansprechpartnerin:
Dr.-Ing. Dagmar Dirzus
VDI-Topthema Digitale Transformation
E-Mail-Adresse: dirzus@vdi.de

Artikel teilen