Industrial Big Data: Tieferes Prozessverständnis durch Daten
Modernes Informationsmanagement in der Produktion

Thomas Thiele, Max Hoffmann und Tobias Meisen

Längst hat die digitale Transformation auch die industrielle Produktion erreicht. Insbesondere getrieben durch die Erfolge und Fortschritte der vorwiegend amerikanischen IT-Unternehmen ist diese vierte industrielle Revolution, oder Industrie 4.0, wie sie in der Hightech-Strategie der Bundesregierung heißt, in vollem Gange. Eine Vielzahl von Begriffen und Technologien wie Internet der Dinge, Cyber-Physische Systeme und Big Data bilden das Rahmenwerk dieses Wandels. Im vorliegenden Beitrag wird insbesondere der Big Data Begriff adressiert und eine Abgrenzung dieses umfassenden Konzepts hinsichtlich der Definition von Industrial Big Data unternommen. Zudem wird anhand von Fallbeispielen exemplarisch erläutert, welche Mehrwerte die Anwendung dieser Methoden in der Produktion generiert.

Datenintegration als Schlüsselfaktor

Der Begriff der digitalen Transformation beschreibt weit mehr als die Mechanisierung, Automatisierung und Robotisierung unserer Arbeitswelten. Vielmehr fasst er die durch eine fortschreitende digitale Vernetzung induzierte Veränderung unserer Gesellschafft zusammen. Dabei durchdringt die Digitalisierung zunehmend das tägliche Leben und nimmt Einfluss auf zentrale Lebensbereiche (vgl. hierzu beispielsweise Statistiken in [1] bzgl. der stetig steigenden Nutzung digitaler Medien und Techniken). In der betriebswirtschaftlichen Praxis von Unternehmen impliziert dies eine Auseinandersetzung mit modernem Marktverhalten, Geschäftsmodellen sowie bewährten Lebens- und Arbeitswelten. 

Ein wesentlicher Enabler dieses Wandels sind die Möglichkeiten, die uns Big Data eröffnen. Big Data ist gleichzeitig ein Begriff und eine Sammlung von Methoden: Einerseits beschreibt der Ausdruck die stetige Zunahme des Datenvolumens, der -geschwindigkeit und der -vielfältigkeit. Andererseits steht er für die Befähigung technischer Systeme zur Speicherung, Nutzung und Analyse großer Datenmengen – sogenannter Big Data Technologien. [2] Es ist daher wenig verwunderlich, dass die Übertragung der Technologien und Vorgehensmodelle in den industriellen Kontext durch immer mehr produzierende Unternehmen angestrebt wird. Die produzierende Industrie generiert bereits heute, befähigt durch die vorangegangenen Digitalisierungsbemühungen, große Mengen digitalisierter Daten [3]. Ihre Erschließung und Nutzbarmachung verspricht vielfältige Möglichkeiten hinsichtlich der Optimierung und des Verständnisgewinns zur Gestaltung von Arbeits- und Geschäftsprozessen. Peter Sondergaard, Senior Vice President bei Gartner, bezeichnete den Wert von Informationen treffend mit „Information is the oil of the 21st century, and analytics is the combustion engine“ [4]. 

Diese Übertragung von Big Data auf die industrielle Anwendung – sogenanntes Industrial Big Data – und die Erschließung der Potenziale ist daher für viele Unternehmen eines der strategischen Ziele. Industrial Big Data beschreibt das zugrundliegende Konzept und die Methoden zum Umgang mit Daten, die in einer fortgeschritten vernetzten, digitalisierten Industrie entstehen [3]. Dabei existieren grundlegende Unterschiede zu Big Data. Industrial Big Data sind in der Regel strukturierter, stark korreliert und zeitabhängig sowie insgesamt ähnlicher in ihrer semantischen Repräsentation.
Ein wesentliches Element zum Verständnis dieser Produktionsdaten für Analysten liegt in der Integration der Daten, die sich ohne domänenspezifisches Fachwissen nur schwer realisieren lässt. So haben Sensor- und Prozessdaten eine eindeutige physikalische Bedeutung und ihnen liegt ein deterministischer Interpretationsraum zugrunde, dessen Analyse fachliches Domänenwissen voraussetzt. Es ist somit nicht hinreichend, die Technologien rund um Big Data lediglich anzuwenden, vielmehr ist eine tiefergehende Auseinandersetzung mit selbigen im industriellen Kontext notwendig. Jede Phase des Auswertungsprozesses (Bild 1) bringt hierbei spezifische Herausforderungen mit sich und wird um weitere, gemeinsame Herausforderungen nach beispielsweise Privatsphäre und Skalierung ergänzt. 


Bild 1: Analysevorgehen im Kontext von (Industrial) Big Data.
Zur erfolgreichen Implementierung dieses Prozesses sieht sich die Industrie insbesondere einer zentralen Herausforderung gegenüber. In den letzten 30 Jahren lag der Fokus der Digitalisierung und hiermit verbundener Investitionen in die Automatisierungstechnik auf einer Optimierung spezifischer Kernprozesse. Im Ergebnis dieser Unternehmenspolitik führte dies zur Ausprägung von Insellösungen einzelner Teilprozesse und damit zu verstreuten Datenbeständen. Deren Akquisition, Zusammenführung und Homogenisierung ist daher eine erste Hürde, die es auf dem Weg zu Industrial Big Data zu nehmen gilt. Bisher wurden hierfür sogenannte Business Intelligence Ansätze, die auf Data Warehouses und Extract-Transform-Load (ETL) Integrationsprozessen zur Bereinigung, Aufbereitung und strukturierten Speicherung aufbauen, herangezogen. Für deren Einführung, Inbetriebnahme und Nutzung in den letzten zwei bis drei Jahrzehnten wurden mehrere Millionen Euro investiert [5]. Diese Ansätze setzen aber voraus, dass die Datennutzung, also der Zweck des Einsatzes, bereits vor der Zusammenführung bekannt ist (Schema-on-Write). Andernfalls ist die Definition der Zielstruktur (des Schemas) und des Integrationsprozesses nicht durchführbar. Für moderne Anwendungen ist dieses Vorgehen jedoch häufig nicht praktikabel, da die genaue Struktur der zu integrierenden Daten aufgrund ihrer Komplexität und Heterogenität im Vorhinein nur schwer abzuschätzen ist. Durch eine Vielzahl neuer Datenquellen und Analyseanfragen, die sich erst nach einer initialen Analyse des Betriebs ergeben, unterliegen die benötigten Schemata sowie die erforderliche flexible Zielstruktur ständig dynamischen Anpassungen. Da die Struktur von klassischen Data Warehouses dieser Dynamik nicht gerecht wird, wurden sogenannte Data Lake Konzepte entwickelt, die flexible Zielstrukturen für sämtliche anfallende Prozessdaten bereitstellen. Anstelle von Schema-on-Write setzt der Data Lake auf das sogenannte Schema-on-Read [6]. Unter dieser Methodik werden Strukturen zusammengefasst, die es ermöglichen, Daten in ihrer Rohform abzulegen und das Schema erst bei der Extraktion gemäß ihres Anwendungszwecks zu definieren, indem eine entsprechende Aufbereitung und Zusammenführung heterogener Daten aus verschiedensten Quellen stattfindet. Um dieses Konzept zu ermöglichen, bedarf es jedoch weitaus mehr als der bloßen Idee, sämtliche Daten in einen Data Lake zu speichern. Wie Gartner in [7] aufzeigte, sind Daten ohne ihren Kontext wertlos, da eine entsprechende Zusammenführung eben erst durch den Kontext bewerkstelligt werden kann. Dieser Umstand führt dazu, dass entweder sämtliche Nutzer der verfügbaren Daten über die entsprechenden Kenntnisse und das notwendige domänenspezifische Hintergrundwissen verfügen müssen oder dass der den Daten zugrundeliegende Kontext (repräsentiert durch Metadaten) durch entsprechende technologische Maßnahmen abgespeichert und bei entsprechenden Anfragen an die Daten in geeigneter Form mitgeliefert wird.

Als einer der Vorreiter in der Digitalisierung gestaltet die deutsche Automobilindustrie im Rahmen einiger Vorhaben bereits Konzepte, das Potenzial und die Chancen, die mit derartigen Speicherstrukturen einhergehen, aktiv zu nutzen. Nachfolgendes Fallbeispiel stellt die bisherigen Erkenntnisse und Ergebnisse, die das IMA im Rahmen der Begleitung derartiger Vorhaben erlangt hat, dar. Hiernach werden die Vorteile dieses Vorgehens anhand von Analyseprozessen dargestellt.

[ Wenn Sie den kompletten Beitrag lesen möchten, klicken Sie hier ]

Schlüsselwörter:

Industrial Big Data, Datenintegration, Künstliche Intelligenz, Machine Learning

Literatur:

[1] Statista: Internetnutzung in Deutschland, Dosier. 2016.URL: https://de.statista.com/statistik/studie/id/22540/dokument/internetnutzu..., Abrufdatum 29.05.2017.
[2] Klein, D.; Tran-Gia, P.; Hartmann, M.: Big Data. In: Informatiklexikon der Gesellschaft für Informatik. URL: https://www.gi.de/service/informatiklexikon/detailansicht/article/big-da..., Abrufdatum 29.05.2017.
[3] GE Intelligent Platforms: The Rise of Industrial Big Data. 2012.
[4] Gartner: Gartner Says Worldwide Enterprise IT Spending to Reach $2.7 Trillion in 2012, 2011. URL: http://www.gartner.com/newsroom/id/1824919, Abrufdatum: 29.05.2017.
[5] Statista: Umsatz mit Business-Intelligence- und Analytics-Software weltweit von 2010 bis 2015 (in Milliarden US-Dollar). 2017. URL: https://de.statista.com/statistik/daten/studie/259969/umfrage/umsatz-mit..., Abrufdatum 29.05.2017.
[6] Tamara Dull: Data Lake vs Data Warehouse: Key Differences. 2015. URL: http://www.kdnuggets.com/2015/09/data-lake-vs-data-warehouse-key-differe..., Abrufdatum 29.05.2017.
[7] Gartner: Gartner Says Beware of the Data Lake Fallacy 2014. URL: http://www.gartner.com/newsroom/id/2809117, Abrufdatum: 29.05.2017.
[8] Kamps, U.: Datenanalyse. In: Gabler Wirtschaftslexikon. URL: http://wirtschaftslexikon.gabler.de/Archiv/1823/datenanalyse-v10.html, Abrufdatum 29.05.2017.
[9] Tercan, H.; Al Khawli, T.; Eppelt, U.; Büscher, C.; Meisen, T.; Jeschke, S.: Improving the laser cutting process design by machine learning techniques. In: Production engineering 11 (2017) 2, S. 195-203.