Industrie 4.0 erfolgreich umsetzen

NEW BUSINESS Guides - AUTOMATION GUIDE 2022
Um die Vorteile der industriellen Digitalisierung und Automatisierung zu lukrieren, gilt es, diese Vorhaben gut vorzubereiten. Gerade an diesem Punkt scheitern Projekte oft. © thisisengineering/pexels

Die Digitalisierungsspezialisten Thomas Lamprecht, Thomas Tropper und Andreas Roither-Voigt von Tietoevry Austria geben Einblick in die sechs Erfolgsfaktoren ...

... für die Umsetzung datengetriebener IIoT- und ­Automatisierungsvorhaben.

Wie kann man die Produktqualität verbessern und sich von Mitbewerbern differenzieren? Wie lassen sich die Herstellungskosten senken für mehr Wettbewerbsfähigkeit? Wie produziert man nachhaltiger und verringert den CO₂-Fußabdruck von Gütern? Wie kann man die Anlagen besser warten, um Ausfälle und unerwartete Kosten zu vermeiden?

Diese und weitere häufige Fragen sind Treiber der Digitalisierung, denn Unternehmen benötigen immer mehr aktuelle Daten aus ihrer Produktion, um ihre Ziele anzugehen. Am wachsenden Markt für Industrie-4.0-Lösungen wird die komplette Digitalisierung der industriellen Produktion angestrebt. Mehr denn je trägt die Prozessautomatisierung zum nachhaltigen Erfolg von produzierenden Unternehmen bei.

OT- und IT-Daten als Wertschöpfungstreiber
Standardisierte Lösungen, die für alle Unternehmen passen, gibt es jedoch nicht. Es kommt immer stark auf die aktuelle Struktur der Operational Technology (OT) und der IT im jeweiligen Unternehmen sowie auf die Zielsetzung an. 

Digitalisierung und Automatisierung erfolgen in der Regel zweidimensional: Einerseits horizontal (entlang der Wertschöpfungs- und Lieferkette), andererseits durch die vertikale Datenintegration (Konvergenz der Daten aus OT und IT). Kombiniert mit der Technologie des Industrial Internet of Things (IIoT) ändert sich gerade der Stellenwert von OT und IT. Sie werden zum Wertschöpfungstreiber und zahlen entscheidend in den Unternehmenserfolg ein.

Wie man Herausforderungen ­systematisch angeht
Um die Vorteile der industriellen Digitalisierung und Automatisierung zu lukrieren, gilt es, diese Vorhaben aber gut vorzubereiten – woran aktuell noch viele Projekte scheitern. Folgende Handlungsempfehlungen helfen bei der erfolgreichen Ausrichtung:

1. Mit dem WARUM starten
• Definieren Sie ein klares Business-Ziel mit Vision und Mission.
• Lernen Sie basierend auf einem Proof of Concept und skalieren Sie den aussichtsreichsten Piloten.
• Um Nutzen daraus ziehen zu können, müssen Sie zuerst investieren.

2. Das WIE planen punkto Organisation und Personal
• Digitalisierung ist kein IT-Projekt. Es erfordert die Zusammenarbeit von vielen Menschen – interdisziplinäre Teams, quer durch alle Jobfunktionen und mit „Hands on“-Mentalität.
• Arbeiten Sie iterativ mit langfristiger Orientierung, aber kurzen Ergebniszyklen.
• Kombinieren Sie traditionelle Rollen und Verantwortlichkeiten mit neuen.

3. Das WAS konsequent durch passende Technologien umsetzen
• Integrieren Sie Datenströme der heterogenen OT über standardisiertes Edge-Computing in die skalierbare Cloud.
• Erhöhen Sie die Datenqualität durch „Auf­räum­arbeiten“ bei Master-, Meta- und Prozessdaten.
• Definieren Sie eine Security-by-Design-Daten­architektur, um die Datenlogistik zu automa­tisieren und diese nachhaltig betreiben zu können.

Sind diese ersten wichtigen Schritte geklärt, kann es in die systematische Umsetzung gehen. Dabei haben sich aus unserer Erfahrung insbesondere sechs Key-Learnings herauskristallisiert, die für den Erfolg ausschlaggebend sind.

1. OT-Daten: Normalisieren, standardisieren, anreichern, konsolidieren
Führt man Business-Daten (z. B. Kunden- und Verkaufsdaten) sowie Bewegungs- und Stammdaten (z. B. von Maschinen, Gebäuden oder Equipment) mit Echtzeit- bzw. Prozessdaten zusammen, können diese wertvolle Informationen für die Optimierung von Geschäfts- und Produktionsprozessen liefern. Solche Datenverknüpfungen sind im Bereich der produzierenden Industrie besonders wichtig, beispielsweise bei der Herstellung von Holzplatten, Papier, Milchprodukten oder anderen Erzeugnissen.

Daten von Produktionsanlagen können in Echtzeit detaillierte Informationen darüber bereitstellen, ob der Produktionsprozess optimal im Sinne der Prozesssicherheit, Produktqualität, Rohstoff- und Energieeffizienz, möglichst geringer Um­welt­emissionen sowie mit höchster Leistung läuft. Maschinen müssen laufend auf ihre ordnungsgemäße Funktion, Effizienz oder Wartungsanforderungen überwacht werden.

Ziel ist eine vorausschauende Wartung oder schnellstmögliche Reparatur, wenn eine Maschine nicht mehr die Nennleistung erbringt. Echtzeitinformationen über den Produktionsprozess und deren Analyse zahlen sich für Unternehmen jedenfalls aus. Denn wer den Fokus auf die Lösung von möglichst vielen Problemen im operativen Betrieb legt, kann seine Geschäfts­ziele nachhaltig optimieren.

Praktisch alle technischen Geräte und Maschinen verfügen über Datenschnittstellen, die es ermöglichen, diese operativen Informationen in Geschäftsinformationsmodelle einzubinden. Das läuft über standardisierte Operational-Technology-Schnitt­stellen (OT-Schnittstellen), deren Daten dann in die IT-Systeme des jeweiligen Unternehmens übertragen werden.

Beispiele für operative Datenschnittstellen:
• Geräte und Maschinen, die das offene Netzwerkprotokoll Message Queuing Telemetry Transport (MQTT) nutzen und automatische Statusmeldungen an einen zentralen Hub senden, wo eine Monitoring-Software mit einer einzigen Datenschnittstelle den aktuellen Zustand eines Maschinenparks erheben kann.
• Datenschnittstellen von Photovoltaik-Wechselrichtern, um die Solarstromerzeugung im Minutentakt auszulesen und minutengenau die Eigenstromproduktion einer firmeneigenen Solaranlage nachverfolgen zu können.
• Störmeldungen von Schiebetüren, um Instandhaltungsarbeiten und Kostenabrechnungen zu automatisieren und Wartungsinter­valle zu optimieren.
• Echtzeitmonitoring von Kühlanlagen über digitale bzw. potenzialfreie Kontakte hinsichtlich Störmeldungen und Stromverbrauch, um sofort reagieren zu können, wenn eine Ware nicht mehr korrekt oder ineffizient gekühlt wird.
• Via Modbus-Kommunikationsprotokoll oder Meter-Bus (M-Bus) in Echtzeit den Verbrauch von Wasser, Gas und Strom messen, um den ineffizienten Betrieb von Standorten zu erkennen und schnell gegenzusteuern.
• Über ein DALI-Bus-System (Digital Addressable Lighting Interface) die Diagnosedaten der Beleuchtungsanlage auslesen, um die Repa­ratur von defekten Komponenten und das Tracking von Garantiefällen zu automati­sieren.

Um diese unterschiedlichen Daten von operativen Prozessen möglichst einfach nutzbar zu machen, hat sich der effiziente und einfach zu realisierende Ansatz des vereinheitlichten Informationsraums (Unified Namespace) etabliert. Hierbei werden Echtzeit- und weitere Kontextdaten kombiniert und in normalisierter und standardisierter Form an einen sogenannten Broker (z. B. MQTT-Broker) gesendet. Sie können von Empfängern auch abonniert werden. Damit bekommen alle Systeme die für sie relevanten Daten (z. B. von hunderten Produktionsmaschinen) stets in der gleichen Struktur und mit vergleichbaren Wertebereichen. Die Unternehmensanwendungen lassen sich dadurch sehr effizient auswerten, sodass in (Beinahe-)Echtzeit auf Abweichungen vom optimalen Zustand reagiert werden kann.

Zur praktischen technischen Umsetzung stehen professionelle Werkzeuge aus der Automatisierungstechnik bereit, wie z. B. speicherprogrammierbare Steuerungen, Industrie-PCs, OPC Unified Architecture (OPC UA), MQTT, Sparkplug B, Modbus/TCP u. v. m. Sie ermöglichen es, die an verschiedenen Schnittstellen abrufbaren Daten den automatischen Prozessoptimierungssystemen zuzuführen.

All jene Funktionen, die Geräte- und Maschinendaten auslesen, werden der sogenannten Edge- bzw. Fog-Ebene zugeordnet, da diese architektonisch genau am Übergang der operativen Bereiche (z. B. Maschinenhalle) und der Rechenzentren angesiedelt sind. Wichtig ist dabei eine ­möglichst frühzeitige Kontextualisierung der ­operativen Daten, damit diese dann direkt über einen Kundenauftrag, eine Maschine oder einen Produktionsbereich zugeordnet werden können.

2. Edge-to-Cloud-Integration
Als zweiter Erfolgsfaktor hat sich die Integration der Daten aus der Edge-/Fog-Ebene in die Cloud erwiesen. Wesentliche Basis für die Datenintegration ist ein mehrstufiger Systemaufbau, zumeist in vier Stufen: Sensorik – Gateway – Fog – Cloud. Netzwerkseitig sind die Stufen getrennt, zudem werden entweder Gateway oder Fog dazu verwendet, eine Protokollübersetzung vorzunehmen und die Daten sicher an eine zentrale Cloud-Instanz zu übertragen. Die Fog-Ebene ist hierbei nicht immer zwingend notwendig. Diese wird vor allem für Anwendungsfälle verwendet, welche die Bereitstellung bestimmter Logik und Funktionalitäten on-premises erfordern, wie z. B. eine kurze Latenzzeit (Low Latency), künstliche Intelligenz (KI) oder einfaches Datencaching.

Hier spielt auch der Aufbau von Modularität und Erweiterbarkeit mittels Programmierschnittstellen (API) eine Rolle. Ein modularer Aufbau ist nicht nur hinsichtlich der Typologie erforderlich. So empfiehlt es sich auch, eine gewisse Workload oder implementierte Applikationslogik in der Cloud in „Microservices“ zu zerlegen. Das wirkt sich einerseits positiv auf die Skalierung und Kosten der Anwendung (Applikation) aus; andererseits erlaubt es zu jedem späteren Zeitpunkt, neue Logik für neue Anwendungsfälle an die bereits bestehende dynamisch anzudocken – ohne die bestehende Lösung anzufassen.

3. In der Cloud skalieren
Ein dritter Erfolgsfaktor besteht in der dynamischen Skalierung der Applikation, bei der zwischen inhaltlicher und rein technischer Plattformskalierung unterschieden wird. Die inhaltliche Skalierung umfasst das Wachstum auf mehrere Standorte, Werke und/oder Produktionslinien. Hierbei ist es wichtig, die Werk­struktur über einen globalen Namespace zu klassifizieren und die Namen der Sensoren, Dateneinheiten und Zeitformate zu standardisieren. All das zusammen ermöglicht eine einfache Erweiterung um neue Betriebsstandorte.

Auf technischer Ebene wird eine Skalierungs­unterstützung von Fog-Geräten und Gateways bzw. die Cloud-Integration bis hin zu den Konsumenten benötigt, beispielsweise mittels REST-Schnittstelle (Representational State Transfer) oder zentraler Datenplattform.

Auf Fog- bzw. Gateway-Seite kann dies durch lokale MQTT-Broker erzielt werden, welche die definierte Unified-Namespace-Struktur abbilden und die Daten in einen Cloud-Broker spiegeln. Ist dies nicht möglich, ist es auch denkbar, die Namespace-Struktur über Struktureigenschaften in den IIoT-Nachrichten in die Cloud zu übergeben.

Das Cloud-Design richtet sich dementsprechend aus: In jedem Fall werden aber auf Basis der vorhandenen Struktur anschließend automatisch die Daten extrahiert und an die definierten Kanäle weitergegeben. Dies wiede­rum ermöglicht ein zuverlässiges inhaltliches Wachstum, ohne dass manuelle oder Code-Eingriffe notwendig sind. Nicht zu unterschätzen sind auch die Infrastrukturmöglichkeiten: Moderne Lösungsansätze der Platform as a Service (PaaS) erlauben es, rasch Lösungen und vielfältige Skalierungsmöglichkeiten bereitzustellen und gleichzeitig Personalkosten für Entwicklung und Betrieb zu minimieren.

4. Echtzeitdaten und Data-Lakes-­Analytics kombinieren
Die industriellen Anwendungsfälle (Use-Cases) definieren, ob es sich um die Nutzung von Echtzeitdaten oder von historischen Daten für die diagnostische Analyse handelt. Der OT-Bereich liefert sowohl Zeitreihendaten, die in Echtzeit erfasst und übermittelt werden, als auch Ergebnisdaten am Ende eines Prozesses oder Prozessschritts.

Der Einstieg erfolgt meist über einen dezidierten Echtzeitdatenverarbeitungs- oder Analytics-Use-Case. In der Praxis hat sich gezeigt, dass Erkenntnisse aus dem Bereich der Analytics unmittelbar einen Mehrwert für die Produktion bringen, wenn man sie in den Bereich der Echtzeitdaten überführt.

Nur ein Beispiel: Eine Root-Cause-Diagnose zur Identifikation von kritischen Grenzwerten sollte direkt in die Produktionslinie übertragen werden, um sofort Qualitätsmängel zu beheben. In einem weiteren Schritt kann die Analyse durch Modelle (z. B. mit KI und Machine-Learning) helfen, etwaige Qualitätsmängel vorherzusagen.

Genauso funktioniert es auch in die andere Richtung: Transparente Prozessdaten mit Echtzeitinformationen aus der Produktionslinie wecken Bedarf an Analytics. Deshalb sollte beim Implementierungsdesign von Anfang an die Kombination von Echtzeitdaten und Big-Data-Analytics vorgesehen werden.

Konzepte wie Unified Namespace zur Identifikation von Datenströmen sowie Konzepte zur Datenverarbeitung auf der Edge-Ebene und in der Cloud (siehe oben: Normalisierung, Standardisierung, Anreicherung, Harmonisierung) helfen, sich datengetrieben laufend zu verbessern und die Zahl der Anwendungsfälle für ein rasches Return on Investment (ROI) zu erhöhen.

5. Industrial Internet of Things (IIoT) als „closed loop“ realisieren
Ist die Herausforderung der Datenextraktion aus der OT gemeistert, werden erste Schwerpunkte auf Echtzeitinformation, Diagnostik und Prediction (Vorhersagen) gelegt. Als fünfter Erfolgsfaktor für zusätzlichen Mehrwert hat sich die Umsetzung als „closed loop“ herausgestellt: Eine skalierbare Architektur muss im Rahmen der OT-/Edge-/Fog-/Cloud-Integration so gestaltet sein, dass Daten wieder von der Cloud zurück in die Steuerung der Anlagen und Maschinen geschrieben werden können. Nur so lässt sich das volle Potenzial von Industrie 4.0 nutzen.

Softwarekomponenten, die gezielt auch nahe an der OT (z. B. im Edge-Bereich) eingesetzt werden, sind dabei kritische Elemente dieser Architektur. Nur ein Beispiel: Wenn die datenbasierte Qualitätskontrolle in einem Produktionsbetrieb Schwankungen feststellt, werden dem Anlagenfahrer mittels IIoT-Lösung in Echtzeit optimierte Maschineneinstellungen vorgeschlagen und nach dessen Bestätigung in die Steuerung übernommen. Die Logik dafür wird in der Cloud berechnet und in einem Schwesterwerk für alle Standorte entwickelt.

6. Auf Security by Design setzen
Moderne IT-Lösungen müssen bestimmte Sicherheitsmaßnahmen „by Design“ erfüllen. Gleiches gilt auch für IIoT-Lösungen und Datenplattformen: Die Trennung von Netz­werken, Verschlüsselung von Kommunikation, Tunneling der Datenströme oder Backup-Mechanismen sind von Beginn an unbedingt zu berücksichtigen.

Im Rahmen professioneller Softwarebereitstellungen empfiehlt es sich, auf große Cloud-Provider zu setzen. Diese bieten nicht nur weitere Security-Features an, sondern stellen bereits in ihren Standardservices eine bestimmte Überwachung, beispielsweise der Netzwerkaktivitäten, bereit. Diese können ­darüber hinaus um zusätzliche Absicherungs- oder Verteidigungsmaßnahmen wie Secrets-Management oder Tools zur fortlaufenden Sicherheitsbewertung erweitert werden. (RNF)


INFO-BOX
Über Tietoevry Austria
Tietoevry ist ein führendes Technologie­unternehmen mit Wurzeln in Skandinavien. Der IT-Dienstleister kombiniert globale Reichweite mit lokaler Präsenz an den Standorten Wien, Linz und Graz und entwickelt mit Unternehmen digitale Technologien, die die Welt zum Guten verändern. 24.000 Expert:innen weltweit sind auf Cloud, Daten und Software spezialisiert und betreuen Tausende von Unternehmen in mehr als 90 Ländern.

www.tietoevry.com/at