Daten erheben, teilen, nutzen. Für eine höhere Qualität, reibungslose Abläufe und innovative Services und Angebote. Es gibt keine ernstzunehmenden Zweifel, dass im Datenmanagement die Zukunft der deutschen Industrie liegt. Was sich so leicht dahersagt, ist jedoch ein komplexes Thema. Längst ist deutlich geworden, dass es ein gemeinsames Verständnis, standardisierte und qualitativ abgesicherte Prozesse zwischen den beteiligten Unternehmen braucht. An einer solchen Referenzarchitektur arbeitet die Industrial Data Space Association (IDS), in der sich viele Unternehmen, Fraunhofer-Institute und die Bundesregierung engagieren.

Es bedarf schon einiger Kompetenzen, um all die industriellen IT-Systemen mit ihren Anforderungen und Schnittstellen zu betreiben und weiterzuentwickeln. Computer Aided Design (CAD), Manufacturing Execution Systems (MES), Produktionsplanungs- und Steuerungssysteme (PPS), Product-Lifecycle-Management (PLM) und Enterprise Resource Planning (ERP) – das sind nur einige der mächtigen Softwarebausteine für ein modernes Produktionsunternehmen. Neue Technologien für das industrielle Internet der Dinge, cyber-physikalischer Systeme und die Industrie 4.0 fügen gegenwärtig weitere Komplexität hinzu. Das Volumen an sensorgetriebenen Daten wächst Tag für Tag. Man stelle sich vor: Eine einzige Flugzeugturbine produziert auf dem Flug von München nach Frankfurt/Main mehr als ein Terabyte an Rohdaten und ein Vibrationssensor kann es auf 1,3 Terabyte bringen. Diese wenigen Zahlen lassen erkennen, wie groß die Herausforderungen sind auf dem Weg hin zu einer hoch-vernetzten Industrie. Nur: In Daten „zu ertrinken“ ist keine Option. Unternehmen haben zunächst zwei Hebel, mit denen sie ansetzen müssen um die angedeuteten Herausforderungen zu meistern:

  • Es ist essentiell, die Anforderungen an die Daten im Hinblick auf Relevanz, Genauigkeit und Aktualität zu spezifizieren.
  • Es müssen leistungsstarke Technologien eingesetzt werden, mit denen sich die Daten auffangen, speichern und für werthaltige Analysen aufbereiten lassen.
  • Schürfen nach den goldenen Daten

Die digitale Transformation von Unternehmen gelingt nur, wenn Daten als zentrales Unternehmenskapital behandelt werden. Rohdaten müssen zu Informationen verdichtet und Informationen und in tiefgehendes Wissen gewandelt werden. Bildlich gesprochen: Daten sind wie Goldstaub – nur sorgfältig bearbeitet wird Goldstaub zu anmutigem Schmuck. Weltweit führende Innovatoren wie Google, Facebook und Amazon zeigen im B2C-Umfeld längst, wie mit Daten klassische Geschäftsmodelle disruptiv verändern werden. Tatsächlich besteht kein wesentlicher Unterschied zur B2B-Welt. Unternehmen, die sich stärker vertikal und horizontal vernetzen wollen, müssen ein reibungsloses Management von internen und externen Daten gewährleisten. Diese Kompetenz ist damit ein strategisches Anliegen, das erst die Tür öffnet für explorative Analysen, für intelligente Entscheidungsfindung und schließlich auch für selbst-lernende Produktionsprozesse.

Aber hier wird es kompliziert, denn es macht einen zentralen Unterschied aus, ob die Sensordaten eines Aufzugs oder einer Schweißmaschine dem Käufer oder dem Lieferanten der Maschine gehören. Der Wert der Daten für den Lieferanten liegt auf der Hand: Er kann sie mit Daten seiner weltweiten Installationen zusammenführen und auswerten. Dies fördert seine Wettbewerbsfähigkeit, ermöglicht eine vorausschauende Wartung und liefert wertvolle Hinweise für die weitere Optimierung der Maschine. Ähnliche Vorteile ergeben sich natürlich auch für die Lieferanten von Maschinenteilen. Auf der anderen Seite ist es aber der Käufer, der in die Maschine investiert und sie vielleicht auch mit zusätzlichen Sensoren aufgewertet hat. Zudem trägt der Käufer trägt die Last der Integration in die IT- und Datenlandschaft.

Damit stellen sich unangenehme Fragen: Wie lassen sich die Eigentumsrechte an den Daten sichern? Wie können Unternehmen den Wert ihrer Daten in einer technisch volatilen und hochgradig vernetzten Welt überhaupt „greifbar“ machen? Was ist erforderlich, um Interoperabilität herzustellen und eine zugesagte Datenqualität zu gewährleisten? Wie lässt sich ein gemeinsames Vokabular für den Datenaustausch zwischen den Parteien organisieren? Wie kann ein Interessent Daten subskribieren und Nutzungsinformationen an den Datenlieferanten zurückliefern?

Industrial Data Space Association (IDS)

Diese Fragen werden von der Industrial Data Space Association (IDS) adressiert. Die Initiative wurde in 2014 in Deutschland als gemeinsame Aktion von Politik, Forschung und Industrie ins Leben gerufen und von zwölf Fraunhofer-Instituten initial bearbeitet. Ziel ist eine Referenzarchitektur, die einen sicheren, geschützten und transparenten Austausch von Daten zwischen Eigentümern industrieller Daten und interessierten Nutzern erlaubt. Die Entwicklungsergebnisse werden gegenwertig einem Verein gleichen Namens übertragen, dem namhafte Unternehmen, etliche aus der Top-Liga der deutschen Industrie angehören.

In diesem Sinne möchte die IDS

  • die Eigentümer von Daten in die Lage versetzen, die Bedingungen und Konditionen für deren Nutzung verbindlich zu bestimmen (Datensouveränität),
  • ein gemeinsames Vokabular für die einfache Integration von Daten über Unternehmen hinweg schaffen (Easy Linkage),
  • allen Teilnehmern, Datenquellen und -diensten eine vertrauenswürdige Kommunikation ermöglichen (Vertrauensbildung).
  • den Datenaustausch über die gesamte Datenstrecke sichern, von der Entstehung und -aufnahme bis hin zur Verwendung (sichere Lieferkette)
  • einen Rahmen bieten, der das Aushandeln und die Einhaltung der Rechte und Pflichten ermöglicht (Data Governance).

Dieser prominente Ansatz erfordert eine solide Softwarearchitektur. Aus konzeptioneller Sicht werden vier Dimensionen unterschieden:

  • Die Geschäftsarchitektur adressiert den ökonomischen Wert von Daten, ihre Qualität, die Rechten und Pflichten der IDS-Teilnehmer und den Prozess der Datenbewirtschaftung.
  • Die Daten- und Dienste-Architektur spezifiziert in einer anwendungs- und technologieneutralen Form die Funktionalität der Datendienste.
  • Die Sicherheitsarchitektur adressiert Aspekte der sicheren Ausführung von Anwendungen, den sicheren Datentransfer und die Prävention von Datenmissbrauch.
  • Die Softwarearchitektur spezifiziert die zentralen Softwarekomponenten des IDS (siehe die Graphik).

Wir beschränken uns hier auf wenige Hinweise zur Daten- und Dienstarchitektur. Das Diagramm veranschaulicht die maßgeblichen Elemente und Beziehungen. Drei Elemente sind zentral:

  • Der Konnektor gewährleistet den Austausch von Daten (Anforderungsmanagement, Datentransformation, Datenvorverarbeitung etc.).
  • Der Broker führt Datenangebote und -nachfragen zusammen (z. B. mit Versionskontrollen, Suche von Ressourcen, Austauschvereinbarungen, Monitoring)
  • Über AppStores sollen Angebote an spezifischen Diensten (Datentransformation, Datenauswertung, Qualitätsoptimierung; Anreicherung mit Metadaten etc.) durch Dritte erbracht werden können.

Die Tragfähigkeit der Referenzarchitektur wird gegenwärtig in Proof-of-Concept-Projekten getestet.

Zukunft durch Datenaustausch

Offenkundig setzt ein strategischer Datenaustausch voraus, dass liefernde wie empfangende Unternehmen ihre Datenarchitekturen im Griff haben. Die Datenanbieter müssen Daten aus ihren Enterprise Data Warehouses, Data Marts, Data Lakes oder Hadoop-Speichern qualitätsgesichert bereitstellen; Datennutzer kommen nicht umhin, die erworbenen Daten zielgerecht aufbereiten, zusammenführen oder weiterleiten. Selbstverständlich erwachsen in Zeiten eines industriellen IoT drastische gewachsene Anforderungen an geeignete Softwarewerkzeuge.

Es ist zu hoffen, dass der IDS schnell seine Zugkraft in Deutschland und international entfalten und sich zu einem Standard für den Datenaustausch etabliert. Das Zusammenspiel von IDS und Werkzeugen wie der Data-Fabric bietet jedenfalls beste Voraussetzung für einen agilen Datenaustausch und die Entwicklung zukunftsfähiger industrielle Geschäftsmodelle.

Quelle: http://www.industrialdataspace.org