Gartner prognostiziert 20 Milliarden Geräte im „Internet of Things“ (IoT) bis 2020. Cisco geht sogar von 50 Milliarden Geräten aus. Die deutsche Industrie schläft nicht und entwickelt weltweit einzigartige Referenzmodelle und Standards für diese neue vernetzte Welt. Die Gefahr, gegenüber der hochdynamischen US-amerikanischen Softwareindustrie den Kürzeren zu ziehen, ist dennoch nicht gebannt.

In dem Mehrklang aus Sensorik, Mikroelektronik, Kommunikationstechnologie und Software sind die Sensoren der originäre Stressauslöser: Sie werden künftig riesige Datenmengen in das Internet pumpen. Möglich wird dies durch die gewaltigen Fortschritte in puncto Energieverbrauch, Datenauflösung und Kompaktheit der Sensoren. Zudem schleicht sich Intelligenz in die Sensorikmodule ein, die eine Adaption oder Selbstkalibrierung ermöglicht. Damit wird die Kontrolle von Dimensionen wie Luft- und Wasserqualität, Verkehrssituation, Temperatur, Maschinenverschleiß oder Druckzustand einfacher, präziser und preiswerter. Bald wird das Internet zu einem ganz beträchtlichen Teil sensorgetrieben sein.

Für den Produktionsstandort Deutschland spielt der industrielle Sensoreinsatz eine herausragende Rolle. Schon heute faszinieren die Anwendungsbeispiele. Sie reichen von der Analyse von Sensorendaten aus Hochgeschwindigkeitszügen bis hin zur Auswertung von zehntausenden wartungsrelevanten Sensoren in einem Airbus A 380. Beeindruckend ist auch die Optimierung der Maschinenwartung im Flughafen Schiphol auf Basis einer kontinuierlichen Zusammenführung der Nutzungs- und Verschleißdaten, zum Beispiel von Aufzügen und Kofferbändern inklusive der Bewegungsdaten von Menschen.

Diese Projekte sind die Vorboten einer Welt, in der die Vernetzung von physikalischen Assets zu massiven Verwerfungen und Chancen führt – je nach Betrachtungswinkel. Eine nutzungsabhängige Preisbildung, die Remote-Steuerung von Maschinen durch Hersteller oder eine vorausschauende Wartung sind nur einige Optionen für drastisch andere Geschäftsmodelle.

Aus softwaretechnischer Sicht sind konventionelle IT-Konzepte und -architekturen vielfach damit überfordert, die exponentiell wachsende Flut an Daten „aufzufangen“, zu organisieren und auszuwerten. Unter dem Begriff „Big Data“ stehen seit geraumer Zeit jedoch offene Technologien für die Verarbeitung von Massendaten (auch) in Echtzeit zur Verfügung – egal ob im Unternehmen oder in der Cloud. So weit, so gut. Allerdings fehlt es an Standards für eine weitreichende semantische Anreicherung von Sensordaten – zum Beispiel zum Sensortyp, zum Hersteller, zum Standort oder zu Zugriffs- und Verwertungsrechten. Weiterhin sind Datenströme nicht selten verrauscht oder unvollständig und erfordern intelligente Filterkonzepte. Und um physikalische, chemische oder biologische Sensordaten zu fusionieren, ist ein ebenso tiefes technisches wie algorithmisches Wissen erforderlich. Schlussendlich sind auch neue Softwarelösungen erforderlich, um die Komplexität einer hochgradigen Vernetzung einzufangen.

Die deutsche Industrie verfügt über ein herausragendes produktionstechnisches Knowhow und führende Kompetenz in der Vernetzung von Wertschöpfungsketten. Dieser Leistung verdanken wir ganz entscheidend unseren Wohlstand. Die Voraussetzungen sind exzellent, um dem Wettbewerb auch im Zeitalter von IoT voraus zu sein. Proprietäre Plattformen von Unternehmen wie Bosch und Trumpf sind allerdings nur ein erster Schritt. Die Standardisierungsarbeiten zu einem Referenzarchitekturmodell Industrie 4.0 (RAMI 4.0) und auch die Initiative „Industrial Data Space“ verfolgen weitaus ambitioniertere Ziele. RAMI 4.0 versteht sich als service-orientierte Architektur, die alle Maschinen und bedeutsame Komponenten in einem Schichten- und Lebenszyklusmodell verbindet. Die Initiative Industrial Data Space entwickelt einen intelligenten Datenraum für den sicheren Datenaustauch und die einfache Vernetzung von Daten in geschäftlichen Netzwerken. Beide Initiativen sind weltweit einzigartig in ihrem Anspruch.

In dem Mehrklang aus Sensorik, Mikroelektronik, Kommunikationstechnologie und Software sind die Sensoren der originäre Stressauslöser: Sie werden künftig riesige Datenmengen in das Internet pumpen. Möglich wird dies durch die gewaltigen Fortschritte in puncto Energieverbrauch, Datenauflösung und Kompaktheit der Sensoren. Zudem schleicht sich Intelligenz in die Sensorikmodule ein, die eine Adaption oder Selbstkalibrierung ermöglicht. Damit wird die Kontrolle von Dimensionen wie Luft- und Wasserqualität, Verkehrssituation, Temperatur, Maschinenverschleiß oder Druckzustand einfacher, präziser und preiswerter. Bald wird das Internet zu einem ganz beträchtlichen Teil sensorgetrieben sein.

Für den Produktionsstandort Deutschland spielt der industrielle Sensoreinsatz eine herausragende Rolle. Schon heute faszinieren die Anwendungsbeispiele. Sie reichen von der Analyse von Sensorendaten aus Hochgeschwindigkeitszügen bis hin zur Auswertung von zehntausenden wartungsrelevanten Sensoren in einem Airbus A 380. Beeindruckend ist auch die Optimierung der Maschinenwartung im Flughafen Schiphol auf Basis einer kontinuierlichen Zusammenführung der Nutzungs- und Verschleißdaten, zum Beispiel von Aufzügen und Kofferbändern inklusive der Bewegungsdaten von Menschen.

Diese Projekte sind die Vorboten einer Welt, in der die Vernetzung von physikalischen Assets zu massiven Verwerfungen und Chancen führt – je nach Betrachtungswinkel. Eine nutzungsabhängige Preisbildung, die Remote-Steuerung von Maschinen durch Hersteller oder eine vorausschauende Wartung sind nur einige Optionen für drastisch andere Geschäftsmodelle.

Aus softwaretechnischer Sicht sind konventionelle IT-Konzepte und -architekturen vielfach damit überfordert, die exponentiell wachsende Flut an Daten „aufzufangen“, zu organisieren und auszuwerten. Unter dem Begriff „Big Data“ stehen seit geraumer Zeit jedoch offene Technologien für die Verarbeitung von Massendaten (auch) in Echtzeit zur Verfügung – egal ob im Unternehmen oder in der Cloud. So weit, so gut. Allerdings fehlt es an Standards für eine weitreichende semantische Anreicherung von Sensordaten – zum Beispiel zum Sensortyp, zum Hersteller, zum Standort oder zu Zugriffs- und Verwertungsrechten. Weiterhin sind Datenströme nicht selten verrauscht oder unvollständig und erfordern intelligente Filterkonzepte. Und um physikalische, chemische oder biologische Sensordaten zu fusionieren, ist ein ebenso tiefes technisches wie algorithmisches Wissen erforderlich. Schlussendlich sind auch neue Softwarelösungen erforderlich, um die Komplexität einer hochgradigen Vernetzung einzufangen.

Die deutsche Industrie verfügt über ein herausragendes produktionstechnisches Knowhow und führende Kompetenz in der Vernetzung von Wertschöpfungsketten. Dieser Leistung verdanken wir ganz entscheidend unseren Wohlstand. Die Voraussetzungen sind exzellent, um dem Wettbewerb auch im Zeitalter von IoT voraus zu sein. Proprietäre Plattformen von Unternehmen wie Bosch und Trumpf sind allerdings nur ein erster Schritt. Die Standardisierungsarbeiten zu einem Referenzarchitekturmodell Industrie 4.0 (RAMI 4.0) und auch die Initiative „Industrial Data Space“ verfolgen weitaus ambitioniertere Ziele. RAMI 4.0 versteht sich als service-orientierte Architektur, die alle Maschinen und bedeutsame Komponenten in einem Schichten- und Lebenszyklusmodell verbindet. Die Initiative Industrial Data Space entwickelt einen intelligenten Datenraum für den sicheren Datenaustauch und die einfache Vernetzung von Daten in geschäftlichen Netzwerken. Beide Initiativen sind weltweit einzigartig in ihrem Anspruch.

Links zu RAMI 4.0 (im Kontext der Plattform Industrie 4.0) und Industrial Data Space:

http://www.plattform-i40.de/I40/Redaktion/DE/Standardartikel/plattform.html#agrns

http://www.industrialdataspace.org/industrial-data-space/#_erfolgsfaktoren