Am Anfang war die Welt noch wohlgeordnet

Das Management von Daten war schon immer wichtig. Seit langer Zeit werden Daten via ETL (Extraktion, Transformation und Laden) in zentrale Datenwarenhäuser geladen um anschließend hierauf Auswertungen zu fahren. In diesem Zusammenhang – konkret dem Bereich Business Intelligence – liest man hierüber häufig Sätze wie den Folgenden:

Die Datenübertragung wird in der Regel nachts oder am Wochenende durchgeführt, wenn die Systeme durch Anwender am geringsten ausgelastet werden.“

Diese Datenübertragungen waren wichtig, mussten solide definiert und robust ausgeführt werden. Eines waren sie aber sicherlich nicht: sexy.

Was hat sich also verändert?

Das Thema des Datenmanagements hat sich vom taktischen Bewegen von Daten zum strategischen Thema entwickelt. Wir leben in einer Welt explodierender Datenmengen, unter anderem getrieben durch die mobile Internetnutzung, Social Media und das Internet der Dinge (IoT). Mit Big Data Technologien ist es möglich geworden, immer größere Datenmengen immer günstiger zu speichern, auch unstrukturierte Daten zu organisieren und immer schneller mit intelligenten Verfahren Erkenntnisse aus Daten zu gewinnen.

Immer mehr Anwendungen fußen auf Daten, immer mehr Datenwissenschaftler gewinnen wichtige Erkenntnisse aus Rohdaten und stellen neue Zusammenhänge her. Themen der künstlichen Intelligenz und des Maschinellen Lernens sind in aller Munde und haben ihren Weg von der Forschung in das „Business“ gefunden. Datenwissenschaftler ist plötzlich zum Modeberuf geworden, der Sex Appeal hat und die Welt verändert.

Gleichzeitig werden die Herausforderungen rund um die Daten immer größer: wir haben größere Datenmengen, unstrukturierte und semistrukturierte Daten wie Bilder, Filme oder Töne, strömende Daten, (Nahe) Echtzeit-Anforderungen. Immer mehr Daten stammen aus externen Quellen (vom Wetter bis zu Social Media Daten), die Datenqualität muss verbessert werden, Fachabteilungen erwarten „Self-Service“, Stamm- und Metadaten müssen vereinheitlicht werden und immer mehr Systeme arbeiten auf den Daten. Wenn Maschinen lernen, lernen sie aus Daten. Daten stehen damit im Zentrum, werden zum Alleinstellungsmerkmal.

Treiber sind dabei stets die vielfältigen Anwendungen, von der 360° Kundensicht oder der in Echtzeit personalisierten „User Experience“ über Effizienzverbesserungen (bspw. durch Predictive Maintenance) bis zur Risikominimierung (bspw. durch die Betrugserkennung).

Nichts ist so sicher wie der Wandel

Kürzlich beschrieb mir eine IT Verantwortliche einer Versicherung ihre wichtigste aktuelle Herausforderung wie folgt: „Unsere Business Intelligence Lösungen kommen in die Jahre, die Technologie ist 20 Jahre alt. Wir suchen eine Lösung für die nächsten 20 Jahre.“

Denken Sie einen Moment drüber nach, wie die Welt in 20 Jahren aussehen wird und was heute eine sichere Investition in diese Zukunft sein kann. Was ist der richtige Datenspeicher? Was der richtige Ansatz für Integrationen? Was die richtige Architektur? Welche Technologien kommen zum Einsatz? Was wird mit den Daten geschehen, wie werden sie verwendet?

Ich vermute, Sie kommen zum selben Ergebnis wie ich: das einzige, das wir mit Sicherheit vorhersagen können, ist der stetige Wandel. Die Welt dreht sich weiter, immer schneller und immer datenzentrierter. Daten sind das Fundament von immer neuen Möglichkeiten, die wir heute nur vage am Horizont erahnen können. In immer kürzeren Zyklen werden wir überrascht von neuen. Möglichkeiten aus dem Bereich der Künstlichen Intelligenz, die maßgeblich auf Daten basieren. Die Halbwertszeit von Technologien im Big Data Umfeld ist, entsprechend schnell veraltet Wissen, talentierte Mitarbeiter sind kaum zu finden und das Wissen veraltet rapide.

Hiermit Schritt zu halten ist eine wesentliche Herausforderung für CIOs geworden mit unmittelbaren Konsequenzen für den Geschäftserfolg von Unternehmen.

Und was folgt daraus?

Unternehmen stehen vor einem echten Dilemma. Einerseits wird der Umgang mit Daten wichtiger um geschäftliche Chancen schnell zu nutzen und Wettbewerbsvorteile zu schaffen. Andererseits werden die Herausforderungen immer komplexer und die Technologien immer kurzlebiger.

Eine Antwort kann insofern nur auf der Meta-Ebene liegen: Wir müssen uns unabhängig machen von konkreten Technologien, die sich immer schneller wandeln. Betrachten Sie als Beispiel das Thema Big Data und den Wandel von MapReduce zu Spark, Spark 2.0 und neuen Ansätzen wie Apache Beam. Für die meisten Organisationen ist es nicht möglich, diesen technologischen Wandel mitzugehen.

Insofern empfiehlt sich die Wahl einer modellbasierenden Plattform, die von den konkreten Technologien abstrahiert. Je besser diese Plattform mit dem technologischen Wandel Schritt hält, desto näher bleiben Sie am Puls der Zeit und den technologischen Möglichkeiten. Aus dem Vorsprung resultieren Chancen am Markt um dem Wettbewerb den entscheidenden Schritt zuvorzukommen.

Ein entscheidender Treiber hierbei ist sicherlich die weltweit Open-Source Community, die maßgeblich die Technologien im Big Data Umfeld treibt und letzten Endes auch erst für die immense Geschwindigkeit in den Entwicklungen gesorgt hat.

Bleiben Sie agil und erfolgreich

Die Zeiten haben sich gewandelt. Für den Erfolg ist Schnelligkeit wichtiger geworden als Größe. Wer im Zeitalter von Big Data und Realtime agil bleibt und neue Technologien schnell adaptieren kann, dem bieten sich Chancen am Markt. In vielen Fällen ist heute noch unabsehbar, worin diese Chancen im Zuge der Digitalisierung wirklich liegen. Die Erfolgswahrscheinlichkeit maximiert aber derjenige, der vorbereitet ist. Agilität siegt.