Im ersten und zweiten Teil dieser Serie haben wir einen Blick auf die grundlegenden Erfolgsfaktoren und die Anforderungen an eine Architektur geworfen, die für eine Self-Service BI vorteilhaft sind. Im nun letzten Teil der Serie erläutern wir, warum diese Elemente sich zu einer Datenstrategie zusammenfassen lassen.

 

Das Ziel einer Self-Service BI ist es, Abteilungen und Anwendern ein autarkes Arbeiten zu ermöglichen und den Informationsfluss sicherzustellen. Der Markt bietet eine breite Palette von visuellen Werkzeugen, mit denen für jeden Anwender Analysen per Mausklick machbar scheinen. Diese setzen jedoch voraus, dass der Benutzer ein Detailwissen und ein Quellenverständnis sowie eine methodische Ausbildung bei der Analyse der Daten hat. Die Aufbereitung der Daten und die Zugänglichkeit hat also einen hohen Stellenwert.

In einer Studie [1] von Forrester und KPMG gaben nur 35% der Befragten an, dass Sie der Analytik des eigenen Unternehmens vertrauen. Das auch in vielen anderen Domänen neben der Analytik bekannte Phänomen des „Trust Gap“ ist einer der größten Verhinderer von Eigeninitiative, Kreativität und Erkenntnisgewinnen, denn wenn der Korrektheit der Grundlagen nicht vertraut werden kann, wieso sollte jemand dann Zeit investieren, damit zu arbeiten.

Vertrauen entsteht in erster Linie durch Verbindlichkeit und Transparenz, also primär dadurch, wie eine Datenstrategie in einem Unternehmen gelebt wird. Der kulturelle Umgang mit Daten – ähnlich wie bei unterschiedlichen Führungsstilen – ist ein wichtiger Faktor auf dem vieldiskutierten Weg der Demokratisierung von Daten. Eine Datenstrategie muss aktiv durch das Management geführt, verantwortet und gelebt werden. In unseren Beratungsprojekten zeigt sich, dass häufig mindestens eines der folgenden Themen nicht oder unzureichend adressiert ist:

  • Verantwortlichkeit
    Gibt es eine zentrale Person, die für die Daten oder eine Datendomäne verantwortlich und erreichbar ist? Kann diese Person zu den nachfolgend aufgeführten Themen verbindlich Auskünfte erteilen?
    Wenn diese Person fehlt: Es gibt keinen Ansprechpartner, der Unsicherheiten bezüglich der Datennutzung ausräumen kann. Im Zweifel wird den Daten nicht vertraut und sie bleiben ungenutzt.
  • Nachvollziehbarkeit und Übersicht
    Aus welcher Quelle stammen die Daten? Gibt es Filter, die bestimmte Daten herausfiltern? Gibt es Aggregationen und wie sehen diese aus?
    Wenn diese fehlen: Im besten Fall kann ein Analyst durch Quervergleiche mit anderen Quellen oder „irgendwie beschafften“ Daten die Korrektheit nachvollziehen. Das kostet Zeit, Geld und erzeugt Frust. Wer zu lange sucht, gibt auf.
  • Datensicherheit
    Wie ist der Umgang mit personenbezogenen Daten im Unternehmen geregelt? Wie wird mit sensiblen Daten umgegangen? Gibt es eine verbindliche Regelung bezüglich der Benutzerrechte?
    Wenn sie fehlt: Wenn Daten mit einem besonderen Schutzbedarf zufällig oder ungeregelt einsehbar sind oder Zugänge nicht zeitlich oder fallbezogen beschränkt werden, entstehen zwei Fragestellungen: „Wie sicher sind Daten, die ich ablege und lege ich sie nicht lieber lokal ab?“ und „Wem kann ich vertrauen, wenn nicht mal vertrauliche Daten sicher sind?“.
  • Verfügbarkeit und Vollständigkeit
    Kann ich jederzeit auf alle Daten zugreifen? Wie aktuell sind die Daten? Ist die Datenmenge vollständig oder sehe ich eine Teilmenge?
    Wenn diese fehlen: Vollständigkeit ist eine Definitionsfrage, umso wichtiger ist, dass Nutzer von Daten klar ist, in welchem Kontext die Daten sich befinden und gültig sind. Ein Analyseexperte wird inkonsistente Daten aus der Erfahrung heraus erkennen, ein Endanwender ist hierfür nicht ausgebildet und muss auf die Vollständigkeit vertrauen.

Gerade Handlungsfelder wie „Datensicherheit“ und „Vollständigkeit“ sind in der Praxis durchaus Spannungsfelder. Die Schaffung einer Nachvollziehbarkeit hat ihre natürlichen Grenzen in der Komplexität der Daten und ihrer Mengen und ist stark verbunden mit „Verantwortlichkeit“. Hier ist beispielsweise die Benennung eines Chief Data Officers (CDO) ein guter Schritt in die richtige Richtung, aber nicht die Lösung des gesamten Handlungsbedarfs. Eine gut geplante Data Governance löst viele dieser Gratwanderungen im Tagesgeschäft und muss trotzdem ständig den Gegebenheiten angepasst werden.

Wer also versucht durch einen Self-Service-Ansatz die Analytics- und IT-Experten vollständig einzusparen, ist bereits in diesem Moment gescheitert. Ein Self-Service ist letztlich ein Serviceangebot und das muss gepflegt werden, um einen einfachen Zugang zu gewährleisten und das notwendige Vertrauen in die Integrität und Korrektheit der Daten aufzubauen. Self-Service muss Teil einer gesamten Daten-Kultur sein, die sich in den Prozessen beim Umgang mit Daten etablieren muss. Am Wenigsten kann man hier also auf Experten verzichten, die genau die Anker dieses Vertrauens repräsentieren.

Daher sollte Ihre Strategie Raum für folgende Tätigkeiten haben, die Sie nicht auf den Schultern der Fachanwender abladen sollten:

  • Klare Definition der Verantwortlichkeiten ihrer Datendomänen
  • Definition und Implementierung von Sicherheitsrichtlinien
  • Katalogisierung des Datenfundus
  • Föderation von Daten in semantische Modelle
  • Förderung (Schulungen, Competence Center etc.) von analytischer Methodik
  • Etablierung des Service-Gedankens

In den drei Teilen dieser Reihe wurden die organisatorischen, die architekturellen und infrastrukturellen sowie die strategischen Aspekte von Self-Service betrachtet. Der Servicegedanke muss einen klaren Fokus aufweisen: Den Endanwender. Damit ist der menschliche Faktor, der letztlich durch die Interpretation der Daten und seine Kreativität der entscheidende Faktor in der Kette ist, auch das letzte Element in einer langen Kette. Und als Konsument braucht dieser Sicherheit und Vertrauen.

Die Einführung von Self-Service BI kann nur gelingen, wenn fachliche Endanwender, technische Experten und ein überzeugtes Management gemeinsam eine Kultur schaffen, die das notwendige Vertrauen in die Daten und das Verständnis für die Daten schaffen.

Letztlich entscheidet die Erfahrung bei der Einführung von datenzentrischen Prozessen auf allen Ebenen über den Erfolg eines Self-Service BI. Aus unser Projekterfahrung sind die technischen Herausforderungen mit geeigneten Architekturen und Plattformen sehr gut beherrschbar, die Komposition der technischen Möglichkeiten mit der sauberen Orchestrierung der notwendigen Prozesse bedarf jedoch ungleich mehr an Erfahrung, um erfolgreich zu sein.

Auch wenn wir nur einen kurzen Einblick in die verschiedenen Module unseres Vorgehensmodells geben konnten, hoffen wir Ihnen die wichtigsten Meilensteine und Überlegungen bei der Einführung eines erfolgreichen Self-Service BI dargestellt zu haben.

Möchten Sie mehr über das Thema Self-Service BI erfahren?
Sprechen Sie mich an!

Christian Schneider
Division Manager
Data & Analytics
dna@quinscape.de

 

 

[1]  https://assets.kpmg/content/dam/kpmg/co/pdf/2018/02/Guardians%20of%20trust%20_FINAL%20WEB.pdf