DATA%20CONSULTING%20LOGO
AdobeStock_218913222.jpeg

Der Fokus auf Datenqualität ist unnütz

Marc Simonis
Mai 28, 2023

Die schnelle Einführung von Datenqualitätsprojekten führt nicht zu höherer Datenqualität, sondern zu höheren Kosten und frustrierten Mitarbeitern.

Projekte zur Verbesserung der Datenqualität werden nicht strategisch angegangen, sondern sind zu häufig Reaktionen auf Datenpannen. Es regiert der Aktionismus und es müssen schnell „Quick Wins“ präsentiert werden, die nur kurzfristige Augenwischerei sind, aber mittelfristig nicht zu stabileren Geschäftsprozessen oder gar besseren Entscheidungen führen.

Wird Datenqualität nicht strukturiert eingeführt und mit Ressourcen unterlegt, schlafen die Initiativen schnell wieder ein und haben ausser hohen Kosten nichts erreicht. Worauf Sie bei der Einführung achten sollten:

… und wir müssen die Datenqualität maximieren

Immer wieder hören wir in Projektvorstellungen und Kick-Offs das Ziel, die Datenqualität zu maximieren (oder zumindest zu signifikant zu steigern). Und immer wieder sind die Kunden erstaunt, wenn man ihnen sagt, dass dies nicht so ohne Weiteres möglich ist und das Problem nicht im Steigern liegt, sondern im Halten der einmal erreichten Datenqualität.

In den Köpfen hat man meist ein Bild, dass man die Daten „einmal sauber machen muss“ und dass es dann schon irgendwie mit der Datenqualität klappt.

Was man immer wieder übersieht, ist:

Daten dokumentieren einen Sachverhalt, sie sind das Ergebnis von (Geschäfts)prozessen und Handlungen; damit ist die Datenqualität die Abweichung zwischen einem geforderten Sollzustand und einem gemessenen Ist-Zustand.

Und hier straucheln Unternehmen das erste Mal: der geforderte Sollzustand ist nicht ausreichend beschrieben.

Da die Aufgabe „Datenqualität steigern“ durch die Führung vorgegeben ist (und nicht hinterfragt werden darf) beginnt man mit dem Aufstellen einfachster Datenqualitätsregeln, um die Datenqualität zu messen und Datenfehler zu korrigieren.

So schnell wie möglich die Datenqualität messen

In den Datenqualitätseinführungsratgebern wird immer davon gesprochen, so schnell wie möglich die existierende Datenqualität festzustellen und zu kommunizieren. Der Tipp ist richtig, wird aber häufig missverstanden.

Regeln der Qualität: „Beginnen meine Telefonnummern immer mit einem +“ oder „Wie viele inaktive Materialien habe ich noch in meinem System“ sorgen in der Regel nicht für bessere Prozesse, sondern führen zu Listen mit tausenden unkritischen Fehlern, die abgearbeitet werden müssen. Auf den Einkauf von Datenqualität-Software hat das auch Auswirkung – keine Ausschreibung, in der nicht gefragt wird, ob die Lösung auch schon DQ-Regeln mitbringt. Solche Datenqualitätsregeln bezeichnen wir als a-priori Regeln, da sie zwar logisch richtig und auf Wissen in anderen Projekten basieren – aber nicht auf das spezifische Problem des eignen Unternehmens eingehen. Relevante DQ-Regeln müssen die Geschäfts- und Geschäftsprozessregeln des eigenen Unternehmens abbilden.

Es ist wichtig, für die Auswirkung schlechter Datenqualität zu sensibilisieren, um Unterstützung der Unternehmensführung und auch Budget für die DQ-Initiative zu bekommen. Sie sollten aber einen anderen Weg wählen:

  • Wählen Sie dazu einen Geschäftsvorfall, der kritisch ist (Kosten verursacht, Umsatz gefährdet, zu Reputationsverlust führen kann) und immer wieder Probleme verursacht.
  • Identifizieren Sie, welche Daten zu dem Problem führen (Daten nicht vorhanden, technisch nicht nutzbar, falsche Formate, falsche Inhalte …).
  • Laden Sie ihre Führung zur Friday Afternoon Session ein.

Und wenn die Probleme akzeptiert wurden und Budget vorhanden ist:

  • Legen Sie eine Pflegeverantwortung für die gefundenen Datenfehler fest
  • Bauen Sie ein Datenqualitätsmonitoring auf, das diesen Geschäftsvorfall kontinuierlich überwacht. DQ-Regeln werden aus den Geschäftsregeln abgeleitet, sind diese dokumentiert, können Sie schnell neue relevante DQ-Regeln produktiv setzen.

Schnelle Erfolge durch Data Cleansing erzielen

Der Aktionismus, möglichst schnell die Datenqualität steigern zu wollen, führt zum sogenannten Data Cleansing. Darunter versteht man die Aufgabe, die langen Listen an Datenfehler, meist händisch, zu korrigieren. Das führt augenscheinlich zu einer besseren Datenqualität. „Wir haben 3000 Fehler diese Woche bereinigt (bitte durch ihre Zahl ersetzen)“. Was man dabei übersieht ist, dass dieses Datenqualitätsniveau aber nur gehalten werden kann, wenn das Data Cleansing dieser DQ-Regel kontinuierlich weitergeführt wird. Wie gesagt, sind Daten das dokumentierte Ergebnis – solange also nicht die Ursache des Fehlers behoben ist, werden weiterhin Fehler erzeugt und häufig auch bereits bereinigte Daten wieder verschmutzt.

Data Cleansing ist ein valides Werkzeug, um gespeicherte Daten einmalig in eine neue Form zu transformieren, z. B. bei Migrationen. Im Tagesgeschäft sind sie erst sinnvoll, nachdem die Prozesse und Eingabemasken fehlerbereinigt worden sind.

Zwei Aspekte, die uns hier immer wieder begegnen:

  • Schnittstellen: es gibt häufig automatische Prozesse, die die Daten mit externen Daten oder Daten aus anderen Systemen in unregelmäßigen Zeiträumen überschreiben. Ohne ein verstetigtes Datenqualitätsmonitoring fällt dieser Fehler selten schnell auf.
  • In ihrem BI System gibt es Hunderte Funktionen, Views etc., die Daten verändern bevor sie in den Reports verwendet werden: Datenfehler am Ende des Prozesses zu beheben ist teuer 1-10-100 Regel, denn das Cleansing muss für dieselben Daten immer und immer durchgeführt werden – bei jedem Erzeugen einer Auswertung. Besser ist die Daten in den Quellsystemen zu verändern anstatt mehr und mehr Cleansing Funktionen im BI zu implementieren.

Verantwortlichkeiten: Daten sind ein Problem der IT-Abteilung

Daten sind in Datenbanken gespeichert, die durch die IT verwaltet werden – also müssen Daten und Datenqualität auch durch die IT betreut werden. Ja, Daten haben eine technische Komponente und es gibt auch technische Aspekte, die durch Datenqualitätsmonitoring überwacht werden sollten – aber zuallererst sind Daten fachliche Aufzeichnungen. Fachbereiche können Daten interpretieren, sie nutzen, die Datenqualität einschätzen und Regel für den Umgang mit Daten aufstellen. Der Anstoß sich um Daten zu kümmern, muss aus den Fachbereichen kommen und diese müssen die Vorgaben für Datenqualitätsregeln liefern. Das Projektteam muss also immer aus Fachbereich und IT zusammengesetzt sein.

Machen Sie mal Datenqualität

Häufig werden die neuen Aufgaben, die durch das Datenmanagement entstehen, einfach auf die vorhandenen Mitarbeiter aufgeteilt. Datenqualitätsmanagement kann man nicht nebenher betreiben – am Anfang ist das Erstellen von Anforderungen an das Datenmanagement ein Vollzeitjob und wird ein Team aus Fachbereich, Organisation und IT beschäftigen.

Auch gerade die Zeit für die Fehlerbehebung wird unterschätzt. Es bringt nichts, die Datenfehler nahe Real-Time zu ermitteln und den Datenpflegern anzuzeigen, wenn der noch 100.000 Datenfehler vorher abzuarbeiten hat. Datenqualität muss behutsam eingeführt und darf die Beteiligten nicht frustrieren.

Wir benötigen erst mal Software

Richtig – Datenqualitätsmonitoring oder auch Data Cleansing ohne die richtigen Werkzeuge macht keinen Spaß. Aber kontinuierlich eine Datenqualität zu messen ohne zu wissen, wie die Daten eigentlich aussehen sollten (Metadatenmanagement) oder ob man eigentlich die richtigen Datensätze nutzt (Datenkatalog) ist auch nicht hilfreich. Wenn möglichst früh Software eingesetzt werden soll, dann schauen sie,

  • nach einem Business Glossar, damit man dasselbe Verständnis von Begriffen und Konzepten im Unternehmen entwickelt,
  • einem Produkt zur Zusammenarbeit, wie Confluence oder Sharepoint, in dem Sie ihre Anforderungen an Geschäftsregeln, Prozesse, Geschäftsobjekte und am besten auch gleich die Verantwortung für die Objekte hinterlegen und diskutieren können.
  • Und dringend: Dokumentieren Sie Ihr semantisches (und logisches) Datenmodell, z. B. in einem Datenkatalog.

„Mein System funktioniert auch mit schlechten Daten!“

Es ist wichtig, dass jeder versteht, warum man ein Datenqualitätsmanagement einführen will. Datenpflege ist nicht sexy, nichts, mit dem man schnelle Erfolge feiern kann, sondern langwierig, komplex und manchmal auch frustrierend. Daher ist es wichtig, eine richtige Einstellung zum Datenmanagement aufzubauen.

Datenmanagement, gerade in integrierten System, ist eine unternehmensweite Disziplin, die viel Abstimmungs- und Überzeugungsaufwand mit sich bringt. Tätigkeiten, die ein Beteiligter machen muss, haben vielleicht keine direkte Auswirkung auf seine Aufgaben, sondern zeigen ihre Auswirkungen erst in späteren Prozessschritten und erleichtern die Arbeit dort. Deshalb ist es wichtig, dass jeder Beteiligte nicht nur seinen Aufgabenbereich kennt – sondern versteht, wie er in dem Gesamtkonzept mitwirkt.

Die Einführung einer Governance zum Datenqualitätsmanagement bedeutet immer die Wegnahme von bestehenden Freiheiten und meist eine neue Art zu arbeiten – das muss vorbereitet und verstanden werden. Nichts ist frustrierender für ein Projekt, als wenn ein Abteilungsfürst den RollOut stoppen lässt, weil er nicht früh genug eingebunden war und erst jetzt die Implikationen für seinen Bereich realisiert.

Als Fazit: Fangen Sie nicht mit Datenqualitätsmanagement an – erst recht nicht als kurzfristige Reaktion auf einen Datenvorfall. Bereiten Sie die Einführung vor – sprechen Sie mit allen Beteiligten und analysieren Sie die Fehlerquellen. Schlechte Datenqualität entsteht durch fehlerhafte Prozesse und die müssen sie anpassen, um die Fehler abzustellen.

IT kann unterstützen – der Einsatz von Software wird aber Ihre Probleme nicht lösen.