Die schnelle Einführung von Datenqualitätsprojekten führt nicht zu höherer Datenqualität, sondern zu höheren Kosten und frustrierten Mitarbeitern.
Projekte zur Verbesserung der Datenqualität werden nicht strategisch angegangen, sondern sind zu häufig Reaktionen auf Datenpannen. Es regiert der Aktionismus und es müssen schnell „Quick Wins“ präsentiert werden, die nur kurzfristige Augenwischerei sind, aber mittelfristig nicht zu stabileren Geschäftsprozessen oder gar besseren Entscheidungen führen.
Wird Datenqualität nicht strukturiert eingeführt und mit Ressourcen unterlegt, schlafen die Initiativen schnell wieder ein und haben ausser hohen Kosten nichts erreicht. Worauf Sie bei der Einführung achten sollten:
Immer wieder hören wir in Projektvorstellungen und Kick-Offs das Ziel, die Datenqualität zu maximieren (oder zumindest zu signifikant zu steigern). Und immer wieder sind die Kunden erstaunt, wenn man ihnen sagt, dass dies nicht so ohne Weiteres möglich ist und das Problem nicht im Steigern liegt, sondern im Halten der einmal erreichten Datenqualität.
In den Köpfen hat man meist ein Bild, dass man die Daten „einmal sauber machen muss“ und dass es dann schon irgendwie mit der Datenqualität klappt.
Was man immer wieder übersieht, ist:
Daten dokumentieren einen Sachverhalt, sie sind das Ergebnis von (Geschäfts)prozessen und Handlungen; damit ist die Datenqualität die Abweichung zwischen einem geforderten Sollzustand und einem gemessenen Ist-Zustand.
Und hier straucheln Unternehmen das erste Mal: der geforderte Sollzustand ist nicht ausreichend beschrieben.
Da die Aufgabe „Datenqualität steigern“ durch die Führung vorgegeben ist (und nicht hinterfragt werden darf) beginnt man mit dem Aufstellen einfachster Datenqualitätsregeln, um die Datenqualität zu messen und Datenfehler zu korrigieren.
In den Datenqualitätseinführungsratgebern wird immer davon gesprochen, so schnell wie möglich die existierende Datenqualität festzustellen und zu kommunizieren. Der Tipp ist richtig, wird aber häufig missverstanden.
Regeln der Qualität: „Beginnen meine Telefonnummern immer mit einem +“ oder „Wie viele inaktive Materialien habe ich noch in meinem System“ sorgen in der Regel nicht für bessere Prozesse, sondern führen zu Listen mit tausenden unkritischen Fehlern, die abgearbeitet werden müssen. Auf den Einkauf von Datenqualität-Software hat das auch Auswirkung – keine Ausschreibung, in der nicht gefragt wird, ob die Lösung auch schon DQ-Regeln mitbringt. Solche Datenqualitätsregeln bezeichnen wir als a-priori Regeln, da sie zwar logisch richtig und auf Wissen in anderen Projekten basieren – aber nicht auf das spezifische Problem des eignen Unternehmens eingehen. Relevante DQ-Regeln müssen die Geschäfts- und Geschäftsprozessregeln des eigenen Unternehmens abbilden.
Es ist wichtig, für die Auswirkung schlechter Datenqualität zu sensibilisieren, um Unterstützung der Unternehmensführung und auch Budget für die DQ-Initiative zu bekommen. Sie sollten aber einen anderen Weg wählen:
Und wenn die Probleme akzeptiert wurden und Budget vorhanden ist:
Der Aktionismus, möglichst schnell die Datenqualität steigern zu wollen, führt zum sogenannten Data Cleansing. Darunter versteht man die Aufgabe, die langen Listen an Datenfehler, meist händisch, zu korrigieren. Das führt augenscheinlich zu einer besseren Datenqualität. „Wir haben 3000 Fehler diese Woche bereinigt (bitte durch ihre Zahl ersetzen)“. Was man dabei übersieht ist, dass dieses Datenqualitätsniveau aber nur gehalten werden kann, wenn das Data Cleansing dieser DQ-Regel kontinuierlich weitergeführt wird. Wie gesagt, sind Daten das dokumentierte Ergebnis – solange also nicht die Ursache des Fehlers behoben ist, werden weiterhin Fehler erzeugt und häufig auch bereits bereinigte Daten wieder verschmutzt.
Data Cleansing ist ein valides Werkzeug, um gespeicherte Daten einmalig in eine neue Form zu transformieren, z. B. bei Migrationen. Im Tagesgeschäft sind sie erst sinnvoll, nachdem die Prozesse und Eingabemasken fehlerbereinigt worden sind.
Zwei Aspekte, die uns hier immer wieder begegnen:
Daten sind in Datenbanken gespeichert, die durch die IT verwaltet werden – also müssen Daten und Datenqualität auch durch die IT betreut werden. Ja, Daten haben eine technische Komponente und es gibt auch technische Aspekte, die durch Datenqualitätsmonitoring überwacht werden sollten – aber zuallererst sind Daten fachliche Aufzeichnungen. Fachbereiche können Daten interpretieren, sie nutzen, die Datenqualität einschätzen und Regel für den Umgang mit Daten aufstellen. Der Anstoß sich um Daten zu kümmern, muss aus den Fachbereichen kommen und diese müssen die Vorgaben für Datenqualitätsregeln liefern. Das Projektteam muss also immer aus Fachbereich und IT zusammengesetzt sein.
Häufig werden die neuen Aufgaben, die durch das Datenmanagement entstehen, einfach auf die vorhandenen Mitarbeiter aufgeteilt. Datenqualitätsmanagement kann man nicht nebenher betreiben – am Anfang ist das Erstellen von Anforderungen an das Datenmanagement ein Vollzeitjob und wird ein Team aus Fachbereich, Organisation und IT beschäftigen.
Auch gerade die Zeit für die Fehlerbehebung wird unterschätzt. Es bringt nichts, die Datenfehler nahe Real-Time zu ermitteln und den Datenpflegern anzuzeigen, wenn der noch 100.000 Datenfehler vorher abzuarbeiten hat. Datenqualität muss behutsam eingeführt und darf die Beteiligten nicht frustrieren.
Richtig – Datenqualitätsmonitoring oder auch Data Cleansing ohne die richtigen Werkzeuge macht keinen Spaß. Aber kontinuierlich eine Datenqualität zu messen ohne zu wissen, wie die Daten eigentlich aussehen sollten (Metadatenmanagement) oder ob man eigentlich die richtigen Datensätze nutzt (Datenkatalog) ist auch nicht hilfreich. Wenn möglichst früh Software eingesetzt werden soll, dann schauen sie,
Es ist wichtig, dass jeder versteht, warum man ein Datenqualitätsmanagement einführen will. Datenpflege ist nicht sexy, nichts, mit dem man schnelle Erfolge feiern kann, sondern langwierig, komplex und manchmal auch frustrierend. Daher ist es wichtig, eine richtige Einstellung zum Datenmanagement aufzubauen.
Datenmanagement, gerade in integrierten System, ist eine unternehmensweite Disziplin, die viel Abstimmungs- und Überzeugungsaufwand mit sich bringt. Tätigkeiten, die ein Beteiligter machen muss, haben vielleicht keine direkte Auswirkung auf seine Aufgaben, sondern zeigen ihre Auswirkungen erst in späteren Prozessschritten und erleichtern die Arbeit dort. Deshalb ist es wichtig, dass jeder Beteiligte nicht nur seinen Aufgabenbereich kennt – sondern versteht, wie er in dem Gesamtkonzept mitwirkt.
Die Einführung einer Governance zum Datenqualitätsmanagement bedeutet immer die Wegnahme von bestehenden Freiheiten und meist eine neue Art zu arbeiten – das muss vorbereitet und verstanden werden. Nichts ist frustrierender für ein Projekt, als wenn ein Abteilungsfürst den RollOut stoppen lässt, weil er nicht früh genug eingebunden war und erst jetzt die Implikationen für seinen Bereich realisiert.
Als Fazit: Fangen Sie nicht mit Datenqualitätsmanagement an – erst recht nicht als kurzfristige Reaktion auf einen Datenvorfall. Bereiten Sie die Einführung vor – sprechen Sie mit allen Beteiligten und analysieren Sie die Fehlerquellen. Schlechte Datenqualität entsteht durch fehlerhafte Prozesse und die müssen sie anpassen, um die Fehler abzustellen.
IT kann unterstützen – der Einsatz von Software wird aber Ihre Probleme nicht lösen.