Auf der Suche nach Beispielen zu Kosten, die durch schlechte Datenqualität entstehen, stößt man immer auf das Beispiel der 3 Billionen US-Dollar, die 2016 durch eine Befragung und Hochrechnung für die USA ermittelt worden sind. Hier der Link zum Artikel in der Harvard Business Review.
Interessant finde ich weniger die angegebene Höhe des Schadens, sondern die Analyse, wie der Schaden entsteht:
– Derselbe Fehler wird mehrmals von unterschiedlichen Bearbeitern unabhängig voneinander behoben
– Derselbe Fehler wird in unterschiedlichen Anwendungen behoben
– Derselbe Fehler wird immer und immer wieder behoben
In unseren Projekten stoßen wir auch immer auf diese Sachverhalte. Jeder Mitarbeiter berichtigt den Fehler für seinen Datensilo, sodass er weiterarbeiten kann, hat aber weder die Möglichkeit den Fehler zu melden, sodass andere Nutzer dar-über in Kenntnis gesetzt werden, noch die berichtigten Daten zu verteilen. Es fehlen schlicht Prozesse, die eine dezentrale Berichtigung fehlerhafter Daten vorsehen und die Datenarchitektur, Daten aus den verteilten Systemen zurückzuspielen.
Bei einem unserer Kunden, einem englischen Dienstleister stellte sich das Problem wie folgt dar: 3 % der versendeten Briefe wurden als unzustellbar in die Poststelle des Unternehmens zurückgeliefert. Dort wurden die neuen Adressen festgestellt, die Briefe neu adressiert und wieder versendet. Konnten keine neuen Adressen ermittelt werden, wurden die Briefe vernichtet. Die neu ermittelten Adressen und die nicht erreichbaren Kunden wurden aber nie in das CRM System zurückgespielt. Fazit: jede neue Kampagne nutze weiter die alten Daten und erzeugte immer dieselben Rückläufer, die kostenintensiv berichtigt werden mussten.
Stammdatenmanagementsysteme (MDM) sind seit vielen Jahren im Markt und erlauben es den Unternehmen, Daten aus einer zentralen Quelle zu verteilen. MDM stellt sicher, dass immer alle angeschlossenen Systeme mit den aktuellen und vor allen selben Daten arbeiten. Datenfehler treten aber nicht nur bei den Stammdaten auf, auch andere Arten von Daten, wie Bestands-, Bewegungs- oder Verhaltensdaten, werden zwischen unterschiedlichen Applikationen ausgetauscht. Eine zentralisierte Datenhaltung ist für solche Datenmengen und komplexen Geschäftsprozesse nicht möglich. Hier setzt das Konzept der Datenvirtualisierung, auch Data Fabric genannt, an. Daten sollen dabei nicht mehr ausgetauscht und kopiert werden, sondern bleiben in ihren Systemen liegen und berechtigte Applikationen greifen über einen Virtualisierungslayer zu. Auf jeden Fall sollten Unternehmen aber über eine Data Lineage, eine Datenherkunftsdokumentation, nachdenken. Hierbei werden die Datenflüsse zwischen den Systemen und eventuelle Datentransformationen dokumentiert.
Das bringt uns zum dritten Fall. Bei einem Kunden in Deutschland berichtigt ein Heer von Datenpflegern Tausende Fehler, bis ein automatischer Prozess oder eine Datenlieferung von außerhalb des Unternehmens die bereinigten Daten wieder überschreibt und die Pflege wieder von vorn beginnt. Diesen Fehler kennen wir von vielen unserer Kunden und ohne eine Data Lineage ist es mühsam den Verursacher zu finden; einmal ist es eine Datenmigration, einmal eine Schnittstelle, die wieder mit Initialwerten überschreibt und sehr häufig ein fehlerhaftes Prozessdesign. Richtig teuer wird der Fehler, wenn er nicht erkannt wird – denn dann werden die Daten wieder und wieder bereinigt …
Ein weiterer Fall, in dem derselbe Fehler immer und immer wieder berichtigt wird, ist ein wenig abstrakter, aber nicht weniger häufig. Es sind die Fälle, in denen BI-Entwickler Unmengen an Regeln und Transformationen durchführen, um ihnen bekannte Fehler in den Daten zu korrigieren. Anstatt die Fehler im Quellsystem zu korrigieren, findet eine Korrektur im BI System statt und das meist vor jedem Analyse-Lauf. Beim Design der Datenarchitektur wurde einfach nicht daran gedacht, gefundene Fehler zurückzumelden oder in den Quellsystemen zu ändern. Also entstehen immer mehr Korrekturen am Ende des Prozesses, dem Reporting, anstatt den Fehler im Transaktionssystem einmal zu beheben.
Interessant sind auch die Fälle, in denen Sachbearbeiter eigenständig Fehler von Systemen, Prozessen oder Kunden ausgleichen, um ihre Arbeit durchführen zu können.
Unser Beispiel ist zwar ein wenig älter, aber Automatisierung ist in einigen Branchen immer noch ein Thema: In der Zeit, als Bestellungen noch per Fax kamen, wurden Bestellmengen immer wieder durch altgediente wissende Sachbearbeiter korrigiert “Der Kunde will eigentlich 100 Stück und nicht 100 Kartons à 100 Stück – das bestellt der so seit Jahren; die Artikelnummer gibt es schon seit Langem nicht mehr, aber ich weiß ja, was er will”. Als dieser Versender auf einen automatisierten Bestellprozess umstellte, dauerte, es über 6 Monate, bis die richtigen Artikel in den richtigen Mengen bei den Kunden ankamen.
Wenn auch die ermittelten 3 Billionen USD auf den ersten Blick als viel zu hoch erscheinen, so kennt jeder solche Beispiele aus seinem eignen Unternehmen und die aus Datenqualitätsproblemen verbundenen Mehraufwand und Kosten. Damit wird klar, dass Datenmanagement ein mehr als relevantes Thema ist.
Data Governance beinhaltet die drei großen “P” des Datenmanagements: “People, Processes & Policies” (und auch die Toolfrage).
Schauen wir uns zuerst das Thema Mitarbeiter an:
Es ist wichtig, die Datenkompetenz der Mitarbeiter zu erhöhen und ihnen zu vermitteln, dass ihre Handlungen nicht isoliert sind, sondern ihre Tätigkeit Teil eines Prozesses sind und sie das Ergebnis maßgeblich beeinflussen.
Zur Datenkompetenz gehört die Nutzung eines Metadatenmanagements oder wenigstens eines Datenkataloges, in dem die im Unternehmen vorhandenen Datenelemente und die Data Lineage dokumentiert sind.
Wenn es heute noch nicht im Einsatz ist, dann ist ein Glossar ein wichtiges Instrument, um sicherzustellen, dass Begriffe und Konzepte einheitlich im Unternehmen verstanden werden.
Prozesse und Datenarchitektur müssen das Melden von Datenfehlern oder gar die dezentrale Fehlerbehebung ermöglichen. In weiteren Phasen können sie über das regelmässige Datenqualitätsmonitoring oder die aktive Datensteuerung mittels eines MDM-Systems Kosten sparen.
Lesen Sie auch unseren Blogeintrag Datenqualität einführen.