DATA%20CONSULTING%20LOGO
AdobeStock_218913222.jpeg

1-10-100 Regel

Marc Simonis
April 18, 2023

Die 1-10-100 Regel ist eine Möglichkeit, die Auswirkungen schlechter Datenqualität zu bewerten.

Fehler sind nützlich – aber nur, wenn man sie schnell findet

John Maynard Keynes

Die von George Labovitz und Yu Sang Chang 1992 entwickelte 1-10-100 Regel ist eine einfache Möglichkeit, die auf jedes Unternehmen angewendet werden kann, um die Auswirkungen schlechter Daten zu berechnen.

Man geht von drei Phasen aus, in denen Kosten durch den Fehler entstehen können:

Phase 1 – die Prävention: Einen Fehler gar nicht entstehen zu lassen, wir mit dem fiktiven Betrag von 1 bewertet. Praktisch bedeutet das, dass Unternehmen ihre externen (und internen) Schnittstellen überwachen müssen und eine Dateneingabe gesteuert und validiert wird. Obwohl der Aufbau und Unterhalt dieser Überwachung Kosten verursacht, ist es dennoch der kostengünstigste Fall.

Phase 2 – Fehlerkorrektur: Hier steigt der Betrag um den Faktor 10 – ein deutlicher Anstieg. Diese Kosten entstehen, da ein Fehler identifiziert werden muss und dann der Korrekturaufwand noch dazu kommt. Im Datenqualitätsmanagement nennt man dies Datenqualitätsmonitoring.

Phase 3 – Fehlerfall: Der Faktor 100 zur 1 in Prävention steht für einen nicht erkannten Fehler. Häufig entstehen neben den realen Kosten (100 Packungen zu 100 Stück anstelle von 100 Stück geordert) auch ein erheblicher Image-Schaden.

Dieses plakative Werkzeug kann einfach beim Aufbau von Business Cases für die Einführung von Datenqualitätsprogrammen verwendet werden: „Was sind die Auswirkungen, wenn ich den Datenfehler nicht frühzeitig entdecke?“