Insights

Alles rund ums Strategische Datenmanagent

Der Data Governance Blog

Kategorie: Datenqualität

Meine Systeme laufen auch mit schlechten Daten
placeholder user

Wie teuer sind Datenfehler? Und wo kommen sie her?

lesen
Der Fokus auf Datenqualität ist unnütz
placeholder user

Die schnelle Einführung von Datenqualitätsprojekten führt nicht zu höherer Datenqualität, sondern zu höheren Kosten und frustrierten Mitarbeitern.

Projekte zur Verbesserung der Datenqualität werden nicht strategisch angegangen, sondern sind zu häufig Reaktionen auf Datenpannen. Es regiert der Aktionismus und es müssen schnell „Quick Wins“ präsentiert werden, die nur kurzfristige Augenwischerei sind, aber mittelfristig nicht zu stabileren Geschäftsprozessen oder gar besseren Entscheidungen führen.

Wird Datenqualität nicht strukturiert eingeführt und mit Ressourcen unterlegt, schlafen die Initiativen schnell wieder ein und haben ausser hohen Kosten nichts erreicht.

lesen
Datenqualität – die etymologische Sicht
placeholder user

Im Datenmanagement ist einer der elementaren Begriffe, der der Datenqualität. Beispiele für schlechte Datenqualität kennt und erlebt jeder: Auch die Auswirkungen schlechter Datenqualität in Unternehmen sind bekannt: Aber die Definition der Datenqualität fällt uns dennoch schwer. In diesem Beitrag beleuchten wir den Begriff aus sprachlicher Sicht, um einmal einen anderen Blickwinkel als das allgemein genutzte […]

lesen
Datenlebenszyklus und Geschäftsprozesse – wie gehört das zusammen?
placeholder user

Obwohl im Deutschen der Ausdruck Elektronische Datenverarbeitung (EDV) oft synonym für IT benutzt wird, haben Applikationen und Prozesse in den letzten 30 Jahren eine viel höhere Aufmerksamkeit ind er IT erhalten, als das Thema Datenmanagement. Erst in den lezten Jahren – vielleicht auch bedingt durch das Lehrgeld, das Unternehmen für wirkungslose BI-Initiativen gezahlt haben – ist das Thema Datenmanagement stärker in den Fokus gerückt. In diesem Blogbeitrag wollen wir uns mit der Beziehung von Daten, insbesondere dem Datenlebenszyklus, und Prozessen beschäftigen.

lesen
Prozessorientiertes Datenqualitätsmanagement
placeholder user

Datenqualität in Geschäftsprozessen Die Bedeutung einer hohen Datenqualität herrscht heute Einigkeit. Auch die Notwendigkeit von Datenqualität für die Durchführung von Geschäftsprozessen wird allgemein anerkannt. Jedoch befassen sich die Unternehmen immer noch überwiegend damit die Daten in ihren Reporting und Business Intelligence Applikationen zu verbessern an statt die Probleme dort anzugehen, wo sie auftreten – in […]

lesen
Die Eisenhower – Falle
placeholder user

»Eine hohe Datenqualität ist die Grundlage für korrekte Entscheidungen«, »Eine hohe Datenqualität ist wichtig für unterbrechungsfreie Geschäftsprozesse« »Ohne Daten keine Digitalisierung«. Kein Unternehmen wird diesen Mantren widersprechen aber dennoch investieren die wenigsten Unternehmen in ein Datenmanagement Programm. Während eines BBQs diskutierte ich darüber mit einem Bekannten, COO eines internationalen Life Science Konzerns, und seine Antwort […]

lesen
Datenqualität einführen
placeholder user

Weil Datenqualität noch vorrangig als IT-Thema betrachtet wird, starten Projekte regelmässig mit der Auswahl einer Softwarelösung. Ansätze, die aus einem solchen Aktionismus „Wir müssen unsere Datenqualität steigern“ entstehen, können zwar kurzfristig die Datenqualität steigern, aber fast nie die Datenqualität dauerhaft halten.

lesen
Datenqualitätsregeln mit der Decision Modeling Notation dokumentieren
placeholder user

In den letzten Jahren gab es einige Anläufe um Entscheidungen und die Entscheidungsfindung zu formalisieren, automatisieren und nachvollziehbar zu dokumentieren. Obwohl diese Ziele sehr überzeugend sind, konnten sich IT- Lösungen, in Unternehmen nicht durchsetzen, da sie als zu isoliert – nicht mit bereits verwendeten Lösungen und Methoden verwendbar – oder als zu akademisch empfunden worden […]

lesen
1-10-100 Regel
placeholder user

Fehler sind nützlich – aber nur, wenn man sie schnell findet

John Maynard Keynes

lesen
Friday Afternoon Measurement Methode
placeholder user

Die Friday Afternoon Measurement Methode ist ein relativ einfaches Werkzeug, um einen Überblick über die Datenqualität zu erlangen. Nehmen Sie die letzten 100 Datensätze des zu betrachteten Geschäftsobjektes oder Prozesses und exportieren Sie sie nach Excel. Definieren Sie die Schlüsselattribute (die Datenfelder), die zwingend richtig sein müssen, damit die Geschäftsprozesse funktionieren. Verteilen Sie die Datensätze […]

lesen