Datengesteuerte Unternehmen brauchen verlässliche Daten
In dem Maße wie Unternehmen die Relevanz von Daten für ihr Geschäft erkennen, führt dies zu neuen Stakeholdern und Erwartungen sowie zu einem Wandel im Umgang mit Daten und Analytik.
Künftige analytische Landschaften weisen eine zunehmende Heterogenität auf: Einerseits durch die Sammlung, Aufbereitung, Analyse und Visualisierung von unterschiedlich strukturierten Daten aus verschiedenen internen und externen Quellen, aber auch andererseits durch zusätzliche analytische Lösungen, die auf und neben dem Data Warehouse oder direkt in den operativen Systemen laufen.
Es liegt auf der Hand, dass mit dieser Entwicklung die Bedeutung verlässlicher Nutzdaten und konsistenter Stammdaten wächst, da die Notwendigkeit zur Abbildung einer einheitlichen und verlässlichen Basis für analytische Anforderungen zur Optimierung der bestehenden Prozesse oder Innovation des Geschäfts nicht nur weiterbesteht, sondern immer wichtiger wird.
Ein institutionalisiertes Datenqualitäts- und Stammdatenmanagement sind wesentliche Voraussetzungen für jedes datengesteuerte Unternehmen.
Die Grundsätze für das Datenqualitätsmanagement
BARC führt regelmäßig Marktbefragungen durch und betreut Unternehmen in ihren Digitalisierungsprojekten. Die folgenden Grundsätze für das Datenqualitätsmanagement fassen die dabei ermittelten wesentlichen Erkenntnisse zum Status Quo der Datenqualität in Unternehmen zusammen.
Mittels dieser Grundsätze können sich Unternehmen für die Relevanz verlässlicher Daten sensibilisieren und Initiativen zur Optimierung ihrer Datenqualität starten:
1. Daten haben aus diversen Gründen immer Fehler
Fehler in Daten entstehend durch Eingabefehler von Menschen (ca. fünf Prozent aller manuellen Eingaben sind durchschnittlich fehlerhaft), Verarbeitungsfehler (Rechen-, Übertragungs-, Datenformatfehler), bewusste Falscheingabe/Betrug (z. B. Mitarbeiter-Bonus-Systeme mit Prämien für Neukunden führen zu mehr Dubletten).
Zudem ändert sich die Wirklichkeit, die durch die Daten abgebildet werden soll (z. B. bei einem Umzug wird die Adressinformation in der Datenbank in diesem Moment falsch). Daneben kann die fachliche Aussagekraft durch die Art der technischen Modellierung, Ablage, Nutzung oder Anzeige der Daten mangelhaft sein.
2. Die Güte der Daten/ Datenqualität definiert sich aus dem Verwendungskontext
Die benötigte Güte von Daten ergibt sich nicht aus absolut gültigen Qualitätsmaßstäben, sondern aus dem Verwendungskontext (z. B. Kundendaten, die einerseits für die Berechnung einer Kundenbonität und andererseits zur Kundensegmentierung im Zielkundenmarketing genutzt werden. Im ersten Fall müssen strengere Regeln für die Datenqualität gelten, weil der Kunde direkt (negativ) betroffen sein kann. Im letzteren Fall halten sich die Auswirkungen mangelnder Datenqualität in Grenzen, da die Konsequenzen wahrscheinlich nicht direkt spürbar sind.
3. Daten brauchen Öffentlichkeit, um die Qualitätsmängel zu identifizieren
Datenfehler im ERP-System werden z. B. dort nicht immer entdeckt, da nicht alle Daten in diesem System verarbeitungsrelevant sind; sie zeigen sich erst in der Anzeige, z. B. in einem Bericht. Gerade referentielle Fehler werden erst offensichtlich, wenn alle Daten gemeinsam verarbeitet oder angezeigt werden.
4. Die Bereinigung der Fehler sollte immer so nah wie möglich am Entstehungsort der Daten erfolgen
Fehler sollten lieber bei der Eingabe entdeckt werden als später nach der Verarbeitung (z. B. indem man Vorkehrungen trifft, dass nur gültige Werte erfasst werden durch Dublettenprüfungen, Prüfung von Geschäftsregeln, vordefinierte Auswahlwerte etc.)
5. Datenqualitätsmanagement erfolgt primär in den Dimensionen Organisation, Prozesse und Technologie
Datenqualitätsmanagement erfolgt in der Organisation z. B. durch Verantwortlichkeiten, Organisationeinheiten, Anforderungsmanagement; in Prozessen z. B. durch Richtlinien, Anwenderprofile, Anwendungsfälle; in Technologie z. B. in der Architektur, Software, durch Konzepte und Einsatzprinzipien.
6. Organisation und Prozesse sind wichtiger als Technologie
Organisatorische Aspekte haben einen größeren Einfluss auf die Datenqualität als technische. Prozesse sind mindestens so wichtig wie Tools.
7. Verantwortung für Daten muss im Fachbereich liegen und geklärt werden
Datenqualitätsmanagement ist keine IT-Aufgabe. Bewährt haben sich die Management-Rolle „Data Owner“, der die Qualitätskriterien, ggfs. aufgrund gesetzlicher Anforderungen (Aufbewahrungsfristen, Datenschutz) u. Ä. definiert und kontrolliert; sowie die operative Rolle eines „Data Steward“ zur laufenden Überwachung und Bereinigung von Daten.
8. Datenqualitätsmanagement muss alle Daten umfassen
Datenqualitätsmanagement muss transaktionale Geschäftsdaten, Stammdaten, Maschinendaten und von Menschen generierte Daten umfassen.
9. Datenqualität wird automatisch schlechter und muss daher ständig überwacht und verbessert werden
Daten „altern“ und müssen ständig gepflegt werden. Datenqualitätsmetriken helfen, den Qualitätsstand zu überwachen.
Nicht nur datengesteuerten Unternehmen erkennen schmerzlich, dass der Produktionsfaktor „Daten“ genauso wie die anderen Produktionsfaktoren „Arbeit“, „Boden“ und „Kapital“ nicht per se in der richtigen Quantität und Qualität zur Verfügung steht, sondern verwaltet, gepflegt und weiterentwickelt werden muss.
Nach der Ermittlung des Status Quo der innerbetrieblichen Datenqualität, können Unternehmen mit mittels Justierung der Organisation, Optimierung der Prozesse und Verbesserung der technologischen Unterstützung die Datenqualität effizient und nachhaltig steigern, sowie langfristig sichern.