Qualität

DataCampusCenter ... Qualität

Keine verlässliche Entscheidung aus schlechten Daten

Qualität

Datenqualität ist zu einem der wichtigsten Querschnittsthemen in der Wirtschaft geworden. Nahezu alle großen Unternehmen und jeder zweite Mittelständler setzen Business Intelligence Lösungen zur Unternehmensteuerung ein. Dabei sind verlässliche Daten die Grundlage jedes Handelns. Die Spannbreite der zu beachtenden Probleme reicht dabei von Mehrfachbestellungen durch fehlerhaften internen Datenabgleich, über fehlgeschlagene Marketingkampagnen wegen mangelhafter Adressdaten bis hin zu Nichteinhaltung von gesetzlichen Vorgaben (Data Governance), da Manager aufgrund unzureichender Unternehmensdaten handelten.
 

Daten bilden die Grundlage für Ihre täglichen Entscheidungen und stellen somit einen bedeutenden Vermögenswert dar. Laut Umfragen vertreten neun von zehn Unternehmen die Meinung, dass schlechte Daten Auswirkungen auf ihr Geschäft haben. Diese Erkenntnis, dass Datenqualität eine wesentliche "Grundfunktion" innerhalb der Daten-Infrastruktur darstellt, ist seit vielen Jahren im Markt gereift. Warum es an der Umsetzung, d.h. der nachhaltigen Verbesserung der Datenqualität, sehr häufig mangelt, ist hinsichtlich des vorhandenen Bewusstseins kaum nachvollziehbar. Unternehmen, die ein entsprechendes Investment scheuen, sollten wissen, dass sich Datenqualität weder von alleine behebt noch im Laufe der Zeit "günstiger" wird - genau das Gegenteil ist der Fall (s. Grafik)!
 

Kosten der Optimierung der Datenqualität

 
Datenqualität lässt sich im günstigsten, aber sehr selten gewordenen Fall einer (einzigen) zentralen Datenhaltung mit Software-Lösungen zur Korrektur und Bereinigung sämtlicher Datensätze dieser Datenbank optimieren (Batch-/Massenverarbeitung). Hierzu bieten bereits Desktop-Produkte eine gute Unterstützung, die Daten Anwender-freundlich visualisieren und Funktionen zum Sortieren, Filtern, Abgleichen mit Referenzdaten (bspw. Postadressen, Sanktions- und Robinson-Listen) als auch eine Funktion zur Ermittlung potenzieller Dubletten (unscharfe Suche) umfassen. Eine Bereinigungsmaßnahme sollte dabei immer mit einer präventiven Strategie kombiniert werden, damit die gewonnene Datenqualität nicht gleich wieder "verwässert" (wie können fehlerhafte Daten bereits bei der Eingabe oder Änderung von Datensätzen vermieden werden?).
 

Im typischen Fall mehrerer Datenquellen bekommen wir es auch mit weiteren Problemfeldern zu tun, die den Blick auf die vernetzten Themen des DataCampus schärfen sollten. Ein oder mehrere Datenobjekte (bspw. der "Kunde") werden in verschiedenen IT-Systemen (bspw. CRM, ERP & Online-Shop) angelegt, geändert und letztendlich gespeichert. Auch wenn jedes dieser Systeme eine "eigene Datenqualität" sicherstellen würde, stellt sich dennoch die Frage, wie diese Daten miteinander abgeglichen werden und wie im Konfliktfall (bspw. unterschiedliche Adressen eines Kunden oder potenzielle Dubletten) entschieden wird. Die vernetzten Themen Datenintegration und Master Data Management (oder auch Stammdaten-Management) bieten an dieser Stelle entsprechende Lösungsansätze, die es mit denen der Datenqualität zu kombinieren gilt.