Veröffentlichungen

Golden Record – Verbesserung der Datenqualität in Unternehmen

Artikel im E3 Magazin zum Thema "Datenqualität".

Unternehmen stehen im Zuge der Debatte um „Big Data“ vor ganz neuen Herausforderungen: Sie müssen nicht nur das wachsende Datenaufkommen technisch bewältigen, sondern gleichzeitig einen Nutzen daraus ziehen. Bisher liegt der Fokus vieler Unternehmen auf dem Sammeln von Daten. 

Datenqualität hat Vorrang

Die neue Bedeutung von Daten und ihr Einfluss auf den Geschäftserfolg, legt offen, was in einzelnen Abteilungen gerne verdrängt wird: Eine schlechte Datengrundlage. Es ist zwar bekannt, dass die meisten Unternehmen den Daten in ihren SAP-Systemen nicht vertrauen und sich lieber auf eigene Erfahrungswerte verlassen. Allerdings funktioniert diese Vorgehensweise in der Praxis nicht mehr, wenn das Datenaufkommen stetig steigt und Unternehmen darüber hinaus den Erfolg der Daten messbar machen müssen. Gerade im Kundenkontakt macht sich der Einfluss korrekter und vollständiger Daten auf den Geschäftserfolg bemerkbar. Der „Connected Customer“ von heute bietet zwar eine Menge an Daten - gleichzeitig erwartet er, dass Unternehmen an jedem Kontaktpunkt vollständig und aktuell über ihn informiert sind, seine Bedürfnisse und Wünsche kennen. In der Praxis wird diese Erwartung wegen Mängeln im Datenbestand und beim Datenmanagement oft nicht erfüllt, da unterschiedliche Abteilungen das Wissen über ihre Kunden in verschiedenen ERP-, CRM- und anderen Systemen sammeln, was wiederum adäquate Reaktionen und kundenzentriertes Arbeiten unmöglich macht.

Die Antwort darauf ist ein Kundendatenmanagement das die Datenqualität über den gesamten Lebenszyklus der Daten hinweg sicherstellt und gleichzeitig Datensilos überbrückt. Geht es um die Datenqualität kommt gemeinhin der Regelkreisansatz („closed loop“) aus dem Total Quality Management zum Einsatz. Zu Beginn werden die Kundendaten bereits während der Datenerfassung mittels Datenqualitätsservices geprüft. Fehlerhafte Kundendaten, die nicht automatisch bereinigt werden können, werden in einer Zwischendatenbank gespeichert und ein Bericht  oder Alert an die Eingabestelle geschickt, so dass diese eine Korrektur vornehmen kann. Mit diesem Kreislauf werden Kundendaten kontinuierlich während der Erfassung und Bearbeitung überprüft. Werden über diese Prozesse regelmäßig Berichte verfasst (etwa über ein Data Quality Dashboard), kann die Leistung dieses geschlossenen Regelkreises für das Datenqualitätsmanagement gemessen (Performance Management) und der Prozess kontinuierlich verbessert werden. Das Ergebnis ist eine nahezu konstante Datenqualität auf hohem Niveau.

Unternehmen sind meist so strukturiert, dass das Datenqualitätsmanagement einen übermäßigen Aufwand erzeugt, weil die Datenhoheit oft bei den Abteilungen liegt. So können unterschiedliche Abteilungen oder neu erschlossene Geschäftsfelder nicht auf alle Kundendaten im Unternehmen zugreifen. Die Datentöpfe passen nicht zusammen und das Datenqualitätsmanagement bleibt in solchen Konstellationen auf abgeschlossene Systeme beschränkt. Diese beherbergen eine Menge an Kundendaten, die durch Zusammenführung mit unternehmensweit verfügbaren Daten in ihrer Qualität verbessert und angereichert werden könnten. Doch de facto verursachen die bestehenden Strukturen und Prozesse hohe Kosten durch Redundanzen. Und was noch schwerer wiegt: Unternehmen verspielen das große Potenzial, das in ihren Datenbanken liegt, nämlich die Chance auf eine einheitliche Sicht auf ihre Kunden. Die Realität ist ernüchternd, denn den Unternehmen fehlt es an Überblick und ihr Management kann sich kaum auf die Daten als Basis für Entscheidungen und Maßnahmen verlassen. Fehlentscheidungen und Fehlinvestitionen können die teure Folge sein.

Die Notwendigkeit für Datenqualität ist offensichtlich. Damit der Erfolg eines umfassenden Datenqualitätsmanagements aber tatsächlich auf die tägliche Arbeit der Mitarbeiter und den Geschäftserfolg des gesamten Unternehmens durchschlägt, ist ein Master Data Management notwendig.

Silos aufbrechen: Der Golden Record

Dafür müssen Unternehmen Datensilos überwinden, indem sie die Verwaltung ihrer Kundendaten zentralisieren. Ziel ist der „Golden Record“ – gewissermaßen die Mutter aller Datensätze, der einzig wahre Datensatz auf den sich alle operativen Systeme beziehen sollen. Technisch gibt es mehrere Ansätze, wie Unternehmen zum Golden Record gelangen können. Der Aufwändigste ist die vollständige Ablösung der einzelnen abteilungsspezifischen Datensilos durch eine zentrale Datenbank. Die Komplexität solcher Projekte ist enorm, nicht wenige scheitern aufgrund widerstrebender Interessen im Unternehmen und unerwarteter technischer Probleme.

Andere Lösungen setzen auf eine Abstraktionsebene, die den Golden Record gleichsam virtuell erstellt und den einzelnen Anwendungen nur Verknüpfungen zu dem Quelldaten anbietet. Das Verfahren ist zwar agiler als die Komplettintegration und schafft den einheitlichen Blick auf den Kunden, ändert aber nur wenig an der Ausgangslage mit vielen Datensilos und schwankender Datenqualität.

Der dritte – hybride – Ansatz kombiniert die Agilität der Datenvirtualisierung mit einer transaktionalen Komponente, die qualitätsgesicherte Daten zentral vorhält, diese aber auch bei Bedarf in die Quellsysteme zurückschreiben kann. Der Golden Record erfüllt bei diesem Verfahren, das als „Hybrid Master Data Management“ (Hybrid MDM) bezeichnet wird, seine Funktion als einheitlicher, vollständiger und aktueller Referenzpunkt an zentraler Stelle. Entsprechend kann er auch im Zuge von Data Governance Initiativen als Referenz für Compliance-konforme Prozesse dienen. Die Abteilungen, welche die Quellsysteme betreiben, haben aber die Wahl, ob sie die qualitätsgesicherten Daten zurückschreiben wollen oder nicht. Entsprechend höher sind die Erfolgsaussichten von Hybrid MDM Projekten.

Datenqualität unternehmensweit zu begreifen, unterscheidet sich grundlegend von herkömmlichen Datenqualitätsprojekten. Diese nehmen die meist abteilungsspezifischen Einfallstore für neue Daten ins Visier. Entsprechend fragmentiert bleiben die Erfolge. Der zentrale Ansatz und die Herangehensweise im Rahmen eines Master Data Managements ist aber dazu geeignet, das „Datenkapital“ für das betreffende Unternehmen deutlich zu mehren, weil die höhere Qualität allen Datennutzern zur Verfügung steht. Unabhängig von ihrer Struktur und Organisation, sollten Unternehmen bei der Überprüfung ihrer Datenqualität und der Einführung eines strategischen Master Data Managements Schritt für Schritt vorgehen:

1. Status Quo der Datenqualität

Durch eine Reihe verschiedener software-gestützter Datenqualität-Tests, z.B. Dublettenprüfung, postalische Validierung, Namensvalidierung und Syntaxprüfungen, können Unternehmen einen sogenannten Datenqualitätsfaktor bestimmen, der dazu dient in Zukunft einen Vergleichswert für die Datenqualität zu haben. Für SAP gibt es dafür das Tool „DQ Audit“. Damit erhalten Unternehmen einen Benchmark für ihre Ergebnisse, ein besseres Verständnis der Stärken und Schwächen aus Datenqualitäts (DQ)-Perspektive und ein Instrument, um zukünftige Leistungskennzahlen (KPIs) zu bestimmen und zu messen. Mit der Uniserv DQ Scorecard können Unternehmen die Qualität ihrer Daten als Teil der Unternehmensziele nachverfolgen.

Dieser Schritt ist wichtig, denn wenn die Verantwortlichen ihre Datengrundlage nicht eindeutig kennen, verlassen sie sich wieder auf ihr Bauchgefühl, wenn es um die Wahl der Maßnahmen zur Verbesserung der Datenqualität geht. Als Folge bleiben ihre Daten unzuverlässig und Mitarbeiter und Kunden müssen weiterhin holprige Prozesse und schlechte Datenqualität hinnehmen.

2. Maßnahmen zur Verbesserung der Datenqualität

Auf Basis des Profilings werden Maßnahmen festgelegt, welche die Daten- und Prozessqualität auf höchstes Niveau bringen sollen. Das kann den Verwendungszweck von Daten sowie die Anforderungen an sie festzuschreiben oder einen Real-Time-Adress-Check einzuführen. Möchte man Dubletten in den Griff bekommen, könnte eine Echtzeit-Dublettensuche die Lösung sein. Die Bandbreite der möglichen Maßnahmen ist - genauso wie die der Anforderungen an Daten und Prozesse - groß und hängt immer vom jeweiligen Fall ab. Idealerweise sind Daten bereits bei der Erfassung in allen Systemen korrekt. Bereits Missverständnisse oder Tippfehler führen aber zu einer stetigen „Verunreinigung“ von Daten. Die Smart Customer MDM Lösung von Uniserv stellt die korrekte Eingabe von Adressdaten in SAP sicher. Über eine zertifizierte Schnittstelle gleicht die Lösung die Daten von Geschäftspartnern, etwa bei der Neuanlage oder bei Änderungen, direkt in der CRM-Lösung mit dem vorhandenen Adressdatenbestand ab. Das vermeidet die doppelte Erfassung von Geschäftspartnerdaten und schafft eine optimale Datenbasis, die reibungslose und effiziente CRM-Prozesse auf Basis eines verlässlichen „Single Customer View“ ermöglicht.  

Anwendern erleichtert die Lösung den Zugriff auf und die Suche nach Stammdaten in SAP. Mit fehlertoleranter und phonetischer Suche überprüft er für SAP, ob Geschäftspartner bereits vorhanden sind, bietet dem Benutzer verschiedene Optionen an und ermöglicht die Weiterleitung zu bestehenden Geschäftspartnerdaten. Die gleiche fehlertolerante Suche kann für eine schnelle Suchanfrage verwendet werden. Damit werden die Reaktionszeiten im Kundengespräch verbessert. Mit dem Einsatz der fehlertoleranten und phonetischen Suche, einzigartiger Referenztabellen der Wissensdatenbanken, Nickname-Tabellen und Unicode-kompatibler Matching-Technologie können Dubletten in den Kundendaten global agierender Unternehmen reduziert und der Einblick in einzelne Kundendaten und Interaktionen mit den Kunden verbessert werden.

3. Datenqualitätsprozesse aufsetzen

Weil Daten in Geschäftsprozessen genutzt werden, beschreiben Prozesse ihren Verwendungszweck und geben das notwendige Datenformat vor. Liegen etwa qualifizierte Leads in einer Excel-Tabelle (Format) vor und sollen für Mailings eingesetzt werden (Prozess), muss das Format entsprechend angepasst werden. Dazu gehört, dass Datenfelder ergänzt, angereichert und so kodiert werden, dass sie für das entsprechende System importfähig sind. Dementsprechend hat jeder Prozess Einfluss auf die Datenqualität.

Die Data Quality Batch Suite ermöglicht die Integration komplexer Datenqualitätsprozesse in SAP, mit einem Schwerpunkt auf der Batch-Verarbeitung hochvolumiger Datenquellen.

Unternehmen können mit dem Service Layer sämtliche Prozesse aus SAP definieren. Darüber hinaus gehören die Konvertierungen von Name und Anschrift, Postvalidierung, Geocoding, Dublettenabgleich, Datenkonsolidierung und Direktmarketingfunktionen zum Umfang der Lösung. Daten können gemäß SAP-Standards analysiert, gesäubert, neu formatiert und neu strukturiert werden. Nutzer erhalten eine Auswahl an verschiedenen Eingabeformaten.

4. Datenintegration und Datensilos überbrücken

Wenn viele verschiedene Datenquellen im gesamten Unternehmen analysiert oder eine komplexe Datenmigration und -integration durchgeführt werden soll, müssen Datenquellen vor der Überführung bereinigt werden. Um gesäuberte Datenquellen für den Upload auf neue oder bestehende SAP-Systeme vorzubereiten, müssen z.B. Fehler, Anomalien und Inkonsistenzen aufgespürt werden. Dies wird durch Software-Lösungen unterstützt, allerdings greift dieser Schritt meist zu kurz – denn es bleibt in Unternehmen weiterhin bei fragmentierten Daten und Datensilos. Um dies zu vermeiden, müssen sich Unternehmen dem ganzheitlichen Kundendatenmanagement annehmen. Das eigentliche Kundenstammdatenmanagement beginnt bei der Schaffung des „Golden Record“. Er ist der einzig gültige, „allwissende“ Datensatz, der alle relevanten Informationen zu dem Kunden beinhaltet und zentriert abbildet und bildet die Grundlage für eine 360°-Sicht. Der übergeordnete Datensatz enthält Links zu allen Stammdatensätzen aus verschiedenen Datenquellen, in denen Attribute aus dem Golden Record verwendet werden. So kann sichergestellt werden, dass Änderungen von Attributen in einer beliebigen Datenquelle in allen anderen verbundenen Quellen ebenfalls berücksichtigt werden. Die Daten bleiben so konsistent und brauchen weder physikalisch bewegt noch redundant gespeichert werden. Data Cleansing und Matching stellen die Datenqualität sicher. Identity Resolution ordnet ähnliche Sätze aus verschiedenen Quellen einem einzigen Golden Record zu. So werden Dubletten vermieden und die Datenqualität weiter gesteigert.

Das Ergebnis ist eine Synchronisierung der Datensilos im Unternehmen. Fragmentierte Daten gehören der Vergangenheit an. Über individuelle Regelwerke kann der Umgang mit dem Golden Record zudem automatisiert und der Datensatz bei Bedarf auch manuell bearbeitet und ergänzt werden.