Fachthemen

Datenqualität im „Closed Loop“

Die „vier Musketiere“ der Datenqualität im Zusammenspiel

„Einer für alle, alle für einen!“ So lautet das bekannte Motto der „vier Musketiere“, das mittlerweile auch im allgemeinen Sprachgebrauch verwendet wird, wenn es darum geht, deutlich zu machen, dass „Alleingänge“ nichts nützen und ein Erfolg sich nur einstellt, wenn mehrere Komponenten reibungslos ineinandergreifen. Und genau aus diesem Grund gilt dieses Motto auch für Maßnahmen mit dem Ziel, die Datenqualität im Unternehmen auf ein neues Level zu heben. 

D’Artagnan, Athos, Porthos und Aramis – so heißen die vier Musketiere in der Literatur und im Film. Auf den Bereich Datenqualität bezogen lauten ihre Namen Datenanalyse, Datenbereinigung, Datenschutz und Datenüberwachung.

Datenanalyse: Status Quo der Datenqualität 

Das erste „Musketier“, die Datenanalyse, verfolgt das Ziel, einen Überblick über den aktuellen Zustand der im Unternehmen verfügbaren Daten zu schaffen. Für viele Unternehmen stellt dieser erste Schritt bereits eine große Herausforderung dar, denn in der Regel liegen die zu analysierenden Daten in unterschiedlichen, im gesamten Unternehmen verteilten Systemen. Die wichtigste Aufgabe im Bereich der Datenanalyse ist es, verlässliche Aussagen zu Beschaffenheit und Qualität der Kundendaten zu treffen, selbst wenn es sich dabei um ein großes Datenvolumen handelt. 

Darüber hinaus werden im Rahmen der Datenanalyse unternehmensspezifische Regeln und Messgrößen festgelegt, mit denen die bestehenden Datensätze angereichert werden können. Durch den Einsatz entsprechender Filter und Segmentierungen ermöglicht die Datenanalyse außerdem das Erkennen von „Ausreißern“ oder „Auffälligkeiten“, die dann im Rahmen der weiteren Maßnahmen zur Qualitätssteigerung bearbeitet werden können.

Datenbereinigung: Konsolidierung verteilter Datensätze 

Als „Zweiter im Bunde“ konzentriert sich die Datenbereinigung darauf, die zuvor in der Analyse festgestellten Mängel und Defizite in der Qualität zu beheben. Dazu werden die vorhandenen Daten durch den Einsatz nativer Konnektoren aus den unterschiedlichen Quellsystemen im Unternehmen extrahiert. Die Datensätze werden postalisch geprüft, auf doppelte und mehrfach vorhandene Datensätze hin untersucht und können ggfs. um zusätzliche Informationen wie z. B. Geo-Daten oder sekundärstatistische Information angereichert werden. Hier wird die Grundlage geschaffen für den sogenannten „Golden Record“, die „Mutter aller Stammdatensätze“. 

Datenschutz: Für eine nachhaltige Qualitätssicherung

Unter der Nummer drei Datenschutz ist an dieser Stelle nicht der Schutz der Daten im juristischen Sinn zu verstehen, sondern Maßnahmen, die sicherstellen, dass die zuvor geschaffene hohe Qualität der Kundendaten auch aufrechterhalten und weiter ausgebaut werden kann. Das Hauptaugenmerk wird dabei darauf gerichtet, die Daten möglichst bereits, wenn sie neu erfasst oder verändert werden, auf Fehler hin zu überprüfen. So können dann auch Hör-, Lese- und/oder Tippfehler direkt beim Entstehen eines Datensatzes bemerkt, angezeigt und dann auch gleich korrigiert werden.

Datenüberwachung: Vertrauen ist gut, Kontrolle besser

Und letztendlich sorgt als viertes „Musketier“ die Datenüberwachung dafür, dass die Arbeit der drei anderen Bausteine nicht umsonst war. Anderenfalls droht die Gefahr einer „schleichenden Verschmutzung“ der Kundendaten Häufig wird diese leider erst erkannt, wenn es zu spät ist. Umzüge, Namensänderungen auf Grund von Scheidungen, Sterbefälle, aber auch Straßen- und Ortsumbenennungen oder Eingemeindungen sind häufige Gründe für diese schleichende Verschmutzung, die dafür sorgt, dass die in den drei anderen Phasen durchgeführten Maßnahmen und die damit verbundenen Bemühungen praktisch umsonst waren.

Die Datenüberwachung dient quasi als Sensor für Datenqualitätsschwächen, der dafür sorgt, dass diese Schwächen frühzeitig erkannt werden, bevor diese sich im Zielsystem auswirken. Grundlage sind dabei die vom Unternehmen selbst definierten Regeln und Richtlinien für die Datenqualität. Auch diese Vorgaben werden kontinuierlich im Hinblick auf notwendige Veränderungen und Aktualisierungen überprüft.

Einer für alle, alle für einen: Erfolgreiche Optimierung der Kundendaten nur durch integriertes Vorgehen möglich

Vielen Unternehmen haben mittlerweile die Bedeutung eines hohen Datenqualitätsniveaus als Voraussetzung für reibungslose Geschäftsprozesse in den unterschiedlichsten Bereichen erkannt. Leider setzen sie dabei allerdings unterschiedliche Schwerpunkte und fokussieren ihre Bemühungen häufig nur auf bestimmte Maßnahmen. Und vergessen dabei, dass das eingangs zitierte Motto der vier Musketiere auch beim Stammdatenmanagement gilt. Was nützt eine detaillierte Datenanalyse, wenn daraus nicht die entsprechenden Maßnahmen zur Datenbereinigung abgeleitet werden? Und selbst die positiven Effekte einer Erstbereinigung werden schnell wieder „verwässert“ werden, wenn keine Maßnahmen zum nachhaltigen Erhalt eines hohen Datenqualitätsniveaus ergriffen werden. Und letztendlich nützt auch das beste Monitoring im Rahmen einer Datenüberwachung nichts, wenn die Ergebnisse nicht in eine erneute Datenanalyse einfließen und damit einen erneuten Prozess zur Verbesserung der Datenqualität anstoßen. Damit wird auch klar, dass es sich bei Initiativen zur Verbesserung der Qualität der im Unternehmen verarbeiteten Kundendaten nicht um einen zeitlich begrenzten Vorgang oder gar um eine Einmal-Aktion handelt. Stattdessen ist ein integrierter und kontinuierlicher Closed Loop erforderlich, um eine nachhaltige Optimierung und Sicherung der Datenqualität zu erreichen: Einer für alle, alle für einen.

Das Ziel: 360-Grad-Sicht auf den Kunden für die perfekte Customer Journey

Es gibt zwar sicher einmalige Ereignisse wie den Aufbau eines neuen CRM-Systems, eine ERP-Migration oder gar eine Firmenübernahme, die eine Migration und Konsolidierung von Daten erforderlich machen und damit der Auslöser für eine Initiative zur Optimierung der Data Quality sein können. In den meisten Fällen geht es Unternehmen, wenn sie sich mit der Optimierung der Qualität ihrer Kundendaten beschäftigen, heute allerdings darum, sich eine möglichst präzise, vollständige und aktuelle 360-Grad-Sicht auf den Kunden zu verschaffen, damit sie ihre Kunden optimal durch die einzelnen Phasen der individuellen Customer Journey begleiten können. Doch es gibt weitere Gründe für die 360-Grad-Sicht:

  • Banken und Versicherungen sind so in der Lage, die immer strengeren gesetzlichen Compliance-Vorschriften einzuhalten (z.B. „Know-Your-Customer-Prinzip“)
  • Fertigungsunternehmen optimieren damit ihre On-Demand-Produktionsprozesse und ihre Beschaffungskosten
  • Energie- und Versorgungsunternehmen erhalten so die Möglichkeit, agil und zeitnah neue Tarife sowie Energie- und Mobilitätskonzepte zu entwickeln. Darüber hinaus optimieren sie die Qualität im Kundendienst, indem sie alle über einen Kunden verfügbaren Daten und Informationen auf Knopfdruck abrufbar machen können.
  • Unternehmen im Handel positionieren sich damit als attraktiver Begleiter des Kunden und sind so in der Lage, ihn mittelfristig an das Unternehmen zu binden. 

Vom Golden Record zum „Golden Profile“ 

Je digitaler der Kunde wird, desto wichtiger ist es für Unternehmen, nicht nur die Daten und Informationen zu erfassen und zu konsolidieren, die über einen Kunden im Unternehmen bekannt sind, sondern auch die „Spuren“ zu verfolgen, die der Kunde heute im Internet und den sozialen Netzwerken hinterlässt.

Golden Record / Golden Profile
Ground Truth

Mit Ground Truth hat die Firma Uniserv daher eine Lösungs- und Prozess-Methodik entwickelt, die Unternehmen entsprechend dabei unterstützt, in einem mehrstufigen Vorgehen letztendlich das Golden Profile eines jeden Kunden zu erstellen, das dessen Adressdaten, sein Kaufverhalten, seine Interessen und Vorlieben, aber auch seine Kommunikation und Interaktion mit dem Unternehmen zu einem zentralen Datensatz aggregiert. Darüber hinaus werden in den Golden Profiles die „Spuren“ integriert, die der Kunde im Internet und den sozialen Netzwerken hinterlässt. Sprich, die Stammdaten eines jeden Kunden (Golden Record) sowie die Bewegungsdaten (Transaktions- und Interaktionsdaten) werden zusammengeführt (Golden Profile). Ground Truth sorgt darüber hinaus für eine kontinuierliche Aktualisierung dieser Daten sowie eine Synchronisierung der Daten über die unterschiedlichen Datenquellen hinweg.

Speziell für Predictive Analytics entwickelte Uniserv in diesem Zusammenhang in Kooperation mit der Hochschule der Medien (HdM) Stuttgart einen Prototypen auf der Basis des Ground Truth. Anhand dieses Prototypen sollte die Bedeutung der Datenqualität als kritischer Erfolgsfaktor für die Güte von Prognosen veranschaulicht werden.

Im Rahmen einer Bachelor-Arbeit wurde dieser Zusammenhang nun auch erstmals empirisch untersucht. Der Autor der Arbeit, Paul Titze, Student am Fachbereich Information und Kommunikation des Studiengangs Wirtschaftsinformatik und digitale Medien an der HdM, überprüfte mit Hilfe verschiedener Testszenarien, in denen Datenanalysen mit Hilfe von Stammdaten von verschiedener Qualität durchgeführt wurden, den Zusammenhang zwischen qualitativ hochwertigen Stammdaten und den Ergebnissen der Analyse via Supervised Machine Learning. Ergebnis: Vor allem beim Supervised Learning, bei dem die Stammdaten die Grundlage für das Lernen des Algorithmus bilden, konnten mit einer durch Stammdatenmanagement qualitativ hochwertig aufbereiteten Datengrundlage deutlich bessere Vorhersagen erzielt werden als beim Machine Learning mit einem unbehandelten Datenset.

Ground Truth wird damit in der digitalen Welt endgültig zur zentralen Komponente für eine optimale und nachhaltige Datenqualität im Unternehmen. Wie digital Unternehmen dabei heute wirklich schon sind, können sie mittels einer kurzen Umfrage via www.digital-ready.net herausfinden.

Fazit: Einer für alle, alle für einen: Dieser Leitsatz galt nicht nur für die vier Musketiere in der Literatur und im Film, dieser Leitsatz gilt auch und vor allem für die vier Musketiere in der Datenqualität: Datenanalyse, Datenanreicherung, Datenschutz und Datenüberwachung. Jeder Baustein für sich erfordert eine sorgfältige Planung und Umsetzung, doch nur im reibungslosen Zusammenspiel und einer Integration zu einem Closed Loop erreicht die Datenqualität im Unternehmen ein völlig neues Niveau, das nachhaltig beibehalten und sukzessive optimiert werden kann. Erst damit ist dann die Grundlage geschaffen für den Einsatz von Ground Truth. Und erst dann erreicht das Unternehmen letztendlich eine präzise, vollständige und aktuelle 360-Grad-Sicht auf den Kunden und somit ein Grundvertrauen in die eigene Datenqualität.