Fachthemen

Datenqualität als integraler Bestandteil von Kundenstammdatenmanagement

Datenqualität als integraler Bestandteil von Kundenstammdatenmanagement

Weshalb Datenqualität für das Grundvertrauen in die Daten so wichtig ist

Vertrauen ist gut, Kontrolle ist besser! Dieser Leitspruch gilt für viele Lebens- und Geschäftsbereiche und hat sich dort vielfach bewährt. Und selbstverständlich gilt dieses Motto auch für Unternehmen, die sich der Herausforderung stellen, eine möglichst hohe Qualität ihrer Kundenstammdaten zu gewährleisten. Aus diesem Grund investieren immer mehr Unternehmen in Verfahren und Systeme, die die Qualität dieser Daten optimieren. Wenn es dann allerdings darum geht, strategische Geschäftsentscheidungen zu treffen, ist ein Grundvertrauen in die Daten erforderlich, am Ende gilt also eher das Motto: Kontrolle ist gut, Vertrauen ist besser!

Customer Journey, Predictive Analytics, digitale Transformation: Auf die Qualität der Daten kommt es an …

Denn unabhängig davon, ob Unternehmen ihre Kundenstammdaten als Grundlage für Maßnahmen verwenden, ihre Kunden auf deren Customer Journey zu begleiten, als Grundlage für Predictive Analytics-Prognosen oder als Grundlage für die digitale Transformation ihrer Vertriebs- oder Geschäftsprozesse, müssen sie darauf vertrauen können, dass die Qualität der zu Grunde gelegten Daten möglichst hoch ist. Ansonsten laufen sie nämlich Gefahr, falsche Customer-Journey-Maßnahmen zu ergreifen, falsche Predictive-Analytics-Prognosen zu treffen und mit ihrer digitalen Transformation zu scheitern. Das so genannte „Grundvertrauen“ in die Qualität der Daten erhält damit eine zentrale Bedeutung.

Datenqualität: Was ist das?

Bevor sich ein Unternehmen Gedanken über die Optimierung der Datenqualität macht, muss zuerst einmal geklärt werden, was überhaupt unter dem Begriff „Datenqualität“ zu verstehen ist. In der Praxis werden in der Regel die folgenden Kriterien festgelegt, um die Qualität von Daten zu bewerten:

  • Eindeutigkeit (Zuordnung zu einer Person)
  • Konsistenz (Widerspruchsfreiheit der Datenbank)
  • Fehlerfreiheit (Genauigkeit)
  • Aktualität (kontinuierliche Aktualisierung)
  • Umfang (sachdienliche Informationen und Angaben)
  • Freiheit von Redundanz (Duplikate)
  • Referenzielle Integrität und eindeutige Vergabe von Schlüsseln/IDs

Wie diese Kriterien zeigen, gibt es eine ganze Reihe von „Stellschrauben“, an denen gedreht werden kann und muss, um das Qualitätsniveau zu halten und zu erhöhen. Auf der anderen Seite gibt es auch eine Vielzahl an Faktoren, die das Datenqualitätsniveau beeinträchtigen können.

Qualitätssicherung und -optimierung bei Kundenstammdaten: Ein „Hase-und-Igel“-Spiel

Wenn Unternehmen das Ziel verfolgen, die Qualität ihrer Kundenstammdaten kontinuierlich und nachhaltig auf ein möglichst hohes Niveau zu bringen, gilt es, gleich eine ganze Reihe von Herausforderungen zu meistern. 

Zum einen sind Kundenstammdaten traditionell einem kontinuierlichen Wandel unterzogen, was dazu führt, dass es eigentlich nie einen „Status Quo“ gibt, sondern das Streben nach optimaler Datenqualität einem „Hase-und-Igel“-Spiel gleicht. Immer wenn das Unternehmen glaubt, ein möglichst hohes Datenqualitätsniveau erreicht zu haben, gibt es zeitgleich externe wie interne Faktoren, die dieses Niveau beeinträchtigen und wieder „nach unten“ ziehen. Dazu gehören die kontinuierlichen Veränderungen der Kundendaten durch Umzüge, Namensänderungen, Wechsel des Arbeitsplatzes oder Ändern der Position, u.v.m. Fehler durch die für die Eingabe und Pflege der Kundenstammdaten verantwortlichen Mitarbeiter sind ein weiterer Risikofaktor. Und wenn die Daten dann, wie auch heute noch in vielen Unternehmen üblich, in unterschiedlichen Systemen erfasst und bearbeitet werden, drohen weitere Gefahren für die Datenqualität wie Duplikate oder unvollständige Daten, die das Unternehmen nur mit den entsprechenden Gegenmaßnahmen beseitigen kann.

Strategische, organisatorische und technische Maßnahmen zur Optimierung der Datenqualität

Die Maßnahmen zur Optimierung lassen sich in die drei Bereiche „strategisch“, „organisatorisch“ und „technisch“ unterteilen:

Strategische Maßnahmen

  • Mitarbeiterbewusstsein wecken: Wert und Nutzen qualitativ hochwertiger Kundendaten erklären
  • Verständnis für Sorgfalt im Umgang mit Kundendaten erhöhen

Organisatorische Maßnahmen

  • Scorecards zur Bewertung der Qualität der Kundendaten
  • Workflows und Checklisten zum nachhaltigen Erhalt und zur Optimierung der Qualität der Kundendaten

Technische Maßnahmen

  • „DQ-Checks“ an den Stellen, an denen Daten ins Unternehmen gelangen
  • „First Time Right“: DQ-Firewalls zum Absichern, dass nur Daten in das System aufgenommen werden, die dem Verwendungszweck angemessen sind
  • Master Data Management Hub zum Aggregieren der in verschiedenen Systemen erfassten und bearbeiteten Daten zu einem Golden Record.

Der digitale Kunde und seine Spuren im Internet

In Zeiten einer zunehmenden Digitalisierung reichen die genannten strategischen, organisatorischen und technischen Maßnahmen zur Optimierung der Data Quality heute allerdings nicht mehr aus. Diese Digitalisierung des Kundenkontakts und die damit verbundene zunehmende Nutzung sozialer Netzwerke haben dazu geführt, dass der Kunde dort Spuren hinterlässt – in Form von Beiträgen, Kommentaren und Bewertungen der von ihm erworbenen Produkte oder genutzten Dienstleistungen. Im Gegensatz zur bisherigen analogen Welt spricht der digitale Kunde also nicht mehr nur MIT dem Unternehmen, sondern in immer stärkeren Maße auch ÜBER das Unternehmen, ohne dass dabei ein direkter One-to-One-Kontakt mit dem Unternehmen entsteht.

Das Entstehen von Big Data in Verbindung mit leistungsstarken Cloud-Technologien hat darüber hinaus dazu geführt, dass es für Unternehmen mittlerweile möglich ist, diese „Spuren“ des digitalen Kunden zu lesen und auszuwerten. Allerdings gilt auch hier „Qualität geht vor Quantität“. Viele Unternehmen „ächzen“ derzeit bereits unter der Fülle an Daten, die in den unterschiedlichsten Monitoring-Systemen erfasst werden und suchen verzweifelt nach Möglichkeiten, sich einen Durchblick im „Big-Data-Dschungel“ zu verschaffen.

Big Data werden Smart Data: Allerdings nur, wenn die Datenqualität stimmt …

Dabei ist mittlerweile den meisten Verantwortlichen in Unternehmen klar, dass es mit der Datenfülle allein nicht getan ist und es vielmehr darum geht, die RICHTIGEN Daten an der RICHTIGEN Stelle über einen Kunden zu sammeln und zu einem Gesamtbild, der 360-Grad-Sicht auf den Kunden, zu aggregieren. Nur so werden aus „Big Data“ „Smart Data“, die dem Unternehmen eine aktuelle, vollständige und präzise Grundlage für seine strategischen Geschäftsentscheidungen liefern., auf die er sich voller Vertrauen verlassen kann.

Ground Truth: Das Grundvertrauen in ihre Daten

Das Grundvertrauen von Unternehmen in ihre Daten gehört zu den wichtigsten Voraussetzungen für unternehmerischen Erfolg. Ein möglichst hohes Datenqualitätsniveau ist dabei ein zentraler Erfolgsfaktor. 

Mit Ground Truth hat die Firma Uniserv eine Lösungs- und Prozess-Methodik entwickelt, die Unternehmen entsprechend dabei unterstützt, in einem mehrstufigen Vorgehen letztendlich das Golden Profile eines jeden Kunden zu erstellen, das dessen Adressdaten, sein Kaufverhalten, seine Interessen und Vorlieben, aber auch seine Kommunikation und Interaktion mit dem Unternehmen zu einem zentralen Datensatz aggregiert. Darüber hinaus werden in den Golden Profiles die „Spuren“ integriert, die der Kunde im Internet und den sozialen Netzwerken hinterlässt. Sprich, die Stammdaten eines jeden Kunden (Golden Record) sowie die Bewegungsdaten (Transaktions- und Interaktionsdaten) werden zusammengeführt (Golden Profile). Ground Truth sorgt darüber hinaus für eine kontinuierliche Aktualisierung dieser Daten sowie eine Synchronisierung der Daten über die unterschiedlichen Datenquellen hinweg. 

Ground Truth

Speziell für Predictive Analytics entwickelte Uniserv in diesem Zusammenhang in Kooperation mit der Hochschule der Medien (HdM) Stuttgart einen Prototyp auf der Basis des Ground Truth. Anhand dieses Prototypen sollte die Bedeutung der Datenqualität als kritischer Erfolgsfaktor für die Güte von Prognosen veranschaulicht werden.

Im Rahmen einer Bachelor-Arbeit wurde dieser Zusammenhang nun auch erstmals empirisch untersucht. Der Autor der Arbeit, Paul Titze, Student am Fachbereich Information und Kommunikation des Studiengangs Wirtschaftsinformatik und digitale Medien an der HdM, überprüfte mit Hilfe verschiedener Testszenarien, in denen Datenanalysen mit Hilfe von Stammdaten von verschiedener Qualität durchgeführt wurden, den Zusammenhang zwischen qualitativ hochwertigen Stammdaten und den Ergebnissen der Analyse via Supervised Machine Learning. Ergebnis: Vor allem beim Supervised Learning, bei dem die Stammdaten die Grundlage für das Lernen des Algorithmus bilden, konnten mit einer durch Stammdatenmanagement qualitativ hochwertig aufbereiteten Datengrundlage deutlich bessere Vorhersagen erzielt werden als beim Machine Learning mit einem unbehandelten Datenset.

Ground Truth wird damit in der digitalen Welt endgültig zur zentralen Komponente für eine optimale und nachhaltige Datenqualität im Unternehmen. Wie digital Sie in Ihrem Unternehmen dabei heute wirklich schon sind, können Sie mittels einer kurzen Umfrage via www.digital-ready.net herausfinden.

Fazit: Kontrolle ist gut, Vertrauen ist besser: Die Umkehrung des eingangs zitierten Leitspruchs gilt insbesondere, wenn es darum geht, Kundenstammdaten als Grundlage für strategische Entscheidungen zu verwenden. Nur wenn das Grundvertrauen in diese Daten nachhaltig gewährleistet ist, werden Unternehmen die richtigen strategischen Entscheidungen treffen.