Fachthemen

Schleichende Alterung von Kundendaten aufhalten

Anti-Aging für Daten

Mit professionellem Data-Quality-Management die schleichende Alterung von Kundendaten aufhalten

„Anti-Aging“ steht heute generell als Sammelbegriff für Maßnahmen mit dem Ziel, die biologische Alterung des Menschen hinauszuzögern, die Lebensqualität zu verbessern und das Leben insgesamt zu verlängern. Und so boomt natürlich auch der Markt für die entsprechenden Anti-Aging-Produkte. Mit Premiumartikeln im Anti-Aging-Segment wurde beispielsweise laut einer Erhebung des Marktforschungsinstituts Information Resources GmbH (Iri) in Deutschland 2015 ein Umsatz von mehr als 202 Millionen Euro erzielt. 

Genauso wichtig, wie viele Menschen den „Kampf gegen das Altern“ nehmen, sollten Unternehmen die Herausforderung annehmen, das Altern ihrer Kundendaten zu verhindern bzw. zumindest auf ein Minimum zu verringern. Mit einem professionellen Data Quality Management ist dies heute möglich.

„Forever young“ – Weshalb ist dies bei Kundendaten so wichtig

„Daten sind der Rohstoff des 21. Jahrhunderts“ – dieses Zitat von Bundeskanzlerin Angela Merkel gewinnt in der unternehmerischen Praxis vor dem Hintergrund einer schnell voranschreitenden Digitalisierung der Märkte immer mehr an Bedeutung. Ohne valide Datenbasis wird es für viele Unternehmen zunehmend schwieriger, ihre strategischen Geschäftsziele zu erreichen und ihre Vertriebs- und Geschäftsmodelle auf die neuen Gegebenheiten eines digitalisierten Marktes – Stichwort digitale Transformation – auszurichten. Dabei greifen Unternehmen immer häufiger auf so genannte „Predictive Analytics“-Prognosen zurück. Sie nutzen in der Vergangenheit erfasste Daten, um daraus Prognosen für die zukünftige Geschäftsentwicklung abzuleiten. Einige Beispiele:

  • „Kredit Scoring“ der Banken zur Risikoeinschätzung vor der Kreditvergabe
  • „Predictive Analytics“ als wichtige Komponente innovativer „Smart Factory“-Konzepte zu Optimierung der Absatz- und Bedarfsplanung
  • „Predictive Analytics“ zur Kampagnenplanung im Handel sowie in der Reise- und Tourismusplanung
  • „Predictive Maintenance“ zum Einleiten präventiver Wartungs- und Reparaturarbeiten.

Wenn man aber bedenkt, dass – unabhängig vom Einsatzszenario – Predictive Analytics-Analysen in der Regel auf gerade einmal zehn Prozent der im Unternehmen verfügbaren, historischen Daten aufsetzen, wird schnell klar, was dies für die Qualität dieser Daten bedeutet. Nur wenn die Daten sorgfältig gepflegt und auf dem neuesten Stand, also „jung und frisch“ sind, stimmen auch die Prognosen. Und nur wenn die Prognosen stimmen, funktionieren auch die daraus abgeleiteten Prozessanpassungen bzw. die Planungen von Maßnahmen und Kampagnen. Im Umkehrschluss ergibt sich daraus eine fatale und für das Unternehmen sogar gefährliche Kettenreaktion: Aus ungepflegten Daten werden ungenaue Analysen. Diese führen wiederum zu verfehlten Aktivitäten und Maßnahmen und letztendlich zu falschen Geschäftsentscheidungen.

Mit ein paar Fältchen geht es los: Die schleichende Alterung von Daten

Sichtbares äußeres Zeichen des Alterns beim Menschen ist die Hautalterung, die etwa ab dem 25. Lebensjahr einsetzt und irgendwann vor allem in Form von Falten sichtbar wird. Leider verhält es sich mit den „Falten“ bei Kundendaten nicht ganz so offensichtlich. Die schleichende Alterung ihrer Daten ist für viele Unternehmen nur schwierig erkennbar, häufig werden die Defizite erst dann erkannt, wenn es eigentlich für Gegenmaßnahmen schon zu spät ist.

Denn in der Regel gelingt es dem Unternehmen nicht, mit den jährlich mehr als acht Millionen Adressänderungen durch Umzüge, den Sterbefällen, den mehr als 500.000 Namensänderungen durch Hochzeiten bzw. Scheidungen und den unzähligen Veränderungen in Unternehmen durch Mitarbeiter- oder Positionswechsel sowie Insolvenzen und Firmenübernahmen Schritt zu halten. Eine Studie von beDirect zur Datenqualität in deutschen Unternehmen kam zu dem erschreckenden Ergebnis, dass im Durchschnitt wohl jeder vierte Adressdatensatz falsch ist.

Berücksichtigt man dann noch Eingabefehler beim Erfassen von Adressen und das mehrfache Erfassen derselben Daten an unterschiedlichen Stellen im Unternehmen, so wird schnell klar, dass Kundendaten einem ständigen Wechsel unterliegen und sich die Qualität sukzessive verschlechtert, wenn keine Kontroll- und Optimierungsmaßnahmen ergriffen werden.

Eine Botox-Kur allein hilft nicht: Nachhaltige Maßnahmen zur Datenqualität sind erforderlich

Um bei der Analogie zum Thema Anti-Aging zu bleiben, gibt es zwar sicher einige Möglichkeiten, ad-hoc und einmalig Initiativen zur Optimierung der Datenqualität im Unternehmen zu starten, z.B. das Einführen einer Data Quality Firewall (First Time Right), die sicherstellt, dass nur qualitativ hochwertige, sprich richtige Datensätze erfasst werden. Weitaus wichtiger und nachhaltiger ist es allerdings, die Prozesse zur Datenerfassung und Datenverwaltung und darauf aufbauend auch die Systemlandschaft entsprechend zu optimieren. Ein weiterer Erfolgsfaktor liegt in der Sensibilisierung und Schulung der Mitarbeiter für das Thema Datenqualität, um langfristig ein Bewusstsein und eine Kultur für eine optimale Datenqualität zu schaffen.

Dabei muss allen Verantwortlichen klar sein, dass dies keine „Einbahnstraße“ ist, sondern alle Maßnahmen zur Optimierung der Datenqualität in einen „Closed Loop“ integriert werden müssen. Dieser beginnt mit einer Ist-Analyse und leitet über zu Prozessen zur Optimierung der Datenqualität, deren Ergebnisse erfasst und dokumentiert und daraus wieder die Grundlage für eine erneute Analyse der Datenqualität geschaffen wird.

Data Quality Cycle

Ground Truth: Das Grundvertrauen in ihre Daten

Ziel aller Anti-Aging Maßnahmen zur Datenqualität ist es also – wie der Name schon sagt, eine schleichende Alterung zu verhindern und nachhaltig und kontinuierlich eine möglichst hohe Qualität der im Unternehmen erfassten Kundendaten zu gewährleisten. Erst damit ist die Grundlage für eine aktuelle, vollständige und präzise 360-Grad-Sicht auf den Kunden möglich. Diese 360-Grad-Sicht auf den Kunden liefert letztendlich dann auch unter anderem eine wirklich zuverlässige Grundlage für einen Predictive Analytics-Prozess. Die Prognose findet zukünftig dann nicht mehr im „luftleeren Raum“ statt, sondern verfügt über die notwendige „Bodenhaftung“, um wirklich valide Daten für die Konzeption und Durchführung erfolgreicher Maßnahmen und Prozesse zu liefern.

Mit Ground Truth hat die Firma Uniserv eine Lösungs- und Prozess-Methodik entwickelt, die Unternehmen entsprechend dabei unterstützt, in einem mehrstufigen Vorgehen letztendlich das Golden Profile eines jeden Kunden zu erstellen, das dessen Adressdaten, sein Kaufverhalten, seine Interessen und Vorlieben, aber auch seine Kommunikation und Interaktion mit dem Unternehmen zu einem zentralen Datensatz aggregiert. Darüber hinaus werden in den Golden Profiles die „Spuren“ integriert, die der Kunde im Internet und den sozialen Netzwerken hinterlässt. Sprich, die Stammdaten eines jeden Kunden (Golden Record) sowie die Bewegungsdaten (Transaktions- und Interaktionsdaten) werden zusammengeführt (Golden Profile). Ground Truth sorgt darüber hinaus für eine kontinuierliche Aktualisierung dieser Daten sowie eine Synchronisierung der Daten über die unterschiedlichen Datenquellen hinweg. 

Ground Truth

Speziell für Predictive Analytics entwickelte Uniserv in diesem Zusammenhang in Kooperation mit der Hochschule der Medien (HdM) Stuttgart einen Prototyp auf der Basis des Ground Truth. Anhand dieses Prototypen sollte die Bedeutung der Datenqualität als kritischer Erfolgsfaktor für die Güte von Prognosen veranschaulicht werden.

Im Rahmen einer Bachelor-Arbeit wurde dieser Zusammenhang nun auch erstmals empirisch untersucht. Der Autor der Arbeit, Paul Titze, Student am Fachbereich Information und Kommunikation des Studiengangs Wirtschaftsinformatik und digitale Medien an der HdM, überprüfte mit Hilfe verschiedener Testszenarien, in denen Datenanalysen mit Hilfe von Stammdaten von verschiedener Qualität durchgeführt wurden, den Zusammenhang zwischen qualitativ hochwertigen Stammdaten und den Ergebnissen der Analyse via Supervised Machine Learning. Ergebnis: Vor allem beim Supervised Learning, bei dem die Stammdaten die Grundlage für das Lernen des Algorithmus bilden, konnten mit einer durch Stammdatenmanagement qualitativ hochwertig aufbereiteten Datengrundlage deutlich bessere Vorhersagen erzielt werden als beim Machine Learning mit einem unbehandelten Datenset.

Ground Truth wird damit in der digitalen Welt endgültig zur zentralen Komponente für eine optimale und nachhaltige Datenqualität im Unternehmen. Wie digital Unternehmen dabei heute wirklich schon sind, können sie mittels einer kurzen Umfrage via www.digital-ready.net herausfinden.

Fazit: Wie im „richtigen Leben“ besteht Anti-Aging bei der Datenqualität nicht aus einer kurzfristigen Einmal-Aktion, sondern aus einem Bündel an Maßnahmen – Prozesse, Systeme, Mitarbeiter – die dabei helfen, dass die Kundendaten im Unternehmen kontinuierlich auf einem hohen Qualitätsniveau – in erster Linie aktuell - gehalten werden können. Dafür braucht es allerdings insbesondere das nötige Verständnis über die Ursachen der schleichenden Alterung sowie über die Methoden, dieser Alterung entgegen zu wirken.