Veröffentlichungen
Ohne Datenqualität kein erfolgreiches Datenmanagement

Ohne Datenqualität kein erfolgreiches Datenmanagement

Oder muss es heißen: Ohne Datenmanagement keine Datenqualität? Es ist das Henne-Ei-Phänomen – das eine kommt ohne das andere nicht aus. Wie können Unternehmen strategisch vorgehen, um ihr Datenmanagement an den immer steigenden Anforderungen auszurichten und dabei ihre Daten in einer verlässlich hohen Qualität für belastbare Analysen zu pflegen?

Matthias Förg

Matthias Förg
Head of Sales
Uniserv GmbH


Quelle: manage it, Ausgabe 11-12/2020, Autor Matthias Förg (Uniserv),
© ap Verlag GmbH, Ebersberg 2020, Alle Rechte vorbehalten,
https://www.ap-verlag.de  

Das Beratungsunternehmen BARC geht regelmäßig auf die Suche nach IT-Trends und Entwicklungen der Business Intelligence (BI). Zwei Kernerkenntnisse der neuesten Studie „BI Trends 2020“ lauten: „Data Management und Analytics erweitern“ – soll heißen, Unternehmen müssen die immer größer werdende Datenflut nicht nur in den Griff bekommen, sondern diese auch mithilfe verschiedener Technologien, wie Künstlicher Intelligenz und Deep Learning, verwalten, aufbereiten und nutzen können. „Daten und Analytics sortieren“ lautet ein anderes Ergebnis der BARC-Studie, und zu diesem gehört die Erkenntnis, dass wertschöpfende Innovationen auf Basis eigener Datenanalysen nur möglich sind, wenn die Datenqualität stimmt. So weit, so einleuchtend. Allerdings haben viele Unternehmen noch einigen Nachholbedarf im Umgang mit ihren Daten, wie die Entscheiderstudie von Uniserv und YouGov im Juni 2020 zeigt: Mehr als ein Viertel der befragten Führungskräfte bemängelt die Datenqualität im Unternehmen. Veraltete, fehlerhafte, unvollständige oder redundante Datensätze erschweren oder verhindern sinnvolle und belastbare Analysen. Gleichzeitig belegt die Umfrage, dass rund jedes dritte Unternehmen dem Datenmanagement keine Priorität einräumt. Dies führt dazu, dass sie nur minderwertige Daten erhalten und diese nicht entsprechend gewinnbringend einsetzen können. Es ist an der Zeit, beide Phänomene an der Wurzel zu packen, um sowohl das Datenmanagement als auch die Datenqualität zu optimieren.

Bestandsaufnahme der Datenqualität

Nur wer weiß, wo Daten anfallen, wo sie für welchen Zweck erfragt und eingesetzt werden und welche Abteilungen mit welchen Systemen arbeiten, kann mit diesen Daten auch sinnvoll umgehen. Eine Bestandsaufnahme aller Datenquellen bringt im ersten Schritt den notwendigen Überblick. Bei einer mit den Jahren gewachsenen IT-Infrastruktur, die mehrere Abteilungen umfasst, ist das nicht immer ganz einfach. Unternehmen sollten daher hier schon überlegen, wie sie die Daten konsolidieren können, denn zentral zusammengeführte Daten sind deutlich einfacher zu überschauen und zu bearbeiten. 

Als zweites sollten Firmen die Qualität der Bestandsdaten prüfen. Ein Qualitätscheck anhand von standardisierten Dimensionen und Metriken, wie beispielsweise der Smart Data Check von Uniserv, hilft, die Daten auf Vollständigkeit, Korrektheit und Eindeutigkeit zu prüfen. Ist der Ist-Zustand der Daten und Datenquellen erfasst, kann das Unternehmen weitere Maßnahmen zur Optimierung in Angriff nehmen.

Daten konsolidieren für ein effizientes Datenmanagement

Häufig ergibt die Bestandsaufnahme, dass viele Datensilos im Unternehmen aufzufinden sind, die nicht miteinander verknüpft wurden. Dieser Zustand bedeutet einen enormen manuellen Bearbeitungsaufwand für alle, die Informationen und Analysen aus diesen Daten ziehen wollen – und verhindert letztlich effizientes Datenmanagement. Wenn Abteilungen nur die jeweils eigens erhobenen Informationen und Daten nutzen, bleibt der Blick eingeschränkt. Erst wenn Daten zentral zusammengeführt werden, können umfassende und einheitliche Datensätze, etwa Geschäftspartner- oder Kundenprofile, entstehen, die dann den jeweiligen Abteilungen wieder zugeführt werden. Diese sind nicht nur für gezielte Marketing-Maßnahmen, wie personalisierte Angebote oder die nahtlos angepasste und ausgerichtete Customer Journey, nötig. Auch zur Produkt- und Geschäftsentwicklung ist es wichtig, die Kunden und Geschäftspartner so genau wie möglich zu kennen. 

Nicht erst seit der DSGVO ist der sensible Umgang im Hinblick auf den Datenschutz und die Compliance zwingend erforderlich. Je nach Branche herrschen zudem noch unterschiedliche Vorgaben und Regularien, die höchste Transparenz erfordern. Auch hier erleichtert eine zentrale Datenplattform den konformen Umgang enorm. 

Datenqualität optimieren

Ein Datensatz gilt als hochwertig, wenn er eindeutig zugeordnet werden kann, wenn alle verfügbaren, selbst erhobenen (First Party-) Informationen zusammengeführt sind, alle enthaltenen Daten aktuell und fehlerfrei sind. Setzen Unternehmen ein Datenmanagementsystem ein oder verwalten die Daten auf einer Datenmanagementplattform, so sollte dieses System gleich bei der Neuanlage des Datensatzes auf die Vollständigkeit und Richtigkeit hinweisen. Die Datensätze sollten in Echtzeit konfiguriert werden können. Es gibt Lösungen, die einen hohen Automatisierungsgrad vorweisen – diese Möglichkeit wünscht sich immerhin fast jeder dritte befragte Entscheider der Uniserv-Studie. Mit einer solchen Qualitätsbasis können aus den Datensätzen sogenannte Golden Records angelegt werden – sie enthalten konsolidiert alle verfügbaren Kundendaten. Eine kontinuierliche Synchronisierung stellt die Aktualität sicher, auch wenn eine Änderung an einer der „einspeisenden“ Datenquellen stattfindet. Sogenannte Multiple Golden Records ermöglichen eine Kategorisierung der Datensätze nach unterschiedlichen Typen, also nicht nur nach dem jeweiligen Geschäftspartner, sondern auch nach Unternehmen oder Standort. Diese Daten können mit weiteren First-Party-Daten angereichert werden, den Bewegungs- und Transaktionsdaten. So gelangen alle Adressdaten, sowie Daten aus der Buchhaltung, zum Verhalten auf der Website, zur Kundenhistorie, zum Kundenservice, sowie den Interaktionen auf den Social-Media-Kanälen des Unternehmens, mit in den Datensatz und lassen sich für aussagekräftige und belastbare Analysen nutzen.

Anreichern mit externen Daten

37 Prozent der Studienteilnehmer müssen sich auf die hauseigenen Daten verlassen und können sie nicht über Drittquellen (Third Party) anreichern. Das könnte Unternehmen jedoch bei der Personalisierung von Marketingmaßnahmen oder Produkten helfen und die Nutzbarkeit der Datensätze noch einmal deutlich erhöhen – etwa, wenn eine Kundensegmentierung noch durch sekundärstatistische Haushaltsdaten aus dem Social Milieu unterstützt wird. Hier ist für einen effizienten Umgang mit eigenen und Drittdaten eine zentrale Plattform unumgänglich, der manuelle Aufwand wäre kaum zu stemmen. 

Hochwertige Datenqualität und kompetentes Datenmanagement müssen Hand in Hand gehen und können nie als abgeschlossen gelten. Nur wer beides kontinuierlich überprüft und optimiert, kann auf die Daten und die daraus gewonnenen Erkenntnisse auch (auf)bauen.
 

Über den Autor

Matthias Förg ist Head of Sales bei Uniserv und verantwortet den weltweiten Vertrieb der Uniserv-Lösungen für Datenqualität und Kundendatenmanagement. Er hat über 20 Jahre Erfahrung in der IT-Branche. Für Uniserv begleitet Herr Förg seit 2016 Unternehmen auf dem Weg in die digitale Welt.

Lesen Sie hier den vollständigen Artikel 

aus manage it 11-12/2020, Autor Matthias Förg
© manage it / ap Verlag