Articles
L’approche anti-vieillissement pour les données

L’approche anti-vieillissement pour les données

Comment stopper l’obsolescence insidieuse des données clients par une gestion professionnelle de leur qualité

Le concept générique « anti-vieillissement » désigne aujourd’hui les mesures visant à retarder le vieillissement biologique des êtres humains et, globalement, à prolonger la vie. Et bien évidemment, les produits anti-vieillissement représentent également un marché florissant.1

À l’instar des nombreuses personnes qui mènent le combat contre le vieillissement, les entreprises doivent relever ce défi pour leurs données clients ou, tout du moins, doivent réduire au minimum ce vieillissement. Avec une gestion professionnelle de la qualité des données, c’est aujourd’hui possible.

« Forever young » – pourquoi ce qualificatif est-il tellement important pour les données clients ?

« Les données sont la matière première du 21e siècle » – cette citation de la chancelière allemande Angela Merkel ne cesse de gagner en importance parmi les entreprises, dans un contexte de numérisation rapide des marchés. Sans base de données valide, il deviendra de plus en plus difficile pour les entreprises de réaliser leurs objectifs commerciaux stratégiques et d’adapter leur modèle de distribution et leur modèle opérationnel au nouveau contexte d’un marché numérisé, un concept appelé transformation numérique. À cet égard, les entreprises recourent de plus en plus fréquemment aux prévisions de l’« analyse prédictive ». Elles exploitent les données collectées par le passé, afin d’en déduire l’évolution future de leur activité économique. Prenons quelques exemples :

  • le « Scoring » est une méthode employée par les banques pour évaluer le risque lié à l’octroi d’un crédit ;
  • l’« analyse prédictive » est une composante importante des concepts « Smart Factory » innovants pour l’optimisation de la planification de la distribution et des besoins ;
  • l’« analyse prédictive » est utilisée pour la planification des campagnes dans le commerce et pour la planification des déplacements et du tourisme ;
  • la « maintenance prédictive » est employée pour mettre en place les opérations préventives d’entretien et de réparation.

Néanmoins, sachant que les analyses prédictives, indépendamment du scénario d’utilisation, s’appuient généralement sur à peine dix pour cent des données historiques disponibles dans l’entreprise, il est facile de comprendre les implications concernant la qualité de ces données. Des données gérées avec soin et actualisées, autrement dit des données « récentes et dynamiques », constituent la condition sine qua non de prévisions correctes. Et les prévisions doivent être correctes pour que les adaptations de processus et les planifications de mesure et campagnes qui en découlent donnent leur plein effet. L’inverse est tout aussi vrai et aboutit à une chaîne de réactions néfaste, voire dangereuse pour l’entreprise : des données non vérifiées génèrent des analyses erronées. Ces dernières aboutissent alors à des activités et mesures mal ciblées et, au final, à des décisions erronées.

Tout commence avec les premières « rides » : le vieillissement insidieux des données

Les signes extérieurs visibles du vieillissement chez l’être humain sont le vieillissement de la peau, lequel débute vers l’âge de 25 ans, principalement sous la forme de rides. Malheureusement, le phénomène des « rides » n’est pas aussi flagrant pour les données clients. De nombreuses entreprises perçoivent difficilement le vieillissement insidieux de leurs données et, bien souvent, lorsque les insuffisances deviennent visibles, il est en fait déjà trop tard pour y remédier.

En effet, l’entreprise ne parvient pas, en général, à suivre le rythme annuel des changements, si l’on compte plus de huit millions de changements d’adresse pour cause de déménagement, tous les décès, plus de 500 000 changements de patronyme suite à un mariage ou un divorce, ou encore le nombre incalculable de changements dans les entreprises, qu’il s’agisse de changements d’employés ou de postes, ou encore de liquidations et rachats.2

En tenant par ailleurs compte des erreurs lors de la saisie des adresses et de la saisie des mêmes données à différents endroits dans l’entreprise, il apparaît rapidement que les données clients changent constamment et que la qualité se dégrade progressivement si aucune mesure de contrôle et d’optimisation n’est mise en place.

Une simple cure de Botox ne suffit pas : la qualité des données requiert des mesures pérennes

Pour continuer avec l’analogie sur l’anti-vieillissement, il existe bien quelques possibilités de mettre en place des initiatives ad hoc et ponctuelles pour l’optimisation de la qualité des données dans l’entreprise, par ex. en introduisant un pare-feu de qualité des données (« First Time Right »), qui garantit la saisie d’enregistrements de qualité élevée, autrement dit des enregistrements exacts. Cependant, une approche nettement plus importante et pérenne consiste à optimiser en conséquence les processus de saisie et de gestion des données (Customer Data Management), et, à partir de là, aussi l’infrastructure système. Un autre facteur de réussite tient à la sensibilisation et à la formation des collaborateurs à la qualité des données, afin de développer à long terme une conscience et une culture de la qualité optimale en la matière.

À cet égard, tous les responsables doivent savoir qu’il ne s’agit pas d’une « voie à sens unique », mais que toutes les mesures d’optimisation de la qualité des données doivent être intégrées dans une « boucle fermée ». Celle-ci commence par une analyse de la situation et aboutit à des processus d’optimisation de la qualité des données, dont les résultats sont saisis et documentés, afin de constituer la base d’une nouvelle analyse de la qualité des données.

Data Quality Cycle

Ground Truth : la confiance en vos données

L’objectif de toute mesure anti-vieillissement sur la qualité des données est donc, comme son nom l’indique, d’empêcher un vieillissement insidieux et de garantir durablement et en continu une qualité la plus élevée possible des données clients saisies dans l’entreprise. Cette démarche est indispensable pour instaurer les conditions d’une vision complète, précise et actuelle de chaque client. Au final, cette vision fournit aussi, entre autres, une base réellement fiable pour un processus d’analyse prédictive. À l’avenir, l’évaluation ne s’appuiera plus sur des incertitudes, mais disposera des éléments tangibles nécessaires pour fournir des données ayant la validité requise pour la conception et l’exécution de mesures et processus efficaces.

Avec le concept Ground Truth, la société Uniserv a mis au point une méthodologie pour les processus et les solutions, qui aide les entreprises, dans le cadre d’une procédure en plusieurs étapes, à créer le Golden Profile de chaque client. Ce profil agrège dans un enregistrement central les données d’adresse du client, son comportement d’achat, ses centres d’intérêt et préférences, mais aussi ses communications et son interaction avec l’entreprise. Par ailleurs, le Golden Profile intègre les « traces » que le client laisse derrière lui sur Internet et sur les réseaux sociaux. Autrement dit, les données de référence de chaque client (Golden Record), ainsi que les données de mouvement (données de transaction et d’interaction) sont regroupées (Golden Profile). Le concept Ground Truth assure, par ailleurs, une actualisation permanente de ces données, ainsi que leur synchronisation via les différentes sources de données. 

Ground Truth

En particulier pour l’analyse prédictive, Uniserv a conçu, en partenariat avec l’école supérieure des médias (HdM) de Stuttgart, un prototype sur la base du concept Ground Truth. Ce prototype visait à démontrer l’importance de la qualité des données pour la qualité des prévisions.

Dans le cadre d’un mémoire de licence, cette corrélation a été examinée pour la première fois par une approche empirique. Le mémoire a été rédigé par Paul Titze, étudiant du département de l’information et de la communication dans la filière d’informatique de gestion et de médias numériques à l’école supérieure HdM. Grâce à différents scénarios de test réalisant des analyses de données au moyen de données de référence de différentes qualités, Paul Titze a vérifié la corrélation entre les données de référence de qualité élevée et les résultats de l’analyse via l’apprentissage automatique supervisé (Supervised Machine Learning). Résultat : principalement avec l’apprentissage automatique, pour lequel les données de référence constituent la base de l’apprentissage de l’algorithme, une base de données préparée avec soin via la gestion des données de référence (Master Data Management) a donné de bien meilleures prévisions que l’apprentissage automatique avec un jeu de données brut.

Ainsi, dans le monde numérique, le concept Ground Truth deviendra au final un composant central d’une qualité optimale et pérenne des données dans l’entreprise. 

Conclusion : Comme dans la « vraie vie », l’approche anti-vieillissement de la qualité des données ne se résume pas à une action unique de courte durée, mais englobe une panoplie de mesures (processus, systèmes, collaborateurs), qui contribuent à maintenir le haut niveau de qualité (et, en premier lieu, l’actualité) des données clients dans l’entreprise. Cependant, cela requiert spécifiquement la compréhension nécessaire des causes du vieillissement insidieux, ainsi que des méthodes capables de contrecarrer ce phénomène.

1 Ainsi, selon l’institut d’études de marché Information Resources GmbH (Iri), les produits anti-vieillissement de qualité ont généré un chiffre d’affaires de 202 millions d’euros en 2015 en Allemagne.

2 Une étude de beDirect sur la qualité des données dans les entreprises allemandes est parvenue au résultat consternant suivant : en moyenne, un enregistrement d’adresse sur quatre est erroné.