Devenez dompteur de données

 

Woman ride giraffe . Mixed media

Pourquoi les données ne se laissent-elles pas apprivoiser ?

Nous assistons à la fin progressive du marketing empirique, au profit d’un marketing qui quantifie, évalue et prend ses décisions sur des résultats quantitatifs.
Les opportunités de collecter des données ne manquent pas, les volumes de données à traiter ne sont pas en reste…mais encore faut-il maîtriser la gestion de ces données.

La qualité des données mises à disposition du marketing est souvent perfectible.Il y a longtemps que les entreprises traitent les données de leurs clients. Toutefois la cohérence des données et des indicateurs utilisés n’était pas forcément critique.
Ces données servaient à produire des statistiques à destination de Directions qui travaillaient en silos et qui avaient peu d’occasion de confronter leurs résultats.
De plus le niveau de personnalisation était faible et les actions commerciales largement décidées sur la base de l’expérience acquise.
En revanche, lorsque l’environnement change si vite que l’expérience est rapidement caduque (c’est particulièrement le cas dans le domaine du marketing opérationnel sur Internet), ou lorsque des Directions deviennent plus interdépendantes, la qualité et la cohérence des données deviennent cruciales.

Le défi des données exactes, intègres et de grande fraîcheur

Les données sont difficiles à maîtriser. Elles semblent avoir développé des capacités inouïes à s’altérer, se recombiner de façons inattendues, à se cacher sous des noms qui n’ont plus rien à voir avec leur composition réelle. J’ai trouvé, par exemple, neuf définitions de la donnée « client » dans une banque de détail. Chacun utilisait l’une ou l’autre en étant persuadé de calculer la même information.

Les raisons sont parfaitement :

  • Les données ont été créées tout au long de l’histoire de l’entreprise en fonction de besoins parfois très éloignés des usages actuels.
  • La qualité des données n’est généralement pas pilotée.
  • Peu de personnes sont réellement sensibilisées et mobilisées pour qualifier et enrichir les données. Les commerciaux ou les conseillers ne se sentent généralement pas réellement impliqués dans la gestion de la qualité de la donnée. Tout au plus vérifient-ils les données de contact (adresse physique, téléphone, e-mail) et encore pas vraiment systématiquement.

Dompter la donnée par « La gouvernance »

Organiser la « gouvernance de la donnée » consiste à définir des structures, des processus, des outils, des Kpis, qui sont spécifiquement affectés au traitement des données de l’entreprise.

Les structures de gouvernance :

Plusieurs modes d’organisation sont possibles. Certains préfèrent centraliser le traitement de la totalité des données sous la responsabilité d’une structure unique (le Chief Data Officer peut être le responsable de cette structure), d’autres préfèrent construire des « quartiers » ou blocs de données, chacun étant affecté à un responsable spécialiste de ce domaine. Un quartier ou domaine peut être constitué, par exemple, des données du marketing (données clients, offres, canaux), un autre quartier ou domaine peut regrouper les données concernant le risque, le réglementaire etc…
Chaque solution a ses avantages et ses inconvénients.
Une solution très centralisée pourra jouer sur les synergies, mais elle aura plus de mal à mobiliser les acteurs et installer sa légitimité. Une organisation par quartier de données permet une plus grande implication des acteurs et une plus grande légitimité, mais créé des « frottements » entre les Directions qui partagent les mêmes données.

Le dictionnaire des données :

A la base de toute gouvernance de la donnée, il faut établir un dictionnaire des données. C’est un inventaire des données qui attribue pour chacune, une définition, un mode de calcul (le cas échéant), une ou des sources, des applications utilisatrices et un responsable.
La notion de responsable de chaque donnée est très importante. La donnée est un patrimoine, l’entretien de sa qualité est une responsabilité qui doit être portée par une personne clairement identifiée.
Ce dictionnaire se construit de manière incrémentale, sur la base d’outils qui peuvent être très simples d’accès (j’ai vu un dictionnaire de la donnée d’une banque de détail géré avec succès sur Excel). Bien évidemment avec le temps il est préférable d’utiliser des outils spécialisés.
L’enrichissement du dictionnaire peut se faire par des personnes affectées à cette tâche (solution qui a parfois du mal à fonctionner. Ce travail devient vite rébarbatif et les personnes qui en sont chargées ne peuvent pas être des experts de toutes les données).

Les processus de gestion 

Le processus de renseignement du dictionnaire est l’un des plus sensible. Il a tout intérêt à être décentralisé, mais doit être piloté par des processus organisés et suivis par le/les responsable(s) de la gouvernance de la donnée.
La décentralisation peut également trouver des solutions efficaces avec la mise en place d’un réseau social consacré à cette gouvernance de la donnée.
Le réseau social facilite les échanges, la signalisation des anomalies, la complétude du dictionnaire. Il donne tout leur rôle aux responsables de données et identifie des experts qui peuvent apporter des informations précieuses par leur connaissance de certaines données.

Les outils de la qualité :

Au-delà du dictionnaire, l’équipement en outils spécifiques du traitement de la qualité bien utile. Des outils qui sont capables de faire le diagnostic de données en anomalies et qui sont mêmes en capacité de traiter automatiquement certaines erreurs.
Les éditeurs sont nombreux et leurs produits ont atteint une bonne maturité. Je n’insisterai pas plus sur ce point, car trop souvent la qualité des données est abordée du point de vue de la technologie à mettre en œuvre, alors qu’il s’agit d’abord d’une question de positionnement du « pilote », d’une question de pertinence des processus et de l’implication des acteurs qui sont au contact des données.

Les Kpis :

Aspect essentiel du pilotage, le choix du niveau de qualité recherché est rarement piloté.
Pourtant le coût de la qualité de la donnée est directement lié aux niveaux de qualité à atteindre. Sur cet aspect, un benchmark du marché et de la concurrence est loin d’être inutile.  Faire mieux que les concurrents ou les meilleurs du marché n’est pas à rejeter d’emblée, mais estimer le coût et l’intérêt de cette sur-qualité est incontournable.

La mobilisation de tous :

Enfin l’amélioration de la qualité de la donnée ne peut réussir qu’avec l’implication de tous. Depuis les développeurs, jusqu’aux commerciaux, en passant par les juristes, les responsables des traitements de bases de données, les responsables des processus, tous doivent être sensibilisés à l’impact de leurs décisions sur la qualité de la donnée.
La donnée doit être considérée par tous comme un élément du patrimoine de l’entreprise.
Il en résulte que tout projet de mise en place d’une gouvernance de la donnée doit se préoccuper de l’accompagnement du changement de la « culture de la donnée ».

En somme, dompter la donnée, c’est bien plus une question d’accompagnement de la transformation de la culture qu’une question technologique.

Publicités

Laisser un commentaire

Entrez vos coordonnées ci-dessous ou cliquez sur une icône pour vous connecter:

Logo WordPress.com

Vous commentez à l'aide de votre compte WordPress.com. Déconnexion / Changer )

Image Twitter

Vous commentez à l'aide de votre compte Twitter. Déconnexion / Changer )

Photo Facebook

Vous commentez à l'aide de votre compte Facebook. Déconnexion / Changer )

Photo Google+

Vous commentez à l'aide de votre compte Google+. Déconnexion / Changer )

Connexion à %s