Données client, la grande peur

28919296_blog

Les nouvelles capacités de collecte des données client suscitent tout à la fois peur et enthousiasme.
Les sociologues auraient leur mot à dire sur l’imaginaire attaché à la maîtrise des données personnelles.

Est-ce que cette peur est rationnelle ?

Toutes les sociétés ont eu leurs grandes peurs. Certaines étaient sans fondement.

  • Le XVIe et le XVIIe siècle craignaient l’eau, en partie dit-on parce qu’elle était un vecteur de la peste. Après les terribles épidémies qui avaient ravagées l’Europe, il était recommandé de se laver avec parcimonie.
  • D’autres sont plus étayées. Le XXè siècle a eu peur du nucléaire et des OGM, le XXIè siècle a peur du changement climatique.

Dans quelle catégorie ranger la crainte suscitée par la collecte des données des clients ?

La peur associée à la collecte de masse des données client, a-t-elle quelque chose à voir avec la figure métaphorique du régime totalitaire représentée dans « 1984 » de Georges Orwell ?
Puise-t-elle dans l’angoisse suscitée par la découverte de la méticuleuse collecte d’informations de la Stasi ?
Ou encore dans la surprise de découvrir les écoutes des grandes oreilles de la NSA ?
Sommes-nous en face d’une réelle menace de nous voir confisquer notre vie privée ?

Il est exact que les entreprises peuvent collecter des données très précises sur nos comportements.

Depuis bien longtemps les banques par exemple connaissent beaucoup de choses sur nous. Notre banquier peut accéder aux informations concernant nos achats, nos revenus, nos placement, notre lieux d’habitation, le type d’habitat (habitons-nous une maison ou un appartement par exemple) la valeur de notre logement, nos préférences de contacts, nos déplacements (à partir des lieux d’utilisation de la carte bancaire), la constitution de notre famille etc…
Si notre banquier est aussi notre assureur, il connaît les caractéristiques de notre habitation, notre type de véhicule etc…
A partir de ces données, les calculs statistiques permettent de déduire nos centres d’intérêt, notre probabilité d’être séduit par tel ou tel type de service.
Mais c’est notre banque et nous nous disons que les données sont bien protégées.
Notre assureur découvre lui aussi qu’il peut bien mieux connaître ses clients.
Les objets connectés permettent aux assureurs, pour peu qu’on les y autorise, de connaître notre rythme cardiaque, notre régime alimentaire, nos pratiques sportives, mais aussi notre façon de conduire, nos heures de présence à la maison etc…
Mais c’est notre assureur et nous avons aussi confiance dans son sérieux pour ne pas laisser « fuiter » ces informations très personnelles.

Ce qui pour certains est plus dérangeant, c’est que petit à petit, des entreprises qui ont un capital confiance moindre, peuvent acquérir des données de la même nature.

Il suffit de collecter les traces que nous laissons sur Internet. Nous savons que Google dispose d’informations d’une richesse inégalée sur nos comportements. Bien d’autres entreprises à partir d’un simple cookie sur notre ordinateur peuvent connaître nos préférences en matière de lecture, de voyages, d’ameublement, de restaurant.
Une analyse de ces « traces » permet aussi de détecter à quel moment nous risquons de passer à l’achat. Un client qui revient à plusieurs reprises sur les pages d’une offre de produit ou service dans un temps très court, a des chances d’en envisager l’achat.

Du point de vue de l’entreprise cette quête d’information est directement liée à la nécessité d’être efficace, elle est vitale.

Connaître les clients pour leur proposer des offres commerciales avec un maximum de chance de les intéresser est la base de toute rentabilité commerciale.
Dans un environnement de concurrence exacerbée, réduire ses coûts d’acquisition en ciblant très exactement le client susceptible d’acheter une offre est un avantage évident.
Pas une entreprise ne résiste à l’attrait de la collecte de données et à leur analyse.
A l’heure où une grande partie des parcours d’achat démarrent sur Internet, on comprend tout l’intérêt de comprendre qui vient sur un site, ou n’y vient pas, pourquoi tel produit a attiré l’attention des clients et un autre pas, ou encore pourquoi un  client a interrompu sa visite avant l’achat alors qu’un autre a été jusqu’au paiement.
Les données collectées sur les clients sont analysées d’un point de vue statistique. Elles vont permettre d’isoler des comportements et de comprendre ce qu’il convient de faire pour mieux attirer ceux qui ne sont pas séduits par le parcours d’achat proposé.

Peut-on s’attendre à ce que les entreprises s’autolimitent dans la recherche et l’analyse des données ?

On ne comprendrait pas pourquoi une entreprise refuserait de capter une information que les clients leur donnent (sauf sur des critères d’éthique pour des données sensibles). Surtout si ces informations leur donnent un avantage concurrentiel ou améliorent leurs marges.
Certes c’est une recommandation de Christophe Bénavent qui s’exprime ainsi dans la revue l’Argus du 6 novembre 2015 « il faut uniquement collecter les données dont on envisage la finalité ».
C’est un point de vue qui pouvait être entendu lorsque la captation des données était difficile et le stockage coûteux.
Dans l’ère du Big Data, la notion de donnée utile n’a plus de sens. La démarche du data-scientist n’est pas de répondre à une question en utilisant des données utiles, mais de chercher de nouvelles questions en interrogeant des données de toutes natures.

Le contrôle peut-il venir des consommateurs eux-mêmes ?

Sauf retournement de situation, c’est peu probable. Il y a bien quelques réactions à l’appétit de données de Google, Amazon, Apple. Mais combien de personnes renonceront à la facilité d’utilisation de Google, à la richesse de l’offre d’Amazon ou à l’image que renvoie d’elles un produit Apple ?
Ma conviction c’est qu’il en sera de même dans tous les autres domaines. Les consommateurs ne résisteront pas longtemps à la détention d’objets connectés associés à des contrats d’assurances si ces contrats offrent un écart de prix significatif.

La réglementation peut-elle nous protéger ?

A mon sens, seule la réglementation pourrait peut-être limiter la course « à l’armement » dans le domaine du stockage et de l’exploitation des données. Elle le fait d’ailleurs grâce aux travaux de la Communauté Européenne et de la CNIL en France.
Mais la réglementation est toujours en retard sur les évolutions technologiques. De plus elle ne peut se permettre de mettre en difficulté nos entreprises exposées à une concurrence internationale.

 

 

Big Data study Case ING Belgium


Pourquoi se lancer dans le Big Data?

Pour ING Belgium, le choix de s’orienter vers le Big Data est lié à la nécessité de trouver de nouvelles ressources de ciblages.

En 2009, 5% des contacts commerciaux s’appuient sur des modèles de scores. Mais en 2014, c’est 60% des contacts qui résultent de modèles prédictifs.Environ 4,4 millions de scores sont utilisés dans la sélection des clients à contacter.

La demande du marketing porte sur des ciblages de plus en plus fins et le potentiel de réponses basées sur les techniques utilisées jusque-là s’épuise.

Pour qui et sur quels thèmes initier la démarche ?

En 2014, ING Belgium décide de créer un « Lab Big Data ». Les premières applications sont réalisées pour le marketing « retail » et les entreprises. La Direction du Marketing était la plus intéressée par cette démarche et constituait un excellent « sponsor ».

Les premiers travaux portent sur des données non structurées, il s’agit d’exploiter les « commentaires libres » laissés par les conseillers dans l’outil de CRM. La recherche s’oriente ensuite vers l’identification du réseau de contacts des clients entreprises. Ces travaux sont très vite encourageants.

Aujourd’hui le Big data est bien installé dans une fonction d’exploration de données qui ne seraient pas exploitables par les techniques habituelles d’analyses statistiques.

Comment organiser un « Lab Data » ?

L’équipe est constituée de 9 personnes. Elle présente la particularité d’être pluridisciplinaire

  • 3 spécialistes de l’IT qui maintiennent la plateforme et déploient les outils*
  • 1 expert métier
  • 3 Datascientists
  • 1 planificateur/organisateur

Quelle expérience en retire ING Belgium ?

Tout d’abord le Big Data recèle bien des trésors de connaissance.

Dans le cas présent, le Big data est envisagé comme un outil de R&D. La plateforme est déconnectée des infrastructures de production de la Banque. On gagne en souplesse et on ouvre des voies de recherche qui n’auraient pas pu être investiguées autrement.

Pour ING Belgium, la clé du succès d’un Big Data de R&D repose sur une équipe pluridisciplinaire constituée d’experts IT, d’experts métiers, de Datascientists et d’au moins un organisateur.

Le Datascientist doit avoir un profil particulier. Il a d’autres compétences que le statisticien travaillant habituellement sur les scores.

  • Il a l’esprit tourné vers l’exploration, il est curieux, il est autonome pour trouver des solutions
  • Il a une bonne expertise du métier pour lequel il fait ses recherches
  • Il sait coder en différents langages pour assurer son autonomie (dont « R » et « Python »)
  • Il est statisticien et mathématicien
  • Il a des connaissances en intelligence artificielle
  • Enfin, il aime travailler en équipe

Comme on s’en rend compte, il n’utilise pas spécialement SAS ou d’autres outils standardisés d’analyses statistiques (SPSS…)

Une autre clé du succès tient à l’organisation du travail. Il est indispensable d’entretenir un rythme soutenu sinon le risque de s’enliser dans des recherches sans intérêt existe réellement.

ING Belgium s’organise avec des méthodes agiles (dans ce cas, c’est du Scrum avec des « sprints » de 2 semaines).

Tous les 15 jours une réunion de travail permet un échange pluridisciplinaire sur les recherches engagées et prend la décision de continuer ou d’arrêter l’analyse.

Le succès de cette démarche ouvre sur de nouvelles questions, l’une d’entre elles retient l’attention.

Compe tenu de la connaissance métier nécessaire au Datascientist et au travail d’équipe à organiser autour de thèmes de recherche, faut-il ouvrir ce Data Lab à d’autres Directions de l’entreprise, ou créer autant de Data Lab que de domaines d’expertises ?

Nous verrons dans un prochain article un début de réponse à cette question.

voir la vidéo de l’intervention lors de la conférence Eacp-Marketvox, IESEG

Study Case Big Data ING Belgium

Démarrer un projet Big Data

5 bonnes questions à poser

1 – Quelle est la destination de ce projet ?

  • Est-ce un projet de recherche et développement en marge des infrastructures de production ou s’agit-il de poser les bases d’une nouvelle infrastructure ?

2 – Est-ce que la culture de l’entreprise est prête à accueillir une autre façon de raisonner ?

  • Il va falloir passer d’un mode de décision qui s’appuie sur ce que l’on pense à un mode basé sur ce que l’on sait (les décisions s’appuient sur des éléments quantifiés)
  • Les équipes SI et datamining sont-elles prêtes à travailler avec des logiciels en Open Source (Hadoop, Spark…), et à s’appuyer sur le Cloud (plus flexible et évolutif)

3 – Est-ce que je dispose des compétences en gestion et en analyse de la donnée ?

  • Je vais avoir besoin d’analystes tout à la fois statisticiens, mathématiciens, informaticiens et disposant d’une bonne connaissance du métier analysé.
  • Je vais également avoir besoin d’un Chief Data officer et de processus de gouvernance de la donnée

4 – Est-ce que je dispose des outils de visualisation qui permettent de représenter simplement des états complexes ?

  • De nombreuses solutions sont disponibles, type « Tableau Software » ou autre

5 – Est-ce que j’ai des « clients » susceptibles de « commander » un cas immédiat ayant une réelle résonance dans l’entreprise

  • Il ne faut jamais oublier de se créer des alliés qui porteront la communication sur les résultats

Des questions à ré-entendre dans la conférence Eacp-Marketvox, IESEG :

Koen de Bock / Kristoff Coussement Professeurs, IESEG School of Management

Etes-vous prêts à accueillir le Big Data

Le Big Data occupe une place considérable dans les média et les conférences professionnelles mais pour beaucoup il a encore peu d’applications en entreprises.
Le réflexe consiste encore souvent à attendre que le sujet atteigne sa maturité avant de se l’approprier.
C’est une erreur, car le Big Data est une véritable lame de fond.
La technologie a mis du temps pour se stabiliser. Les infrastructures, les outils d’exploitation et d’analyse associés ont encore besoin d’être apprivoisés.

Les bénéfices du Big Data sont trop considérables pour que sa diffusion soit freinée

Avec le Big Data, une connaissance approfondie des clients et de leurs intentions d’achats devient possible. La connaissance des processus est améliorée et il est plus facile de « décloisonner » les Directions et les Marchés au sein des entreprises.
D’ores et déjà de nombreuses entreprises implémentent ou prévoient d’implémenter des technologies du Big Data. Elles trouvent des applications dans le domaine du marketing, de l’optimisation des réseaux commerciaux, de la finance, de la logistique etc.…
A titre d’exemple, selon le baromètre Accenture-L’Argus (2015), dans le seul secteur de l’assurance, 17% des DSI affirment avoir mis en place des technologies Big Data, mais 23% ont prévu d’en développer dans les 24 mois.
Les cycles de transformation se raccourcissent de plus en plus. Il est certain, qu’à un horizon de cinq ans, il ne sera plus possible d’ignorer les impacts du Big Data sur le fonctionnement des entreprises.

L’un des impacts à envisager concerne la transformation des organisations et des métiers

De nouveaux métiers apparaissent déjà, data scientist, chief data officer, d’autres doivent évoluer.
En ce qui concerne les métiers qui naissent, la rareté des formations et donc des candidats disponibles, peut constituer un frein à l’exploitation des données et donc réduire la valeur produite par les projets de Big Data.
Mais ce n’est pas le seul problème à anticiper. L’intégration de ces experts dans les équipes n’est pas toujours aisée.
Les expériences passées nous ont révélé la difficulté d’intégrer des experts aux salaires plus élevés que ceux de leurs collègues, mais aux parcours de carrière bien difficile à tracer.
Le cas des data scientists pourrait être plus épineux encore, compte tenu de leur importance stratégique.
Beaucoup de métiers d’aujourd’hui subsisteront, mais devront évoluer.
Le Big Data va produire des informations quantifiables et manipulables avec des outils statistiques et mathématiques.
Beaucoup de métiers qui basent leurs décisions sur l’expérience ou l’intuition vont devoir se réformer.
En effet, les prises de décision ne mobilisent plus les mêmes compétences, dès lors que les informations sont transformées en connaissance au travers d’algorithmes.

L’évolution de l’achat d’espace nous en offre une illustration : il y a vingt ans on achetait les espaces publicitaires dans la presse, la radio et la télévision à partir d’informations sommaires. C’était l’expérience, le savoir faire et l’intuition qui permettaient de traiter ces informations pour les transformer en décision.
Avec Internet, l’achat d’expositions (bannières sur les sites) se fait à partir d’algorithmes sophistiqués inspirés des outils des « traders » (30% des achats d’expositions sur Internet se font dans le cadre d’achats programmatiques).
Dès lors que la technologie existe, il est plus rassurant de confier la préparation des décisions aux machines.
Autre exemple, dans les centres commerciaux à la pointe du progrès technologique, des caméras captent l’humeur des clients et pilotent l’affichage des publicités et des messages dans les allées.
Le métier « d’acheteur d’espace » s’en trouve profondément modifié. Son poste de travail, dans un proche avenir, ressemblera au « desk » d’un « trader » bardé de courbes mises à jour en temps réel.
Tous les métiers qui peuvent prendre des décisions sur la base de données quantitatives (mode de décision informationnel) évolueront de cette manière. Ceci concerne les métiers du marketing (banques, assurances, constructeurs automobiles…) mais aussi les métiers de la logistique, de la communication, du contrôle et du pilotage.
Parfois ce ne sont pas les métiers eux-mêmes qui seront transformés, mais plutôt les frontières traditionnelles entre ces métiers.
Les actuaires qui font métier de modéliser le risque dans le secteur des assurances par exemple, seront confrontés à des data scientists qui disposeront de données en temps réel sur le comportement des assurés. Il faudra trouver une nouvelle articulation entre ces métiers.

Il est urgent de prendre la mesure de cette transformation
Tout ceci illustre combien il est important d’anticiper un monde dans lequel les données quantitatives et les algorithmes auront pris une place prépondérante.
C’est dès maintenant qu’il faut envisager les formations adéquates, les organisations adaptées et la manière de gérer l’évolution des postures des managers dont l’autorité est encore bien souvent basée sur l’adaptation à des modes de décisions intuitifs ou basée sur l’expérience.
C’est de tout cela dont nous débattrons lors de notre conférence du 2 octobre 2015 à 9h à la Défense :

Inscription à la conférence : Etes-vous prêts à accueillir le Big Data ?