Les avancées dans le domaine de la connaissance des clients

6296398_blog

Les visites sur Internet sont une manne pour connaître les clients

Le site voyage-sncf.com par exemple enregistre 6,9 millions de visiteurs uniques par mois (sources Fevad-Médiamétrie 2è trim 2015). Il dispose de 2 datacenters qui traitent 60 téraoctets de données chaque mois.
L’analyse des données clients passe par la conception d’algorithmes complexes qui établissent un lien entre les observations de différentes natures et des probabilités d’achat.

Plus les données sont riches et variées, plus les algorithmes seront pertinents

la richesse de la donnée permet d’individualiser plus finement la réponse apportée au client. Dans l’exemple du voyage, un client qui s’intéresse à un vol pourra se voir proposer un hébergement correspondant précisément à ses goûts et son budget. Il sera même possible d’associer une promotion adaptée à sa recherche.

Pourquoi n’en sommes nous pas encore au niveau de pertinence attendu.

Il est vrai que les e-mailings, sms ou autres que nous recevons ne sont que rarement pertinents. C’est que le sujet est complexe.
Il ne s’agit pas seulement de constater que vous avez demandé par deux fois un hôtel quatre étoiles pour en déduire qu’il s’agit là de votre préférence.
La grande question est celle dite de la « contextualisation », c’est à dire de l’interprétation de votre demande en intégrant les éléments du contexte de cette demande.

Comment avancer efficacement dans la connaissance client ?

On avance sur ce sujet grâce aux données indiquant le canal utilisé, la localisation et grâce aussi aux informations concernant les déplacements et le temps.
Sur quel canal avez-vous fait votre recherche, dans quel lieu, à quelle heure ? Ces informations vont permettre de donner une « valeur » à cette navigation qui sera enregistrée comme une métadonnée.
Ainsi notre client est-il peut-être celui qui donne les bons tuyaux à ses collègues de bureaux sur les lieux de vacances à l’autre bout du monde, mais ne part jamais hors de France.
Pour renseigner ses collègues il utilise sa tablette aux heures de bureau. Devant son ordinateur à la maison en soirée, il consulte les gîtes de province dans le cadre de sa recherche personnelle. Les données de localisation et de temps vont nous permettre de distinguer ces deux comportements.
Je me rappelle d’une étude que nous avions fait pour une banque et qui nous avait permis de comprendre les usages des DAB (Distributeur automatique de billets) en analysant les lieux de retrait (à proximité du travail, du lieu d’habitation où de lieux de séjours), les montants retirés et le jour du retrait. On pouvait en déduire des modes de « fonctionnement » de nos clients et y associer des styles de vie.

On gagne aussi en hybridant les données

Le croisement de données internes à l’entreprise avec des données issues d’autres sources est un facteur de richesse considérable.
J’ai eu l’occasion, pour une banque, de croiser un fichier de clients supposés à haute capacité d’investissement avec une mégabase de données de consommation (les consommateurs sont invités dans le cadre d’un sondage à enregistrer tous leurs achats semaine par semaine).
Le résultat a été spectaculaire en terme de connaissance. Les modes de consommation nous ont permis de valider notre algorithme de classement des clients dans des groupes à fort pouvoir d’investissement et à retirer certains types de clients de ce segment.
Nous étions dès lors beaucoup plus pertinents dans nos propositions.
Mais ce n’est pas dans la culture française et encore moins dans la culture bancaire d’échanger des données. L’expérience que j’évoque ici n’a pas eu de lendemain.
Il faut que nous apprenions à échanger les données entre intervenants de secteurs différents, en respectant bien entendu la confidentialité des données, ce que l’on est tout à fait en mesure de faire, si nous nous en donnons les moyens.
Les DMP sont dans ce domaine la preuve que les choses avancent aussi dans ce domaine.

Pour faire avancer la connaissance client il faut supprimer les effets de silos

Les équipes chargées de la connaissance des clients doivent-être pluridisciplinaires. Elles doivent compter des compétences en codage informatique, en analyses statistiques, en modélisation mathématiques et marketing.
Il est intéressant de leur associer des experts en communication. Les moyens financiers ne viendront que si des Directions clientes acceptent de s’intéresser à ce potentiel de connaissance et commandent des études.
Si un communicant ne leur « vend » pas le projet, elles préfèreront ronronner sur des pratiques usées et peu productives, mais moins risquées parce que connues et reconnues.

Publicités

Données client, la grande peur

28919296_blog

Les nouvelles capacités de collecte des données client suscitent tout à la fois peur et enthousiasme.
Les sociologues auraient leur mot à dire sur l’imaginaire attaché à la maîtrise des données personnelles.

Est-ce que cette peur est rationnelle ?

Toutes les sociétés ont eu leurs grandes peurs. Certaines étaient sans fondement.

  • Le XVIe et le XVIIe siècle craignaient l’eau, en partie dit-on parce qu’elle était un vecteur de la peste. Après les terribles épidémies qui avaient ravagées l’Europe, il était recommandé de se laver avec parcimonie.
  • D’autres sont plus étayées. Le XXè siècle a eu peur du nucléaire et des OGM, le XXIè siècle a peur du changement climatique.

Dans quelle catégorie ranger la crainte suscitée par la collecte des données des clients ?

La peur associée à la collecte de masse des données client, a-t-elle quelque chose à voir avec la figure métaphorique du régime totalitaire représentée dans « 1984 » de Georges Orwell ?
Puise-t-elle dans l’angoisse suscitée par la découverte de la méticuleuse collecte d’informations de la Stasi ?
Ou encore dans la surprise de découvrir les écoutes des grandes oreilles de la NSA ?
Sommes-nous en face d’une réelle menace de nous voir confisquer notre vie privée ?

Il est exact que les entreprises peuvent collecter des données très précises sur nos comportements.

Depuis bien longtemps les banques par exemple connaissent beaucoup de choses sur nous. Notre banquier peut accéder aux informations concernant nos achats, nos revenus, nos placement, notre lieux d’habitation, le type d’habitat (habitons-nous une maison ou un appartement par exemple) la valeur de notre logement, nos préférences de contacts, nos déplacements (à partir des lieux d’utilisation de la carte bancaire), la constitution de notre famille etc…
Si notre banquier est aussi notre assureur, il connaît les caractéristiques de notre habitation, notre type de véhicule etc…
A partir de ces données, les calculs statistiques permettent de déduire nos centres d’intérêt, notre probabilité d’être séduit par tel ou tel type de service.
Mais c’est notre banque et nous nous disons que les données sont bien protégées.
Notre assureur découvre lui aussi qu’il peut bien mieux connaître ses clients.
Les objets connectés permettent aux assureurs, pour peu qu’on les y autorise, de connaître notre rythme cardiaque, notre régime alimentaire, nos pratiques sportives, mais aussi notre façon de conduire, nos heures de présence à la maison etc…
Mais c’est notre assureur et nous avons aussi confiance dans son sérieux pour ne pas laisser « fuiter » ces informations très personnelles.

Ce qui pour certains est plus dérangeant, c’est que petit à petit, des entreprises qui ont un capital confiance moindre, peuvent acquérir des données de la même nature.

Il suffit de collecter les traces que nous laissons sur Internet. Nous savons que Google dispose d’informations d’une richesse inégalée sur nos comportements. Bien d’autres entreprises à partir d’un simple cookie sur notre ordinateur peuvent connaître nos préférences en matière de lecture, de voyages, d’ameublement, de restaurant.
Une analyse de ces « traces » permet aussi de détecter à quel moment nous risquons de passer à l’achat. Un client qui revient à plusieurs reprises sur les pages d’une offre de produit ou service dans un temps très court, a des chances d’en envisager l’achat.

Du point de vue de l’entreprise cette quête d’information est directement liée à la nécessité d’être efficace, elle est vitale.

Connaître les clients pour leur proposer des offres commerciales avec un maximum de chance de les intéresser est la base de toute rentabilité commerciale.
Dans un environnement de concurrence exacerbée, réduire ses coûts d’acquisition en ciblant très exactement le client susceptible d’acheter une offre est un avantage évident.
Pas une entreprise ne résiste à l’attrait de la collecte de données et à leur analyse.
A l’heure où une grande partie des parcours d’achat démarrent sur Internet, on comprend tout l’intérêt de comprendre qui vient sur un site, ou n’y vient pas, pourquoi tel produit a attiré l’attention des clients et un autre pas, ou encore pourquoi un  client a interrompu sa visite avant l’achat alors qu’un autre a été jusqu’au paiement.
Les données collectées sur les clients sont analysées d’un point de vue statistique. Elles vont permettre d’isoler des comportements et de comprendre ce qu’il convient de faire pour mieux attirer ceux qui ne sont pas séduits par le parcours d’achat proposé.

Peut-on s’attendre à ce que les entreprises s’autolimitent dans la recherche et l’analyse des données ?

On ne comprendrait pas pourquoi une entreprise refuserait de capter une information que les clients leur donnent (sauf sur des critères d’éthique pour des données sensibles). Surtout si ces informations leur donnent un avantage concurrentiel ou améliorent leurs marges.
Certes c’est une recommandation de Christophe Bénavent qui s’exprime ainsi dans la revue l’Argus du 6 novembre 2015 « il faut uniquement collecter les données dont on envisage la finalité ».
C’est un point de vue qui pouvait être entendu lorsque la captation des données était difficile et le stockage coûteux.
Dans l’ère du Big Data, la notion de donnée utile n’a plus de sens. La démarche du data-scientist n’est pas de répondre à une question en utilisant des données utiles, mais de chercher de nouvelles questions en interrogeant des données de toutes natures.

Le contrôle peut-il venir des consommateurs eux-mêmes ?

Sauf retournement de situation, c’est peu probable. Il y a bien quelques réactions à l’appétit de données de Google, Amazon, Apple. Mais combien de personnes renonceront à la facilité d’utilisation de Google, à la richesse de l’offre d’Amazon ou à l’image que renvoie d’elles un produit Apple ?
Ma conviction c’est qu’il en sera de même dans tous les autres domaines. Les consommateurs ne résisteront pas longtemps à la détention d’objets connectés associés à des contrats d’assurances si ces contrats offrent un écart de prix significatif.

La réglementation peut-elle nous protéger ?

A mon sens, seule la réglementation pourrait peut-être limiter la course « à l’armement » dans le domaine du stockage et de l’exploitation des données. Elle le fait d’ailleurs grâce aux travaux de la Communauté Européenne et de la CNIL en France.
Mais la réglementation est toujours en retard sur les évolutions technologiques. De plus elle ne peut se permettre de mettre en difficulté nos entreprises exposées à une concurrence internationale.

 

 

Big Data study Case ING Belgium


Pourquoi se lancer dans le Big Data?

Pour ING Belgium, le choix de s’orienter vers le Big Data est lié à la nécessité de trouver de nouvelles ressources de ciblages.

En 2009, 5% des contacts commerciaux s’appuient sur des modèles de scores. Mais en 2014, c’est 60% des contacts qui résultent de modèles prédictifs.Environ 4,4 millions de scores sont utilisés dans la sélection des clients à contacter.

La demande du marketing porte sur des ciblages de plus en plus fins et le potentiel de réponses basées sur les techniques utilisées jusque-là s’épuise.

Pour qui et sur quels thèmes initier la démarche ?

En 2014, ING Belgium décide de créer un « Lab Big Data ». Les premières applications sont réalisées pour le marketing « retail » et les entreprises. La Direction du Marketing était la plus intéressée par cette démarche et constituait un excellent « sponsor ».

Les premiers travaux portent sur des données non structurées, il s’agit d’exploiter les « commentaires libres » laissés par les conseillers dans l’outil de CRM. La recherche s’oriente ensuite vers l’identification du réseau de contacts des clients entreprises. Ces travaux sont très vite encourageants.

Aujourd’hui le Big data est bien installé dans une fonction d’exploration de données qui ne seraient pas exploitables par les techniques habituelles d’analyses statistiques.

Comment organiser un « Lab Data » ?

L’équipe est constituée de 9 personnes. Elle présente la particularité d’être pluridisciplinaire

  • 3 spécialistes de l’IT qui maintiennent la plateforme et déploient les outils*
  • 1 expert métier
  • 3 Datascientists
  • 1 planificateur/organisateur

Quelle expérience en retire ING Belgium ?

Tout d’abord le Big Data recèle bien des trésors de connaissance.

Dans le cas présent, le Big data est envisagé comme un outil de R&D. La plateforme est déconnectée des infrastructures de production de la Banque. On gagne en souplesse et on ouvre des voies de recherche qui n’auraient pas pu être investiguées autrement.

Pour ING Belgium, la clé du succès d’un Big Data de R&D repose sur une équipe pluridisciplinaire constituée d’experts IT, d’experts métiers, de Datascientists et d’au moins un organisateur.

Le Datascientist doit avoir un profil particulier. Il a d’autres compétences que le statisticien travaillant habituellement sur les scores.

  • Il a l’esprit tourné vers l’exploration, il est curieux, il est autonome pour trouver des solutions
  • Il a une bonne expertise du métier pour lequel il fait ses recherches
  • Il sait coder en différents langages pour assurer son autonomie (dont « R » et « Python »)
  • Il est statisticien et mathématicien
  • Il a des connaissances en intelligence artificielle
  • Enfin, il aime travailler en équipe

Comme on s’en rend compte, il n’utilise pas spécialement SAS ou d’autres outils standardisés d’analyses statistiques (SPSS…)

Une autre clé du succès tient à l’organisation du travail. Il est indispensable d’entretenir un rythme soutenu sinon le risque de s’enliser dans des recherches sans intérêt existe réellement.

ING Belgium s’organise avec des méthodes agiles (dans ce cas, c’est du Scrum avec des « sprints » de 2 semaines).

Tous les 15 jours une réunion de travail permet un échange pluridisciplinaire sur les recherches engagées et prend la décision de continuer ou d’arrêter l’analyse.

Le succès de cette démarche ouvre sur de nouvelles questions, l’une d’entre elles retient l’attention.

Compe tenu de la connaissance métier nécessaire au Datascientist et au travail d’équipe à organiser autour de thèmes de recherche, faut-il ouvrir ce Data Lab à d’autres Directions de l’entreprise, ou créer autant de Data Lab que de domaines d’expertises ?

Nous verrons dans un prochain article un début de réponse à cette question.

voir la vidéo de l’intervention lors de la conférence Eacp-Marketvox, IESEG

Study Case Big Data ING Belgium

Démarrer un projet Big Data

5 bonnes questions à poser

1 – Quelle est la destination de ce projet ?

  • Est-ce un projet de recherche et développement en marge des infrastructures de production ou s’agit-il de poser les bases d’une nouvelle infrastructure ?

2 – Est-ce que la culture de l’entreprise est prête à accueillir une autre façon de raisonner ?

  • Il va falloir passer d’un mode de décision qui s’appuie sur ce que l’on pense à un mode basé sur ce que l’on sait (les décisions s’appuient sur des éléments quantifiés)
  • Les équipes SI et datamining sont-elles prêtes à travailler avec des logiciels en Open Source (Hadoop, Spark…), et à s’appuyer sur le Cloud (plus flexible et évolutif)

3 – Est-ce que je dispose des compétences en gestion et en analyse de la donnée ?

  • Je vais avoir besoin d’analystes tout à la fois statisticiens, mathématiciens, informaticiens et disposant d’une bonne connaissance du métier analysé.
  • Je vais également avoir besoin d’un Chief Data officer et de processus de gouvernance de la donnée

4 – Est-ce que je dispose des outils de visualisation qui permettent de représenter simplement des états complexes ?

  • De nombreuses solutions sont disponibles, type « Tableau Software » ou autre

5 – Est-ce que j’ai des « clients » susceptibles de « commander » un cas immédiat ayant une réelle résonance dans l’entreprise

  • Il ne faut jamais oublier de se créer des alliés qui porteront la communication sur les résultats

Des questions à ré-entendre dans la conférence Eacp-Marketvox, IESEG :

Koen de Bock / Kristoff Coussement Professeurs, IESEG School of Management

Etes-vous prêts à accueillir le Big Data

Le Big Data occupe une place considérable dans les média et les conférences professionnelles mais pour beaucoup il a encore peu d’applications en entreprises.
Le réflexe consiste encore souvent à attendre que le sujet atteigne sa maturité avant de se l’approprier.
C’est une erreur, car le Big Data est une véritable lame de fond.
La technologie a mis du temps pour se stabiliser. Les infrastructures, les outils d’exploitation et d’analyse associés ont encore besoin d’être apprivoisés.

Les bénéfices du Big Data sont trop considérables pour que sa diffusion soit freinée

Avec le Big Data, une connaissance approfondie des clients et de leurs intentions d’achats devient possible. La connaissance des processus est améliorée et il est plus facile de « décloisonner » les Directions et les Marchés au sein des entreprises.
D’ores et déjà de nombreuses entreprises implémentent ou prévoient d’implémenter des technologies du Big Data. Elles trouvent des applications dans le domaine du marketing, de l’optimisation des réseaux commerciaux, de la finance, de la logistique etc.…
A titre d’exemple, selon le baromètre Accenture-L’Argus (2015), dans le seul secteur de l’assurance, 17% des DSI affirment avoir mis en place des technologies Big Data, mais 23% ont prévu d’en développer dans les 24 mois.
Les cycles de transformation se raccourcissent de plus en plus. Il est certain, qu’à un horizon de cinq ans, il ne sera plus possible d’ignorer les impacts du Big Data sur le fonctionnement des entreprises.

L’un des impacts à envisager concerne la transformation des organisations et des métiers

De nouveaux métiers apparaissent déjà, data scientist, chief data officer, d’autres doivent évoluer.
En ce qui concerne les métiers qui naissent, la rareté des formations et donc des candidats disponibles, peut constituer un frein à l’exploitation des données et donc réduire la valeur produite par les projets de Big Data.
Mais ce n’est pas le seul problème à anticiper. L’intégration de ces experts dans les équipes n’est pas toujours aisée.
Les expériences passées nous ont révélé la difficulté d’intégrer des experts aux salaires plus élevés que ceux de leurs collègues, mais aux parcours de carrière bien difficile à tracer.
Le cas des data scientists pourrait être plus épineux encore, compte tenu de leur importance stratégique.
Beaucoup de métiers d’aujourd’hui subsisteront, mais devront évoluer.
Le Big Data va produire des informations quantifiables et manipulables avec des outils statistiques et mathématiques.
Beaucoup de métiers qui basent leurs décisions sur l’expérience ou l’intuition vont devoir se réformer.
En effet, les prises de décision ne mobilisent plus les mêmes compétences, dès lors que les informations sont transformées en connaissance au travers d’algorithmes.

L’évolution de l’achat d’espace nous en offre une illustration : il y a vingt ans on achetait les espaces publicitaires dans la presse, la radio et la télévision à partir d’informations sommaires. C’était l’expérience, le savoir faire et l’intuition qui permettaient de traiter ces informations pour les transformer en décision.
Avec Internet, l’achat d’expositions (bannières sur les sites) se fait à partir d’algorithmes sophistiqués inspirés des outils des « traders » (30% des achats d’expositions sur Internet se font dans le cadre d’achats programmatiques).
Dès lors que la technologie existe, il est plus rassurant de confier la préparation des décisions aux machines.
Autre exemple, dans les centres commerciaux à la pointe du progrès technologique, des caméras captent l’humeur des clients et pilotent l’affichage des publicités et des messages dans les allées.
Le métier « d’acheteur d’espace » s’en trouve profondément modifié. Son poste de travail, dans un proche avenir, ressemblera au « desk » d’un « trader » bardé de courbes mises à jour en temps réel.
Tous les métiers qui peuvent prendre des décisions sur la base de données quantitatives (mode de décision informationnel) évolueront de cette manière. Ceci concerne les métiers du marketing (banques, assurances, constructeurs automobiles…) mais aussi les métiers de la logistique, de la communication, du contrôle et du pilotage.
Parfois ce ne sont pas les métiers eux-mêmes qui seront transformés, mais plutôt les frontières traditionnelles entre ces métiers.
Les actuaires qui font métier de modéliser le risque dans le secteur des assurances par exemple, seront confrontés à des data scientists qui disposeront de données en temps réel sur le comportement des assurés. Il faudra trouver une nouvelle articulation entre ces métiers.

Il est urgent de prendre la mesure de cette transformation
Tout ceci illustre combien il est important d’anticiper un monde dans lequel les données quantitatives et les algorithmes auront pris une place prépondérante.
C’est dès maintenant qu’il faut envisager les formations adéquates, les organisations adaptées et la manière de gérer l’évolution des postures des managers dont l’autorité est encore bien souvent basée sur l’adaptation à des modes de décisions intuitifs ou basée sur l’expérience.
C’est de tout cela dont nous débattrons lors de notre conférence du 2 octobre 2015 à 9h à la Défense :

Inscription à la conférence : Etes-vous prêts à accueillir le Big Data ?

Big Data et choix stratégiques

22147274_blog

Ce qui change avec le Big Data c’est non seulement le volume des données, mais aussi le champ des nouvelles données mises à disposition de l’analyse.
Ces données proviennent pour l’essentiel d’Internet et s’organisent autour des 4 Internets :

L’internet de l’information (c’est l’analyse du contenu des pages web) : les données sont issues des techniques d’analyse du langage (interprétation, classification des mots et analyse de proximités, analyse des sentiments…)
L’internet des gens : les réseaux sociaux
L’internet des endroits : la géolocalisation
L’internet des objets : les objets connectés

L’Internet de l’information et l’analyse des contenus :

Le traitement de l’internet de l’information connaît un développement considérable grâce aux progrès réalisés dans l’analyse sémantique des contenus du web.
Les applications peuvent aller de l’analyse du sens des contenus échangés à la constitution de segments de clients (à partir des éléments de discours utilisés en commun).
Pour illustrer ce que peut produire l’analyse du sens, citons le travail réalisé lors d’une conférence qui se tient chaque année à Austin(USA). Les intervenants y abordent un grand nombre de sujets concernant Internet et les nouvelles technologies numériques.
L’analyse du contenu de 1628 conférences, a permis de faire ressortir 9 thèmes vraiment innovants et méritant des développements.
On peut ainsi faire des analyses de tendances, identifier les préoccupations des clients à propos de certains sujets etc… 

L’Internet de l’information et la validation du territoire de marque :

Les marques peuvent utiliser l’analyse de contenus pour s’assurer que leur « territoire de marque» a bien un écho dans le grand public.
Il s’agit d’analyser la trace numérique de la marque sur Internet et de la comparer avec le territoire recherché.
Ex : pour Sony, dans 56% des cas les contenus sont associés à « console de jeux », or sa part de voix est deux fois moindre que celle de Microsoft sur le Web sur ce sujet. 

L’Internet de l’information et le profilage des clients :

La capacité à profiler les clients à partir des données du web trouve d’autres utilisations encore comme dans le cas de l’achat média.
Au lieu de payer le même prix pour toutes les expositions, quel que soit le profil du client ciblé, il est possible de fixer un prix pour chaque type de profil client.
La valeur du client est estimée à partir des informations portées par le cookie placé sur son ordinateur. On tiendra compte du profil sociodémographique, des sites consultés, des vidéos vues, des interactions, de ce qu’il a mis dans ses paniers et des simulations réalisées (immobilier)
Les profilages basés sur des données sociodémographiques ou des données de fonctionnement de comptes sont relativement stables. Ils sont intéressants dans le cadre de l’élaboration d’un plan marketing ou dans les prises de décisions stratégiques.
En revanche, ils n’ont jamais été très performants pour cibler finement les clients en fonction de leurs intentions d’achats.
Les profilages à partir des données du web possèdent cet avantage de « coller » à l’instant. Ils permettent de déceler des intentions immédiates ou à très court terme. A ce titre ces deux types de profilages sont très complémentaires.
L’analyse des sites visités (site immobilier, véhicule…), des contenus lus et des liens entre eux, permet de reconnaître des centres d’intérêt des clients. Des centres d’intérêt, il est possible de passer aux intentions d’achat. Ainsi un client qui visite de nombreux sites proposant des tablettes, puis qui concentre sa recherche sur un modèle précis, a très probablement l’intention d’en acheter une dans les prochains jours.
Les données d’Internet contribuent à développer de nouvelles formes de  segmentations comme les segmentations psychographiques. Il s’agit d’exposer un internaute à un panel de photos, de combiner ses réponses à ses données de surf et d’en déduire un profil.

 La richesse du Big Data réside dans l’échange des données :

La richesse du Big Data, c’est la capacité à traiter et à générer des données nouvelles.
Or plus les industries accepteront de croiser leurs données et plus elles créeront de richesse dans ce domaine.
C’est un profond changement de mentalité. Toute une génération de « marketeurs » a été éduquée à conserver jalousement ses données.
Or c’est l’échange des données qui fournira de nouvelles opportunités d’analyses et de nouvelles richesses dans la connaissance des clients.
C’est bien sur ce gisement de valeur que se positionnent des entreprises comme Uber, qui croisent les données fournies par d’autres…mais ça c’est une autre histoire.
Extrait de la conférence d’Arnaud Caplier (Directeur Général Digital Omnicom) du 2  juin 2015

Comment nos stratégies devront-elles évoluer sous l’influence du Big Data?
https://youtu.be/gWWLsbxIn4Y

Pour en savoir plus sur le Big Data 

Les nouvelles données du Big data

nouvelles données

Souriez vous êtes « tracké »!

C’est ce que l’on pourrait se dire en écoutant la conférence de Gilles Venturi (Soft Computing) lors de la conférence sur les nouvelles données du Big Data organisée par Marketvox, EACP et l’IESEG

On évoque souvent les volumes de données disponibles avec le Big Data et la vitesse à laquelle elles sont traitées.

Mais l’évolution majeure semble pourtant résider dans le nouveau gisement de données auquel le Big Data donne accès.

  • Il s’agit soit de données totalement nouvelles, le plus souvent issues d’Internet (les données fournies par les objets connectés par exemple)
  • soit de données déjà existantes que l’on ne songeait même pas à exploiter (la vitesse de passage de la souris sur une bannière)
  • soit encore des données que l’on regardait avec gourmandise, mais qui étaient inaccessibles

Le cas des données autrefois « inaccessibles » est parfaitement illustratif de l’évolution que nous observons.
Il y quelques années dans une grande banque française, j’avais souhaité étudier les comportements de retraits de billets dans les distributeurs automatiques. Je voulais comprendre quand et où les clients utilisaient ces distributeurs, à proximité de leur habitation, de leur travail, des commerces etc…

Cette étude n’a pas été possible, car nous étions dans l’incapacité de rapprocher les retraits (fichier des retraits au distributeur de billets) avec les comptes des clients. Le logiciel de gestion des distributeurs était conçu pour assurer la maintenance et évaluer la rentabilité des machines, pas pour suivre le comportement des clients.

Cet exemple illustre combien les choses ont changé en si peu de temps.

Aujourd’hui, il apparaîtrait comme une évidence d’associer les retraits au client dans le programme de gestion des distributeurs, et même si ce n’était pas le cas, les informations de géolocalisation des distributeurs et des clients, permettraient déjà de réaliser l’étude.

Les données nouvelles exploitent les progrès spectaculaires qui ont été faits dans le domaine de la compréhension du langage naturel, de l’analyse des photos et singulièrement de l’expression des visages (ainsi est-il possible de moduler l’affichage des publicités dans un centre commercial en fonction de l’humeur des clients ) etc…

l’intervention de Gilles Venturi (Soft Computing) invité lors de la conférence Eacp-Marketvox IESEG du 6 juin dernier donne un bon aperçu de cette transformation :

Le frigo parle au grille-pain

objets connectés

Que nous promettent les objets connectés ?

Selon le Gartner, ils sont déjà 5 milliards, en augmentation de 40% par rapport à l’année dernière. En 2020, ils pourraient être 30 milliards.
Mais selon IDC, il faudrait plutôt s’attendre à en dénombrer plus de 220 milliards en 2020.

Ils affluent dans tous les domaines de la vie :

  • bracelets transmettant vos paramètres de santé
  • plantes qui informent qu’elles manquent d’eau
  • alarme incendie qui vous prévient d’un sinistre sur votre téléphone portable
  • collier de vache qui vous informe des déplacements du troupeau

Les objets connectés contribueront largement au « tsunamis » de données qui va fondre sur nous dans les prochaines années.
Déjà, en 2011, nous avons utilisé plus de données que l’humanité n’en avait traitées jusqu’à cette date (rapport de l’ONU). En 2013, nous avons manipulé quatre fois plus de données qu’en 2011 et nous en traiterons dix fois plus en 2020.

Parmi ces données, celles provenant directement « des machines » seront probablement majoritaires à cette horizon.
Ceci revient à dire que les machines échangeront sans doute plus d’informations entre elles, que les humains entre eux.

A l’occasion de la conférence organisée par Marketvox, Eacp-conseil et l’IESEG, Yvon Moysan diplômé de Harvard et enseignant à l’IESEG nous a dressé un inventaire des utilisations actuelles des objets connectés

la vidéo jointe vous en donnera un aperçu

Big Data, c’est quoi au juste ?

Big Data ne signifie pas « données en masse »

Le Big Data est certainement l’avenir du stockage et du traitement de la donnée.

la circulation des données

Que cache le terme de Big data

J’entends souvent des propos qui laisseraient penser que le Big Data correspond à la capture et à l’utilisation de masses de données.
Ce n’est pas faux, mais on risque à s’exprimer ainsi d’occulter un sujet majeur.
La plupart des entreprises de services stockent leurs données dans des Systèmes de gestion de bases de données (SGBD) qui utilisent des bases de données relationnelles et des modèles de données relationnels.

Autrement dit, les données sont stockées dans des tables qui sont reliées entre elles selon le schéma ci-après :

table de données

N’imaginons pas stocker les nouveaux flux de données de l’ère du Big data dans nos vieilles bases de données relationnelles.

L’Eldorado des nouveaux usages des données, réside justement dans cette faculté de capter et de stocker des données qui n’entrent pas dans ces modèles.

  • elles ne sont pas nécessairement organisées sous forme de tables et leurs structures peuvent varier ;
  • elles sont produites en temps réel
  • elles arrivent en flots continus
  • elles sont associées à nombre de métadonnées (localisation, heure, jour, etc.) ;
  • elles proviennent de sources très disparates (voix, téléphone mobile, téléviseurs connectés, tablettes, PC fixes, objets connectés etc..) de façon plus ou moins imprévisible

Les modèles de stockage de ces données sont très différents de nos modèles relationnels habituels.
Les modes de stockage et de traitement de ces données sont nés dans les laboratoires de Yahoo et Google. Aujourd’hui le protocole HDFS (Hadoop Distributed File System) est retenu par IBM, Informatica, Oracle etc . Il a été conçu pour stocker de gros volumes de données sur un grand nombre de machines équipées de disques durs banalisés.

Le Big Data permet le stockage des données de messages en audio, en vidéo ou de messages écrits, d’informations de localisation et autres et fait tout simplement rêver les « marketeurs ».

Mais le chemin à parcourir est semé d’embûches, retenons simplement deux interrogations :
1 / Comment intégrer ses données nouvellement collectées à l’existant ?
2 / Comment assurer la qualité de ces nouvelles données stockées ?
Que nous parlions de nos bonnes vielles données sociodémographiques ou des données nouvelles issues de no modes de vie « connectés », le défi de la qualité des données reste entier.

Le Big Data n’apporte pas de solution miracle au « gavage » des bases de données par des informations incomplètes, altérées ou « datées ».

Le Big Data, pas un miracle…mais quand même

Pour aller plus loin :

Hadoop ;

Comment les entreprises utilisent le Big Data

Un exemple de solution : Oracle