La « blockchain », doit-elle faire peur ?

14765884_blog

La « blockchain », c’est la sécurisation de transactions sans tiers de confiance. C’est la décentralisation de la vérification des échanges.

Pourquoi ce mot déclenche-t-il tant de réactions ?

C’est le principe de la « blockchain » qui est à l’origine de monnaies comme le Bitcoin. Ces monnaies n’ont pas besoin qu’un état ou une banque intervienne comme tiers de confiance pour organiser les transactions.
Si ce genre de dispositif parvenait à s’imposer, les états pourraient perdre le contrôle des échanges monétaires, mais plus encore, il n’y aurait plus besoin de notaires pour enregistrer des actes ou d’avocats pour valider un contrat.

Comment un tel système peut-il fonctionner ?

Le principe de la « blockchain » consiste à faire opérer des transactions (tenue de compte, enregistrement d’actes…) sans utiliser de tiers de confiance (la banque, le notaire, l’avocat) mais en chargeant des milliers de personne de réaliser la même opération. La trace de l’information se trouve dans des milliers d’ordinateurs, ce qui lui donne sa valeur « probante ».

Mais comment s’assurer qu’un petit malin ne diffuse pas une fausse information qui serait reprise par tous les ordinateurs.

Se protéger d’un tel risque revient à résoudre le problème des généraux byzantins.
Ce problème se résume ainsi. Des généraux de l’armée byzantine campent autour d’une cité ennemie. Ils ne peuvent communiquer qu’à l’aide de messagers et doivent établir en commun un plan de bataille. Ils savent cependant qu’il y a des traîtres parmi eux et qu’ils doivent se méfier des messages qu’ils reçoivent. Quelle méthode doivent-ils utiliser pour parvenir à construire leur plan de bataille ?

La « blockchain » va repérer les traîtres

La « blockchain » se présente comme un journal de transactions enregistré dans des milliers d’ordinateurs. Il comporte un historique horodaté de toutes les transactions. Ce registre est formé d’une suite de chapitres (blocs) qui s’enchaînent, chacun regroupant les transactions effectuées dans une certaine période.
Chaque bloc de la chaîne contient des informations provenant du bloc précédant. On peut ainsi assurer le respect de la chronologie des blocs. L’ordre chronologique des « blocs » empêche les « traîtres » de modifier un bloc déjà validé car cela affecterait tous les blocs qui lui succèdent.
La chaîne une fois constituée est « inaltérable ».

La « blockchain » n’appartient à personne

Les échanges enregistrés dans le registre constitué par une « blockchain » sont distribués.
Ils n’utilisent pas de tiers de confiance qui valident les transactions. Ils fonctionnent grâce à l’ensemble des individus qui utilisent un logiciel en réseau.
N’importe qui peut participer à la validation des blocs, il n’y a pas d’autorisation à obtenir.
Il suffit d’accéder au réseau et de recevoir des blocs, puis de se charger d’établir la preuve qu’ils sont fiables.  La vérification d’un bloc repose sur un système cryptographique complexe.
Tous les membres du réseau reçoivent des messages contenant des blocs et chacun exécute le décryptage des blocs reçus. Il faut s’assurer qu’ils s’inscrivent bien dans la chronologie (ils comportent des informations sur les blocs qui les précédent), qu’ils ont la bonne syntaxe et qu’ils n’ont pas déjà été décryptés etc.

Le principe consiste à les considérer comme suspects à priori.

Bien entendu, chaque bloc comporte des contrôles qui le protègent des modifications et contribuent à son identification.
Dès qu’un bloc est validé il est accroché à la « blockchain » et le travail continue.
Tous les membres du réseau « accrochent » leurs blocs à la chaîne lorsqu’ils les ont validés.
A un moment ou un autre, un bloc « traître » peut être retenu par un membre du réseau. Mais ceux qui analyseront les blocs suivants n’accrocheront aucun bloc à ce traître, car les blocs suivants comportent des informations sur les blocs précédents qui sont incompatibles avec ce bloc traître.
Les blocs suivants seront ajoutés à la chaîne saine avec laquelle ils sont plus en cohérence et la chaîne « traître » va s’éteindre.
Tous les membres du réseau disposent d’une copie de la « blockchain » et toutes les versions de la « blockchain » doivent être identiques.
Si des versions divergent on choisit celle dont la construction a demandé le plus de travail.
C’est le principe du « proof of work » ou « preuve que le travail été fait ».
Le proof of work revient à retenir le décryptage qui aura nécessité le plus d’itérations. Ainsi, plus un individu du réseau aura de puissance de calcul, plus il pourra faire d’itérations et plus il pourra confirmer des blocs de transactions.
Les participants au réseau sont donc en concurrence pour valider les blocs.
De même qu’il n’y a personne pour diriger Internet, il n’y a pas de maître du « blockchain ». Comme pour internet, les règles de  fonctionnement sont régies par des protocoles techniques.

La transparence comme élément de sécurité

Pour garantir la sécurité, le réseau « blockchain » rend public tous les échanges effectués. Concrètement, chaque ordinateur connecté au réseau héberge une copie de tous les échanges effectués.
Le système le plus connu reposant sur la « blockchain » est certainement la monnaie BitCoin.
Les algorithmes utilisés pour cette monnaie ont été inventés par le mystérieux Satoshi Nakamoto qui a peut-être été imaginé pour dissimuler un groupe de développeurs. Ces algorithmes sont conçus pour décider de la confiance à accorder à une transaction. Cette monnaie révèle aussi les faiblesses de la « blockchain »… les hackers.

Et oui… nous n’avons pas encore trouvé le moyen de nous débarrasser des tiers de confiance.

Big Data study Case ING Belgium


Pourquoi se lancer dans le Big Data?

Pour ING Belgium, le choix de s’orienter vers le Big Data est lié à la nécessité de trouver de nouvelles ressources de ciblages.

En 2009, 5% des contacts commerciaux s’appuient sur des modèles de scores. Mais en 2014, c’est 60% des contacts qui résultent de modèles prédictifs.Environ 4,4 millions de scores sont utilisés dans la sélection des clients à contacter.

La demande du marketing porte sur des ciblages de plus en plus fins et le potentiel de réponses basées sur les techniques utilisées jusque-là s’épuise.

Pour qui et sur quels thèmes initier la démarche ?

En 2014, ING Belgium décide de créer un « Lab Big Data ». Les premières applications sont réalisées pour le marketing « retail » et les entreprises. La Direction du Marketing était la plus intéressée par cette démarche et constituait un excellent « sponsor ».

Les premiers travaux portent sur des données non structurées, il s’agit d’exploiter les « commentaires libres » laissés par les conseillers dans l’outil de CRM. La recherche s’oriente ensuite vers l’identification du réseau de contacts des clients entreprises. Ces travaux sont très vite encourageants.

Aujourd’hui le Big data est bien installé dans une fonction d’exploration de données qui ne seraient pas exploitables par les techniques habituelles d’analyses statistiques.

Comment organiser un « Lab Data » ?

L’équipe est constituée de 9 personnes. Elle présente la particularité d’être pluridisciplinaire

  • 3 spécialistes de l’IT qui maintiennent la plateforme et déploient les outils*
  • 1 expert métier
  • 3 Datascientists
  • 1 planificateur/organisateur

Quelle expérience en retire ING Belgium ?

Tout d’abord le Big Data recèle bien des trésors de connaissance.

Dans le cas présent, le Big data est envisagé comme un outil de R&D. La plateforme est déconnectée des infrastructures de production de la Banque. On gagne en souplesse et on ouvre des voies de recherche qui n’auraient pas pu être investiguées autrement.

Pour ING Belgium, la clé du succès d’un Big Data de R&D repose sur une équipe pluridisciplinaire constituée d’experts IT, d’experts métiers, de Datascientists et d’au moins un organisateur.

Le Datascientist doit avoir un profil particulier. Il a d’autres compétences que le statisticien travaillant habituellement sur les scores.

  • Il a l’esprit tourné vers l’exploration, il est curieux, il est autonome pour trouver des solutions
  • Il a une bonne expertise du métier pour lequel il fait ses recherches
  • Il sait coder en différents langages pour assurer son autonomie (dont « R » et « Python »)
  • Il est statisticien et mathématicien
  • Il a des connaissances en intelligence artificielle
  • Enfin, il aime travailler en équipe

Comme on s’en rend compte, il n’utilise pas spécialement SAS ou d’autres outils standardisés d’analyses statistiques (SPSS…)

Une autre clé du succès tient à l’organisation du travail. Il est indispensable d’entretenir un rythme soutenu sinon le risque de s’enliser dans des recherches sans intérêt existe réellement.

ING Belgium s’organise avec des méthodes agiles (dans ce cas, c’est du Scrum avec des « sprints » de 2 semaines).

Tous les 15 jours une réunion de travail permet un échange pluridisciplinaire sur les recherches engagées et prend la décision de continuer ou d’arrêter l’analyse.

Le succès de cette démarche ouvre sur de nouvelles questions, l’une d’entre elles retient l’attention.

Compe tenu de la connaissance métier nécessaire au Datascientist et au travail d’équipe à organiser autour de thèmes de recherche, faut-il ouvrir ce Data Lab à d’autres Directions de l’entreprise, ou créer autant de Data Lab que de domaines d’expertises ?

Nous verrons dans un prochain article un début de réponse à cette question.

voir la vidéo de l’intervention lors de la conférence Eacp-Marketvox, IESEG

Study Case Big Data ING Belgium

Démarrer un projet Big Data

5 bonnes questions à poser

1 – Quelle est la destination de ce projet ?

  • Est-ce un projet de recherche et développement en marge des infrastructures de production ou s’agit-il de poser les bases d’une nouvelle infrastructure ?

2 – Est-ce que la culture de l’entreprise est prête à accueillir une autre façon de raisonner ?

  • Il va falloir passer d’un mode de décision qui s’appuie sur ce que l’on pense à un mode basé sur ce que l’on sait (les décisions s’appuient sur des éléments quantifiés)
  • Les équipes SI et datamining sont-elles prêtes à travailler avec des logiciels en Open Source (Hadoop, Spark…), et à s’appuyer sur le Cloud (plus flexible et évolutif)

3 – Est-ce que je dispose des compétences en gestion et en analyse de la donnée ?

  • Je vais avoir besoin d’analystes tout à la fois statisticiens, mathématiciens, informaticiens et disposant d’une bonne connaissance du métier analysé.
  • Je vais également avoir besoin d’un Chief Data officer et de processus de gouvernance de la donnée

4 – Est-ce que je dispose des outils de visualisation qui permettent de représenter simplement des états complexes ?

  • De nombreuses solutions sont disponibles, type « Tableau Software » ou autre

5 – Est-ce que j’ai des « clients » susceptibles de « commander » un cas immédiat ayant une réelle résonance dans l’entreprise

  • Il ne faut jamais oublier de se créer des alliés qui porteront la communication sur les résultats

Des questions à ré-entendre dans la conférence Eacp-Marketvox, IESEG :

Koen de Bock / Kristoff Coussement Professeurs, IESEG School of Management

Etes-vous prêts à accueillir le Big Data

Le Big Data occupe une place considérable dans les média et les conférences professionnelles mais pour beaucoup il a encore peu d’applications en entreprises.
Le réflexe consiste encore souvent à attendre que le sujet atteigne sa maturité avant de se l’approprier.
C’est une erreur, car le Big Data est une véritable lame de fond.
La technologie a mis du temps pour se stabiliser. Les infrastructures, les outils d’exploitation et d’analyse associés ont encore besoin d’être apprivoisés.

Les bénéfices du Big Data sont trop considérables pour que sa diffusion soit freinée

Avec le Big Data, une connaissance approfondie des clients et de leurs intentions d’achats devient possible. La connaissance des processus est améliorée et il est plus facile de « décloisonner » les Directions et les Marchés au sein des entreprises.
D’ores et déjà de nombreuses entreprises implémentent ou prévoient d’implémenter des technologies du Big Data. Elles trouvent des applications dans le domaine du marketing, de l’optimisation des réseaux commerciaux, de la finance, de la logistique etc.…
A titre d’exemple, selon le baromètre Accenture-L’Argus (2015), dans le seul secteur de l’assurance, 17% des DSI affirment avoir mis en place des technologies Big Data, mais 23% ont prévu d’en développer dans les 24 mois.
Les cycles de transformation se raccourcissent de plus en plus. Il est certain, qu’à un horizon de cinq ans, il ne sera plus possible d’ignorer les impacts du Big Data sur le fonctionnement des entreprises.

L’un des impacts à envisager concerne la transformation des organisations et des métiers

De nouveaux métiers apparaissent déjà, data scientist, chief data officer, d’autres doivent évoluer.
En ce qui concerne les métiers qui naissent, la rareté des formations et donc des candidats disponibles, peut constituer un frein à l’exploitation des données et donc réduire la valeur produite par les projets de Big Data.
Mais ce n’est pas le seul problème à anticiper. L’intégration de ces experts dans les équipes n’est pas toujours aisée.
Les expériences passées nous ont révélé la difficulté d’intégrer des experts aux salaires plus élevés que ceux de leurs collègues, mais aux parcours de carrière bien difficile à tracer.
Le cas des data scientists pourrait être plus épineux encore, compte tenu de leur importance stratégique.
Beaucoup de métiers d’aujourd’hui subsisteront, mais devront évoluer.
Le Big Data va produire des informations quantifiables et manipulables avec des outils statistiques et mathématiques.
Beaucoup de métiers qui basent leurs décisions sur l’expérience ou l’intuition vont devoir se réformer.
En effet, les prises de décision ne mobilisent plus les mêmes compétences, dès lors que les informations sont transformées en connaissance au travers d’algorithmes.

L’évolution de l’achat d’espace nous en offre une illustration : il y a vingt ans on achetait les espaces publicitaires dans la presse, la radio et la télévision à partir d’informations sommaires. C’était l’expérience, le savoir faire et l’intuition qui permettaient de traiter ces informations pour les transformer en décision.
Avec Internet, l’achat d’expositions (bannières sur les sites) se fait à partir d’algorithmes sophistiqués inspirés des outils des « traders » (30% des achats d’expositions sur Internet se font dans le cadre d’achats programmatiques).
Dès lors que la technologie existe, il est plus rassurant de confier la préparation des décisions aux machines.
Autre exemple, dans les centres commerciaux à la pointe du progrès technologique, des caméras captent l’humeur des clients et pilotent l’affichage des publicités et des messages dans les allées.
Le métier « d’acheteur d’espace » s’en trouve profondément modifié. Son poste de travail, dans un proche avenir, ressemblera au « desk » d’un « trader » bardé de courbes mises à jour en temps réel.
Tous les métiers qui peuvent prendre des décisions sur la base de données quantitatives (mode de décision informationnel) évolueront de cette manière. Ceci concerne les métiers du marketing (banques, assurances, constructeurs automobiles…) mais aussi les métiers de la logistique, de la communication, du contrôle et du pilotage.
Parfois ce ne sont pas les métiers eux-mêmes qui seront transformés, mais plutôt les frontières traditionnelles entre ces métiers.
Les actuaires qui font métier de modéliser le risque dans le secteur des assurances par exemple, seront confrontés à des data scientists qui disposeront de données en temps réel sur le comportement des assurés. Il faudra trouver une nouvelle articulation entre ces métiers.

Il est urgent de prendre la mesure de cette transformation
Tout ceci illustre combien il est important d’anticiper un monde dans lequel les données quantitatives et les algorithmes auront pris une place prépondérante.
C’est dès maintenant qu’il faut envisager les formations adéquates, les organisations adaptées et la manière de gérer l’évolution des postures des managers dont l’autorité est encore bien souvent basée sur l’adaptation à des modes de décisions intuitifs ou basée sur l’expérience.
C’est de tout cela dont nous débattrons lors de notre conférence du 2 octobre 2015 à 9h à la Défense :

Inscription à la conférence : Etes-vous prêts à accueillir le Big Data ?

Le frigo parle au grille-pain

objets connectés

Que nous promettent les objets connectés ?

Selon le Gartner, ils sont déjà 5 milliards, en augmentation de 40% par rapport à l’année dernière. En 2020, ils pourraient être 30 milliards.
Mais selon IDC, il faudrait plutôt s’attendre à en dénombrer plus de 220 milliards en 2020.

Ils affluent dans tous les domaines de la vie :

  • bracelets transmettant vos paramètres de santé
  • plantes qui informent qu’elles manquent d’eau
  • alarme incendie qui vous prévient d’un sinistre sur votre téléphone portable
  • collier de vache qui vous informe des déplacements du troupeau

Les objets connectés contribueront largement au « tsunamis » de données qui va fondre sur nous dans les prochaines années.
Déjà, en 2011, nous avons utilisé plus de données que l’humanité n’en avait traitées jusqu’à cette date (rapport de l’ONU). En 2013, nous avons manipulé quatre fois plus de données qu’en 2011 et nous en traiterons dix fois plus en 2020.

Parmi ces données, celles provenant directement « des machines » seront probablement majoritaires à cette horizon.
Ceci revient à dire que les machines échangeront sans doute plus d’informations entre elles, que les humains entre eux.

A l’occasion de la conférence organisée par Marketvox, Eacp-conseil et l’IESEG, Yvon Moysan diplômé de Harvard et enseignant à l’IESEG nous a dressé un inventaire des utilisations actuelles des objets connectés

la vidéo jointe vous en donnera un aperçu

Big Data, c’est quoi au juste ?

Big Data ne signifie pas « données en masse »

Le Big Data est certainement l’avenir du stockage et du traitement de la donnée.

la circulation des données

Que cache le terme de Big data

J’entends souvent des propos qui laisseraient penser que le Big Data correspond à la capture et à l’utilisation de masses de données.
Ce n’est pas faux, mais on risque à s’exprimer ainsi d’occulter un sujet majeur.
La plupart des entreprises de services stockent leurs données dans des Systèmes de gestion de bases de données (SGBD) qui utilisent des bases de données relationnelles et des modèles de données relationnels.

Autrement dit, les données sont stockées dans des tables qui sont reliées entre elles selon le schéma ci-après :

table de données

N’imaginons pas stocker les nouveaux flux de données de l’ère du Big data dans nos vieilles bases de données relationnelles.

L’Eldorado des nouveaux usages des données, réside justement dans cette faculté de capter et de stocker des données qui n’entrent pas dans ces modèles.

  • elles ne sont pas nécessairement organisées sous forme de tables et leurs structures peuvent varier ;
  • elles sont produites en temps réel
  • elles arrivent en flots continus
  • elles sont associées à nombre de métadonnées (localisation, heure, jour, etc.) ;
  • elles proviennent de sources très disparates (voix, téléphone mobile, téléviseurs connectés, tablettes, PC fixes, objets connectés etc..) de façon plus ou moins imprévisible

Les modèles de stockage de ces données sont très différents de nos modèles relationnels habituels.
Les modes de stockage et de traitement de ces données sont nés dans les laboratoires de Yahoo et Google. Aujourd’hui le protocole HDFS (Hadoop Distributed File System) est retenu par IBM, Informatica, Oracle etc . Il a été conçu pour stocker de gros volumes de données sur un grand nombre de machines équipées de disques durs banalisés.

Le Big Data permet le stockage des données de messages en audio, en vidéo ou de messages écrits, d’informations de localisation et autres et fait tout simplement rêver les « marketeurs ».

Mais le chemin à parcourir est semé d’embûches, retenons simplement deux interrogations :
1 / Comment intégrer ses données nouvellement collectées à l’existant ?
2 / Comment assurer la qualité de ces nouvelles données stockées ?
Que nous parlions de nos bonnes vielles données sociodémographiques ou des données nouvelles issues de no modes de vie « connectés », le défi de la qualité des données reste entier.

Le Big Data n’apporte pas de solution miracle au « gavage » des bases de données par des informations incomplètes, altérées ou « datées ».

Le Big Data, pas un miracle…mais quand même

Pour aller plus loin :

Hadoop ;

Comment les entreprises utilisent le Big Data

Un exemple de solution : Oracle