FOCUS

« Le Bon, la Brute, et le Truand » dans le bouillonnement du Big Data. Un trio innovant pour créer de la valeur

21 juin 2016

BMP - 20.5 Mo

« Le Bon, la Brute, et le Truand » dans le bouillonnement du Big Data. Un trio innovant pour créer de la valeur.

Par ROLAND STASIA :

Directeur, consultant senior monozukuri, Renault sas

Président fondateur de hèRès conSulting – formations & conférences

Professeur visitant à HEC, Paris Dauphine, Mines ParisTech et Strate

CONTACT : roland.stasia@renault.com

« Chaque jour, le monde produit autant d’informations qu’il en a généré depuis l’aube de la civilisation jusqu’en 2003 ». Ainsi s’exprimait Eric Schmidt, PDG de Google, lors d’une conférence en 2010. Ce propos illustre parfaitement l’expression « Big Data ». Dans une étude récente publiée par Barc Research, plus des trois quarts des entreprises interrogées affirment déployer ou préparer actuellement un ou plusieurs projets Big Data. Les entreprises s’intéressant exponentiellement à cette nouvelle capacité à transformer les données en réalité concrète et en production de valeur, il n’en fallait pas plus pour que la quasi-totalité des secteurs d’activité ne se lance logiquement dans de nouvelles formations et des nouveaux métiers, bouleversée par cette « data science ». Essentielle à la prise de décision des managers, la « data science » s’est même invitée dans les écoles qui les forment, à côté de « l’accounting management ».

La « Data », une matière première inépuisable

Sans remonter aux années 80, je veux parler des années 1880, époque du taylorisme, je rappellerai simplement que la méthode la plus efficace pour résoudre un problème complexe, c’est de le découper en sous-problèmes élémentairement plus simples. Ainsi la donnée peut-elle être aussi considérée comme une description élémentaire d’une réalité certaine, plus ou moins complexe. La donnée brute, dépourvue de tout raisonnement, va pouvoir servir de base à une analyse plus ou moins élaborée, en devenant une véritable valeur de transformation. Cette approche élémentaire de la donnée montre aussi bien le caractère inépuisable de sa production que celui aléatoire de son intérêt. Dans le domaine du business, les données qui vont nous intéresser peuvent se classer en trois catégories :
- Les données relatives aux clients,
- Les données concernant les processus internes,
- Les données en provenance de l’internet des objets connectés.

Le « Big Data », ce n’est pas que de l’intox

Dans le tourbillon médiatique favorisé par les réseaux sociaux et l’internet, les phénomènes de mode et de buzz sont désormais légion. Le Big Data n’échappe pas à la règle, et cela me rappelle le fameux « Bug de l’an 2000 » qui avait généreusement alimenté les caisses de toutes les SSII, avant d’accoucher d’une souris. Plus récemment, on a fait de l’appellation « Cloud » une formidable opération marketing, alors que le « Cloud » ne désigne qu’un simple coin du « Web » dans lequel on héberge l’externalisation des serveurs des DSI des entreprises !
En même temps que cet engouement médiatique, une étude 2016 du think tank EBG montre que moins d’une entreprise sur cinq en revendique l’utilisation effective, et seul un dirigeant sur quatre est à même d’en donner ne serait-ce qu’une définition précise.
Big Data… Le concept est tantôt présenté comme une « potion magique » aux vertus curatives de tous les maux de la macro-économie, tantôt comme un robot « ideas’shaker » dont la technologie prendrait le pouvoir sur l’homme. De fait, le Hype Cycle 2015 du Gartner group représenté dans la figure [1] ci-dessous positionne le Big Data au milieu de la plongée dans la vallée de la désillusion.

BMP - 3.5 Mo

On peut définir le Big Data comme étant une nouvelle capacité à gérer, traiter et analyser une explosion du volume des données. Ce concept de données massives peut se réduire à trois dimensions, dont chacune d’entre elles commence par la lettre « V ».

- La Vitesse, du batch au real time, est liée d’une part à l’explosion des demandes de traitement, et d’autre part au rythme du flux entrant des données.
- La Variété des données est telle que l’on peut désormais choisir leur niveau de structuration, depuis les données complètement structurées dans les « champs » informatiques des systèmes anciens, jusqu’aux données non structurées du langage naturel des emails, des sms et autres tweets.
- Le Volume des données massives jongle avec des unités habituelles, le méga, le giga et le téra, mais aussi avec des unités rarement utilisées jusqu’ici ; sauriez vous convertir par exemple le péta, l’exa, le zetta ou le yotta ? Il va falloir s’y mettre, même si l’on n’est pas data scientist…

Selon son utilisation, le Big Data suit deux cadences. Un rythme quasi-synchrone est assuré dans les opérations de détection, avec des requêtes complexes permettant extractions et surveillances des données. Un rythme asynchrone est constaté dans les phases d’apprentissage, avec du data-mining dans les archivages de données.

Les sources du Big Data sont multiformes. Les données internes habituelles de l’entreprise, voire historiques, sont des informations commerciales, comptables, connaissance clients, et suivis de processus. Les données issues des interactions entre l’homme et la machine, comme le surf sur internet ou l’utilisation des réseaux online, génèrent les fameux « cookies » espions. Les données en provenance du « machine to machine » ne sont pas issues d’un espionnage direct du surfeur, mais de rapprochements entre fichiers, sites internet ou réseaux sociaux.

Dans sa dynamique d’instrument d’analyse, le Big Data présente un quatrième « V », celui de la Valeur. Dès lors qu’elle est exploitée, la donnée brute va se transformer en une information, dont la valeur sera d’autant plus forte que sera élevée la qualité de son traitement « scientist ». Plus généralement, les nouvelles techniques de collecte et d’analyse vont affecter de façon profonde le monde de la conception, de l’innovation et du marketing. On peut même parler de révolution, puisque le Big Data va permettre le pilotage de la performance en tirant partie du flux des données, dont le déluge est déjà assuré avec l’Internet, les smart-phones et les objets connectés. Aussi, le manager en charge de la performance de telle ou telle opération au sein de l’entreprise va-il non seulement s’intéresser au Big Data, mais également challenger ses équipes, au premier rang desquelles les trois métiers qui nous intéressent ici :

- Le marketeur va pouvoir systématiser la définition des besoins-clients à partir de données, analysées, croisées, et relatives à l’usage et à l’expérience client.
- Le contrôleur de gestion va grandir dans son métier en passant progressivement de la prévision à la prescription.
- Le data scientist va « tout simplement » rendre possible, non pas l’impossible, mais… l’inconnu.

Cette Valeur est quelque part, prête à émerger. Le Big Data va accélérer sa mise en évidence en détectant les innovations à plus fort potentiel, à partir d’un réservoir illimité de données, classées en quatre catégories du savoir « orienté business ».

1. « Je sais ce que je sais », classe de données à faible volume et faible variété.
Cette catégorie permet simplement de s’interroger sur les données dont on dispose, à partir desquelles on ne peut proposer que du progrès continu sur des produits ou des services existants.
2. « Je ne sais pas ce que je sais », classe de données à fort volume et faible variété.
Quelles données pourrions-nous créer ? Cette catégorie est nécessairement limitée en potentiel, puisqu’il conviendrait de s’interroger soi-même, pour déterminer tout ce que nous savons sans le savoir !
3. « Je sais ce que je ne sais pas », classe de données à faible volume et forte variété.
A quelles données pourrions-nous accéder, que nous ne saisissons pas ? Cette catégorie se rapproche de la zone actuelle de nos incertitudes, dans laquelle les entreprises tentent de dénicher la pépite qui fera les beaux jours de leur P&L.
4. « Je ne sais pas ce que je ne sais pas », classe de données à fort volume et forte variété.

Quelles autres innovations pourraient être possibles, avec et sans révolution technologique ? C’est la catégorie reine de notre classification, dans la mesure où c’est là que se trouve toute la matière prédisposée aux projets Big Data.
Une illustration du potentiel de cette quatrième catégorie de données est qu’il a fallu attendre plus de 210 ans pour inventer la valise à roulettes, entre l’invention du patin à roulettes par John Joseph Merlin dans les années 1760 et l’invention de la valise à roulettes en 1972, par Delsey. Et bien, avec le Big Data, plus jamais çà !

Le « Big Data » : qui fait quoi ?

Pour bien comprendre les rôles et attendus de chacun des acteurs de l’entreprise au regard du Big Data, je vous indique ci-après une représentation de son paradigme. Au fond, il propose un nouveau modèle de valorisation de l’information et de son management.

BMP - 3.4 Mo

La zone couleur orangé du schéma représente le domaine du Big Data, et autorise une analyse comparative des missions et attributions des parties prenantes de l’entreprise au regard du Big Data. Loin d’être « un bon, une brute et un truand », le trio d’acteurs décrit ci-après est appelé à jouer un rôle déterminant.

Le data scientist : pour lui, la data c’est son « dada » ! Cet ingénieur d’un nouveau type, aux compétences totalement différentes de celles d’un ingénieur informaticien, est l’oiseau rare que cherchent à dénicher toutes les entreprises qui lancent un projet Big Data. Il va travailler sur les problématiques de modélisation, à partir des statistiques et des mathématiques appliquées aux bonnes données. Il existe plusieurs profils parmi lesquels on peut citer : le business data scientist, capable d’évaluer les risques et l’incertitude entourant les décisions managériales, l’IT data scientist, capable de faire le pontage avec les métiers pour vulgariser l’approche, le computeur data scientist, capable de manipuler et d’organiser les énormes quantités de données. Nous sommes encore très loin du robot-shaker automatique et intelligent, d’où sortiraient prémâchées toutes les idées d’innovation à fort potentiel business. Les offres d’emplois frisent d’ailleurs le ridicule quand elles demandent un data scientist « bac + 5 et 10 ans d’expérience »…tant ces métiers sont récents.

Le marketeur : pour lui, la data massive est une révolution culturelle. En effet, elle fait voler en éclats les modélisations du comportement des consommateurs précédemment mis en équations à partir de données classiques, parfois papier. L’avènement du e-commerce, associé aux navigations sur internet préalables à des achats en magasins physiques, ont fait des « cookies » des espions bien plus redoutables que la simple exploitation d’un ticket de caisse ! Un point extrêmement important pour les directions marketing consiste à ne pas mettre à la corbeille leurs anciens modèles pour les remplacer par les nouvelles informations apportées par les « cookies ». Elles doivent d’abord effectuer un changement de base, en reprenant les données ayant inspiré leurs modèles actuels, puis en les faisant retraiter par les instruments du Big Data ; en effet les outils Hadoop, NoSQL, ou encore Memtables lisent parfaitement le format pdf. Certaines sociétés de services ont d’ailleurs industrialisé la transformation de documents en pdf, et proposent leurs prestations aux directions marketing intéressées. C’est seulement après avoir effectué ce changement de base que les directions marketing pourront se concentrer sur les nouvelles informations massives issues de l’internet, pour construire leurs nouveaux modèles.

Le contrôleur de gestion : pour lui, la data est sa matière première historique, et la data massive est potentiellement un accélérateur de son intégration dans le processus des opérations contrôlées. Le schéma de la figure ci-dessus montre bien l’évolution du positionnement du contrôleur de gestion. Lorsqu’il se contente de décrire le passé, on qualifie son approche de « gestion rétroviseur » et on compare souvent le contrôleur de gestion à un « journaliste », sans valeur ajoutée business ; lorsqu’il passe au stade supérieur, à savoir réaliser des analyses causales des écarts, on lui dit qu’il a simplement « fait son travail » permettant ainsi de déclencher des plans d’actions correctives ; quand les reprévisions et autres rolling forecast sont mis en place, il atteint dans le meilleur des cas le grade de « business partner ». En franchissant l’étape du Big Data, il va fortement contribuer à la prescription du futur, grâce aux résultats des traitements du data scientist et à la vision prospective du marketeur. Une façon pour lui, peut être, de devenir définitivement « le bras droit » de la direction générale !

Le « Big Data » : stratégie ou outil ?

Il est totalement inutile de se lancer dans un projet Big Data si l’on n’a pas préalablement déterminé des objectifs concrets, qui se traduiront précisément dans le P&L, car un objectif mal défini conduira immanquablement à un échec Le danger est de se laisser leurrer par les espérances d’un mot clef, sans que l’entreprise n’ait une vision claire de sa traduction dans son business. Les cas d’usage sont nombreux, comme ajuster les modélisations de sa connaissance clients, accroître sa productivité du manufacturing en généralisant la maintenance prédictive, exploiter la puissance des objets connectés, améliorer la sécurité de ses S.I., fortifier sa performance marketing avec les enchères en temps réel, etc…encore faut-il trouver le bon.

Trouver les cas d’usage est en effet la première des trois conditions de réussite d’un projet Big Data, à laquelle il convient d’en rajouter une deuxième, particulièrement liée au contrôle de gestion, à savoir convaincre la DG avec des ROI conformes aux attentes ; la mise de fonds initiale d’un premier projet Big Data est en effet souvent plus coûteuse que prévu, et plus élevée que celle des projets suivants. La troisième condition de succès se situe dans la sphère du data scientist et de l’architecte Big Data, puisqu’il s’agit de rendre le projet implémentable dans le système d’informations et de « sourcer » les infrastructures.

Une fois démontré l’intérêt d’un projet basé sur le traitement de la donnée, le plus délicat consiste à déterminer quelle est la data qui générera le plus de valeur dans le cas d’usage retenu. Max Vallejo, responsable e-CRM d’Air France-KLM, insiste par exemple sur l’importance des données de navigation et des données serveur dans le cadre d’un objectif d’amélioration de l’expérience client : « La valeur que l’on attribue à telle ou telle donnée va permettre de prioriser nos projets de capture et de stockage. Ces derniers temps, par exemple, les données de navigation et les données serveur ont pris une place très importante chez nous : elles permettent en effet d’une part de faire du « re-targeting », très classiquement, mais elles vont aussi permettre d’améliorer l’expérience client, en la rejouant pour mieux comprendre les problèmes remontés. »

Pour paraphraser Bill Schmarzo [2], « Les entreprises n’ont pas besoin d’une stratégie pour exploiter les Big Data ; elles ont besoin d’un business plan qui intègre les données et les possibilités ouvertes par les Big Data dans un univers digital. »
Ouf ! La stratégie retenue est bien celle de l’entreprise, éventuellement structurée dans un Balanced Score Card, et surtout déclinée dans un « bon vieux » Business Plan, dont seulement certaines actions relèveront du Big Data.
Ce point confirme, si besoin était, que le Big Data est aussi dans la compétence et au service du contrôle de gestion.

[1] Tracé conçu et maintenu par le Gartner group, qui représente une courbe d’adoption des nouvelles technologies
[2] CTO de emC, et auteur de « Big Data : Understanding how data powers Big Business »