Big data : la fin des POC

La maturité des entreprises en matière de Big Data progresse. Comment s’organiser ? Comment créer de la valeur et comment positionner le Chief Data Officer ? Les conseils de Covea, OUI.sncf, Keolis, Carat, BCG, Engie, Compagnie des Alpes, Malakoff Mederic, BNP Paribas Personal Finance, Swiss Life, Octo Technology.

Les métiers de développeur intégrateur Big Data, de chef de projet ou d’architecte sont toujours très demandés par les entreprises, d’après l’Observatoire des métiers des télécommunications de l’Apec. Et selon le Baromètre Big Data publié en 2018 par l’EBG, Qlik et Micropole, la pénurie de profils figure en tête des challenges liés au Big Data, devant la difficulté à mesurer le ROI et les contraintes budgétaires. D’après cette étude, les projets Big Data sont réputés très coûteux, notamment au démarrage, lorsque tout est à construire. Ainsi, 28 % des entreprises y consacrent plusieurs centaines de milliers d’euros, 27 % plusieurs dizaines de milliers d’euros et 21 % plusieurs millions d’euros.

Au niveau européen, la maturité des entreprises dans la valorisation de leurs données progresse. Selon Elias Baltassis, Managing Director du Boston Consulting Group, qui a présenté les résultat d’un index européen de maturité dans ce domaine lors du salon Big Data 2019, cet index s’élevait à 267 en 2016 et devrait atteindre 409 en 2019. « La maturité globale progresse, mais moins que prévu et il subsiste des différences selon les problématiques de données, les secteurs et les pays », déplore Elias Baltassis.

Ainsi, l’analytique et l’intelligence artificielle sont les domaines qui ont progressé le moins vite en maturité ; la finance, les transports et les biens industriels (avec l’IoT) sont les plus en avance, comparativement au secteur public, à la grande distribution et aux services. Quant aux pays dans lesquels les entreprises sont les plus matures dans la gestion des données, on trouve, sans surprise, les Etats-Unis et la Chine, surtout dans le domaine de l’intelligence artificielle.

L’un des indices de cette montée en maturité réside dans la fin des POC. « On ne réalise plus de POC mais des MVP (minimum viable product) », précise Aïssa Belaid, Lead Big Data et analytique chez Engie. Même principe chez Malakoff Mederic, où David Giblas, Chief Innovation Digital and Data Officer, rappelle : « Nous avons interdit le terme POC, nous préférons l’expression « Cas d’usage de données ». » Chez l’assureur Swiss Life, « on ne parle plus de POC, mais de POV (Proof of Value) », selon Cynthia Traoré, responsable du Data Lab de Swiss Life France.

Si les entreprises s’engagent bien au-delà des POC, trois problématiques restent fondamentales : l’organisation, la création de valeur et le positionnement des CDO (Chief Data Officers).

235 bigdata
  • LinkedIn
  • Twitter
  • Facebook
  • Gmail

L’organisation : les métiers en ligne de mire

Le Big Data est évidemment endogène aux métiers et aux évolutions de l’environnement concurrentiel. Exemple : l’assureur Covea (GMF, MMA, Maaf), confronté à une transformation du marché de l’assurance, avec une concurrence accrue, un environnement réglementaire plus contraignant et une évolution de la matière assurable, avec, notamment, les voitures autonomes ou les cyber-risques.

L’assureur est ainsi face à trois challenges : « Décloisonner les données de leurs silos, disposer d’informations à jour et pouvoir accéder aux données de détail, stockées dans les trois systèmes d’information des trois assureurs qui composent Covéa et portant sur plus de dix millions de véhicules assurés et huit millions d’habitations », résume Antoine Jousse, responsable du centre décisionnel et Big Data de Covea. L’assureur a ainsi développé un programme Data Centric pour répondre à ces enjeux sur les données : « Maîtriser la Data devient indispensable et nous avons investi pour améliorer l’expérience client », précise Antoine Jousse, pour qui l’apport des technologies est crucial, notamment en matière de stockage, de cloud, de Machine Learning ou de traitements en temps réel. « Nous avons quatre ans d’expérience en matière de Big Data et notre objectif est de continuer à progresser en maturité », poursuit-il.

Actuellement, une dizaine de cas d’usage sont en production et une trentaine d’expérimentations ont été réalisées dans le cadre du Data Lab. « L’objectif est de traiter les données (collecte, nettoyage, enrichissement, alignement) une seule fois pour une multitude de cas d’usage », précise Antoine Jousse. L’un des usages les plus emblématiques de la stratégie Data de Covea concerne la vision 360° du client sur le poste des utilisateurs en agences « avec du batch et du streaming en parallèle, pour une mise à jour en temps réel de la vision unifiée des clients », ajoute-t-il.

Selon, Frédéric Petit, responsable du département architecture et données d’Octo Technology, qui est intervenu lors de la dernière Duck Conf sur l’architecture du SI, plusieurs principes sont à retenir pour élaborer un Data Lab (voir tableau) :

Considérer que la plateforme n’est pas la priorité.

  • La co-construire avec les métiers.
  • Identifier rapidement la matière première et sa complexité de raffinage en s’appuyant sur la gouvernance des données.
  • Se focaliser sur un seul sujet.
  • Ne pas attendre de miracles, la science des données n’est pas magique.
  • Privilégier des méthodes pragmatiques, car un Data Lab, par définition, expérimente et se trompe.

Chez BNP Paribas Personal Finance, le Data Lab est rattaché à la DSI « mais les métiers disposent également d’équipes de Data Scientists », souligne Jérémie Guez, Head of Data Lab chez BNP Paribas Personnel Finance. « Il n’y a pas d’organisation optimale, cela dépend de l’ADN et de la maturité des organisations, mais il faut laisser l’autonomie aux métiers pour identifier les cas d’usage. Nos métiers savent concevoir des algorithmes, cela fait plus de trente ans que nous faisons du scoring. »

Swiss Life, pour sa part, a fait le choix d’un Data Lab non centralisé, « il faut éviter un Data Lab « hors sol » et l’ancrer dans la réalité, nos Data Scientists ayant une connaissance métier. Cela permet de diffuser plus rapidement, notre rôle étant celui d’ambassadeur et de collecteur de cas d’usage », témoigne Cynthia Traoré, responsable du Data Lab de Swiss Life France. « Les technologies sont là, certes elles ne sont pas toutes bonnes, les compétences sont disponibles, on sait gérer les données, mais on ne voit pas encore de cas d’usage vraiment disruptifs », estime Aïssa Belaid, lead Big Data et analytique chez Engie.

Pour Antoine Jousse, de Covea, trois points d’attention sont à considérer. D’abord, intégrer le fait que les technologies ne sont pas « plug and play ». Ensuite, « le tuning est important et doit être itératif, de manière à ne pas sous ou sur-dimensionner, d’autant que les paramétrages ne fonctionnent pas toujours comme prévu ». Enfin, « ne pas oublier la dimension humaine dans la montée en puissance des projets et des usages. »

La création de valeur : faut-il vraiment un ROI ?

Le Big Data est également une approche qui renforce l’expérience client. « L’économie est de plus en plus expérientielle, avec une prise en charge croissante des expériences possibles par les organisations. L’expérience est l’un des supports de notre compréhension du monde, c’est avec elle que l’on attribue du sens », souligne Julien de Sanctis, chercheur en philosophie chez Spoon, une start-up qui conçoit des robots .

La Data devient évidemment stratégique. Comme le soulignait Thibaut Portal, Global Media and Content Hub Leader de Pernod Ricard, lors de l’événement Oracle MCX (Modern Customer Experience) : « Nous sommes créateur de convivialité, donc la donnée est importante (géolocalisation, suggestion d’usage des produits…), surtout que 90 % de nos ventes d’effectuent via des réseaux indirects. Cette importance stratégique des données est évidemment liée aux problématiques d’expérience client, qu’il n’est souvent pas possible d’améliorer sans une connaissance fine des consommateurs, donc avec une exploitation intelligente des données. »

Et les entreprises qui oublient l’expérience client le paient en général très cher. Un principe qui est très ancien. Michel-Edouard Leclerc, président des Centres E.Leclerc, intervenu lors de la conférence Oracle MCX, a rappelé que, lors de la création du groupe, « mes parents n’avaient pas de modèle, cela les a obligés à être à l’écoute des consommateurs, le succès de Leclerc, c’est l’échec des autres qui n’ont pas su changer. La force de la promesse commerciale est toujours supérieure à la force de la promesse technologique.

C’est pour cette raison qu’on peut gagner avec des magasins moches. Tout le monde parle d’expérience client, cependant, la première chose à faire n’est pas de penser au client, mais à celui qui ne l’est pas encore. » Et les mauvaises expériences client se diffusent très vite : « Tout le monde partage son expérience et, dans le cas d’une crise, deux heures suffisent », précise Bruce Hoang, directeur Digital et Data Communication d’Orange. Pour Robert Plaszynskin, directeur d’Accenture Digital, 56 % des consommateurs ont une expérience client qualifiée de passable.

Bettina Seibert-Sandt, responsable CRM de la Compagnie des Alpes, qui a également témoigné lors du Oracle MCX, a expliqué la stratégie mise en place à partir de l’exploitation des données. « L’expérience client est la conjonction de trois éléments : l’attachement à la marque (la désirabilité), la relation personnelle à la marque et les émotions (ce que le client ressent). » Trois axes de travail ont été privilégiés. D’abord, l’expérience simplifiée, avec un chatbot.

Ensuite, l’expérience personnalisée, basée sur l’exploitation de 150 indicateurs pour chaque marque. Enfin, l’expérience partagée, avec des mécanismes de parrainage, des chats, des communautés, de la coproduction de contenus éditoriaux. En 2019, la Compagnie des Alpes prévoit de développer un outil de captation des émotions pour déterminer les « irritants » à traiter, ainsi qu’un moteur de recommandation et d’intelligence artificielle.

Elias Baltassis, Managing Director du Boston Consulting Group, formule trois recommandations. D’abord, « ouvrir les horizons, car le champ des possibles est vaste et il ne faut pas se contenter de faire du neuf avec du vieux. » Ensuite, il importe de se focaliser sur la création de valeur, « avec des priorités sur la faisabilité et sur l’impact ». Enfin, il exhorte les entreprises à « sortir des laboratoires et des POC, et à viser d’emblée l’industrialisation. »

« Nous avons placé les métiers comme porteurs de tout ce que l’on fait, ils sont responsables de la création de valeur et des déploiements », rappelle David Giblas, Chief Innovation Digital and Data Officer chez Malakoff Mederic. Pour chaque cas d’usage, une équipe pluridisciplinaire intervient, en mode centre de compétences, avec des représentants des métiers, de la DSI, de l’organisation, de la DRH et des Data Scientists. « Nous privilégions deux indicateurs : le ROI, chaque trimestre, et le niveau de maturité, en identifiant les tâches manuelles qui restent. »

L’entreprise a ainsi recensé une cinquantaine de cas d’usage, dans le marketing, la modélisation des risques, le traitement d’images, la lutte contre la fraude et la finance notamment. « Un cas d’usage génère d’autres cas d’usage. On souhaite générer de la valeur et on ne lâche pas prise tant que cet objectif n’est pas atteint, il faut donc éviter de se disperser, la valeur vient de la focalisation. Il faut hybrider les métiers avec les données », précise David Giblas. Et aller assez vite : « Nous consacrons trois mois à l’exploration, trois mois à l’incubation et ensuite on déploit, en moyenne l’ensemble prend six mois. Généralement, le temps se répartit entre 10 % pour l’intervention des Data Scientists, 20 % pour la gestion des données et 70 % pour les aspects technologiques et la gestion du changement, car chaque cas d’usage change l’organisation de l’entreprise. »

Pour Cynthia Traoré, responsable du Data Lab de Swiss Life France, « le ROI est important, car il permet de valider l’alignement sur les objectifs stratégiques, mais on ne peut pas le mesurer pour chaque cas d’usage, d’autant qu’il ne faut pas se focaliser sur le ROI au début des projets et que certains métiers ont besoin de davantage d’accompagnement que d’autres. » Certains cas d’usage sont repensés avec une approche itérative. Le processus est en trois étapes : d’abord, une phase pilote pendant trois mois : « On bizute l’algorithme, c’est une phase importante. » Ensuite, un bilan est effectué et, enfin, lorsque le métier est convaincu, c’est l’industrialisation. « Mais ce n’est que le début du cycle de vie dans l’organisation », assure Cynthia Traoré.

Comment construire un Data Lab ?
Étapes Bonnes pratiques
Définir les fondamentaux du Data Lab
  • Former : se familiariser avec les outils, explorer les algorithmes
  • Expérimenter : collecter, analyser et estimer l’effort de traitement des données, évaluer leur potentiel
  • Développer : fonder une communauté pluridisciplinaire
  • Valoriser : communiquer régulièrement sur la valeur
Identifier les cas d’usage stratégiques
Obtenir l’outillage minimum nécessaire
Traiter les difficultés
  • Accessibilité des données
  • Qualité et véracité des données
  • Historisation des changements de modèles de données
  • Disponibilité des intervenants
  • Croissance des volumes de données
Source : Initier un Data Lab, Duck Conf 2019, Octo Technology.
Lien : https://blog.octo.com/initier-un-datalab-rien-a-voir-avec-ce-que-jimaginais-compte-rendu-du-talk-de-frederic-petit-a-la-duck-conf-2019/

Le positionnement des CDO : un mode collaboratif avec les métiers et les DSI

La plupart des projets Big Data sont pilotés par un tryptique DSI-métiers-CDO (Chief Digital Officer). Pour ce dernier, plusieurs rattachements sont possibles : par exemple au Chief digital officer chez Keolis, à la direction marketing chez OUI.sncf et à la direction générale pour Carat. « Le Chief Data Officer est au service du Chief Digital Officer, les deux sont des acteurs majeurs de la transformation numérique des entreprises », estime Fabrice Otano, CDO de Carat, qui est cependant membre du Comex. « Son job est davantage de la transformation que de l’expertise », ajoute-t-il. Chez Keolis, le CDO n’a pas de lien hiérarchique avec la DSI : « Nous avons des approches complémentaires et nous avons l’avantage de ne pas être pris dans des contraintes opérationnelles », souligne Vincent Cadoret, CDO de Keolis. Pour Fabrice Otano, le métier de CDO est avant tout un « job de mise en relation, en rassemblant les bonnes pratiques basées sur les meilleurs business cases, avec un objectif de fédérer les données des métiers pour les organiser et les valoriser. » « Il y a beaucoup de problématiques qui relèvent des métiers, par exemple la qualité des données, qui n’est pas seulement un sujet IT », admet Vincent Cadoret. Chez OUI.sncf, un expert en qualité des données a pour rôle d’aider les métiers à identifier les problèmes et décharge la DSI de cette problématique. « Nous avons 25 responsables de sources de données qui gèrent les neuf sources principales de données, par exemple les clients, les ventes, les ressources humaines, les mobiles, les agences… » C’est aussi une question d’acculturation au management des données. « Il faut identifier les experts des données et comment ils les utilisent. Je leur fait expliquer ce qu’ils font et nous créons des communautés, de manière à monter en compétences, également avec des modules de e-learning sur les données et les outils disponibles », explique Angélique Bidault-Verliac, CDO de OUI.sncf. Pour Fabrice Otano, « il faut battre le tambour pour parler de la donnée, par exemple avec des newsletters, des webinaires, des événements, sinon les CDO demeurent des « professeur Nimbus » éloignés du terrain. » Pour ce dernier, « le CDO doit comprendre la pertinence des données métiers dont on a besoin pour élaborer des business cases, sans nécessairement remonter des historiques sur dix ans ! »


Qu’est-ce que la Data Science ?

La Data Science repose sur plusieurs disciplines dont la maîtrise est essentielle pour assurer le bon déroulement et le succès d’un projet :

  • La préparation des données, dont l’enjeu est de rassembler toute la donnée au même endroit, la recoder et la préparer pour la mettre en forme et la rendre exploitable.
  • La statistique, dont la compréhension des principes est fondamentale pour manipuler les données avec justesse.
  • Le Machine Learning, outil indispensable pour gérer des données massives, évolutives, en flux ou encore incomplètes.
  • L’IA, qui permet l’apprentissage intensif et l’automatisation.

Source : Didier Gaultier, Business & Decision.
https://fr.blog.businessdecision.com/bigdata/2019/04/data-science-4-obstacles-reussir-projet/


Les sept éléments d’une stratégie Big Data

  1. La vision : quelle est l’importance des données dans l’organisation ?
  2. Les cas d’usage, avec quelle création de valeur ?
  3. Le set-up analytique : comment délivrer les projets ?
  4. La gouvernance des données.
  5. Les infrastructures.
  6. Les écosystèmes.
  7. Le management du changement.

Source : Elias Baltassis, Boston Consulting Group, salon Big Data 2019.


Data Lakes : principes de mise en œuvre et d’utilisation

  1. Exploiter les capacités d’une équipe centrale réduite, agile et interfonctionnelle, dont les membres proviennent des équipes chargées du développement, des opérations et des métiers.
  2. Habiliter les spécialistes en science des données à obtenir rapidement les données dont ils ont besoin.
  3. Utiliser le bon sens collectif grâce au crowdsourcing et le balisage pour gouverner les sources de données.
  4. Automatiser la collecte et la transformation des données.
  5. Tirer parti de la validation et de la notation des données en fonction de règles, pour identifier rapidement les problèmes de qualité des données.
  6. Laisser à l’intelligence artificielle et à l’apprentissage automatique le soin de découvrir les données, d’en assurer la sécurité et d’en prendre en charge la qualité.
  7. Privilégier une source unique de référence.
  8. Normaliser les processus et améliorer la cohérence de l’architecture.
  9. Établir des politiques, taxonomies et classifications, afin que toutes les équipes soient en harmonie.

Source : Le guide du directeur des données pour une gestion intelligente des Data Lakes, Informatica.


Culture de la donnée : la France est plutôt bien placée

La France est le troisième pays européen présentant le plus haut taux de « datalphabétisation » de ses salariés, avec un score moyen de 77,3 sur 100 selon une étude commandée par Qlik et réalisée par les universitaires de la Wharton School et le cabinet d’études IHS Markit. Elle se positionne juste derrière le Royaume-Uni et l’Allemagne parmi les pays les plus matures en la matière. La datalphabétisation, ou Data Literacy, est la capacité des salariés à lire, analyser et utiliser les données pour la prise de décisions, et à communiquer à l’aide de ses données dans l’ensemble de l’entreprise, devient un véritable élément différenciateur pour les entreprises.

A l’échelle internationale, l’Europe détient le score le plus élevé en matière de maîtrise des données, contrairement aux autres continents. En effet, 72 % des décideurs européens, affirment que la datalphabétisation est « très importante », contre seulement 60 % des décideurs en Asie et 52 % aux Etats-Unis (le Japon enregistre le taux le plus faible à 54,9 %). Paradoxalement, si seulement 24 % des salariés français se disent « datalphabétisés », tous ont bien saisi l’importance de se former sur la Data, que ce soit pour augmenter la valeur de leur travail au quotidien ou pour la valorisation de leur profil. Ainsi, 63 % des salariés souhaitent investir plus de temps et d’énergie à améliorer leurs compétences en analyse de données.