Le Big Data est un domaine où les investissements n’ont de sens que s’ils sont pensés pour le moyen ou le long terme. À part quelques initiatives pilotes avec un périmètre réduit, les projets Big Data ont vocation à créer de la valeur durable. Y associer une roadmap constitue un atout pour atteindre cet objectif.
Les multiples études sur le marché du Big Data et les investissements des entreprises mettent régulièrement en exergue la multiplicité des cas d’usage, le potentiel quasi infini de l’exploitation et de la valorisation des données, ainsi que des éléments de réflexion sur les architectures, infrastructures et compétences. On peut comprendre que, face à une telle diversité de business cases, de technologies, de prestataires et de parties prenantes, dans et hors de l’entreprise, les DSI puissent être désorientés devant l’ampleur de la tâche et, potentiellement, les risques liés aux projets Big Data qui, pour la plupart, explorent des domaines peu ou pas connus.
Ces craintes, si elles sont légitimes, ne doivent pas occulter les promesses et les espoirs que suscite le Big Data. D’autant que le risque d’échec est significatif : seulement 27 % des projets Big Data sont considérés comme profitables, 45 % sont à l’équilibre et un sur dix est déficitaire, selon l’étude The Big Data payoff, publiée en 2016 par CapGemini et Informatica.
Pour aller plus loin et rendre concret (et profitable) le Big Data dans les entreprises, il est pertinent d’élaborer une véritable roadmap, de manière à bien cadrer les projets et à pouvoir les mener à terme sans encombre. Une roadmap Big Data s’articule autour de dix principes, qui sont autant de bonnes pratiques.
1. Auditer l’existant
Avant de débuter un projet Big Data, il est essentiel d’avoir une connaissance précise du contexte et de l’environnement, de manière à identifier très en amont les éventuels obstacles auxquels l’entreprise va être confrontée. Mais aussi les leviers sur lesquels on pourra s’appuyer en priorité pour accélérer le Time to Market. Cet audit de l’existant peut s’inspirer des caractéristiques du Big Data. Il est généralement défini par cinq V : volume, vitesse, variété, valeur, véracité. L’analyse portera donc sur ces éléments afin de répondre aux interrogations suivantes :
- Quels sont les volumes de données disponibles ?
- Quel est le circuit des flux de données ?
- Quelle est la diversité des données et quelle typologie peut-on élaborer ?
- Quelle est la valeur de chaque type de données ?
- Quelle est le degré de qualité des données ?
2. Étudier le cycle de vie des données
Les données suivent différents cycles de vie, entre celles qui ne vivent que quelques minutes ou quelques heures et celles qui sont conservées pendant plusieurs années, celles qui sont stratégiques et celles qui le sont moins, celles qui concernent les clients et celles qui servent au back office… Cette étape de la roadmap s’attachera donc à préciser et à qualifier les cycles de vie, en fonction de la typologie des données définie précédemment : les projets Big Data ne seront pas de même nature selon la structure de ces cycles de vie. Et il faut tenir compte des silos de données, très présents dans les organisations.
3. Identifier les sponsors métiers
Les projets Big Data sont toujours portés par les métiers qui vont, à travers une exploitation des données, chercher à créer de la valeur. Les projets Big Data doivent répondre à une finalité métier ou organisationnelle, lorsqu’il s’agit, par exemple, d’améliorer des processus internes. Dans tous les cas, ils devront être soutenus, très en amont, par des sponsors, qu’il convient d’identifier. S’ils sont plusieurs, il faudra, en outre, déterminer le partage des responsabilités. Selon l’étude Big Data Adoption 2016 de Gartner, 60 % des échecs des projets Big Data sont liés à un manque de vision métier.
4. Imaginer des cas d’usage et des business modèles
En tant que porteurs de valeur, les projets Big Data s’inscrivent dans des business cases. Ceux-ci peuvent être multiples : c’est à la fois un avantage et un inconvénient. Un avantage, car il sera toujours possible d’identifier des sources de valorisation des données ; un inconvénient, car cette multiplicité et les possibilités quasi infinies de combinaisons de données permises par la puissance des solutions Big Data risquent de susciter de nombreuses attentes de la part des métiers, qui vont s’imaginer pouvoir tout faire tout de suite. D’où l’impératif de bien cadrer les cas d’usage des données et, pour les approches les plus ambitieuses, de bien valider les business modèles basés sur la valorisation de gisements de données.
5. Définir les indicateurs de performance et de ROI
Si, avec les projets Big Data, la création de valeur ne fait aucun doute, à moins de les réaliser en dépit du bon sens et sans tenir compte des bonnes pratiques, encore faut-il pouvoir mesurer la valeur créée et le retour sur investissement (en gains financiers et en délais). Une telle évaluation passe par l’élaboration d’indicateurs de performance, spécifiques à l’entreprise et à son marché. On pourra, par exemple, retenir la croissance du chiffre d’affaires, la réduction des délais de transaction, le taux de fidélité des clients, l’amélioration de la qualité des données…
6. Élaborer le modèle de gouvernance des données
Capitaliser sur les projets Big Data constitue souvent une démarche à long terme. À part quelques initiatives ponctuelles sur des périmètres très limités, les projets Big Data, s’ils sont suffisamment créateurs de valeur, ont vocation à durer. L’un des risques, classique en matière de gestion de projet, réside dans le relâchement des parties prenantes dès que le « rythme de croisière » est atteint.
On se retrouve, par exemple, avec une dégradation de la qualité des données, une adaptation insuffisante aux modifications du contexte technologique ou métier, des difficultés de financement ou une évaporation des compétences clés. Il est donc recommandé de veiller à mettre en œuvre une démarche de gouvernance des données, qui garantit que la création de valeur restera optimale avec le temps.
7. Identifier le portefeuille des compétences internes et externes
Les compétences nécessaires pour mener des projets Big Data sont multiples et varient selon qu’elles concernent les équipes en charge des données, les fonctions transverses, la gouvernance ou les responsables d’infrastructures. Ainsi, pour les équipes en charge des données, il est utile de disposer de compétences en matière de développement de modèles de données, de design pour représenter les données, de pilotage et de business analyst pour identifier les enjeux.
Le Big Data fait également appel à des fonctions de Chief Data Officer et de Chief Protection Officer et, côté infrastructures, à des architectes système et bases de données. Toutes ces compétences, pour certaines très spécifiques, n’existent pas toujours en interne et sont caractérisées par des pénuries plus ou moins chroniques sur le marché du travail. Il est donc essentiel d’en anticiper la disponibilité très en amont du projet Big Data. Selon une étude de McKinsey, publiée en mai 2016, l’analyse des données est le premier secteur concerné par la pénurie de compétences : une entreprise sur deux y est confrontée.
8. Trouver le financement
N’importe quel projet Big Data nécessite des financements. Même ceux qui, en apparence, ne coûtent rien, demandent un investissement en temps de la part des équipes qui y contribuent. Un projet Big Data d’envergure répond aux mêmes principes que n’importe quel projet système d’information, caractérisé par au moins six éléments : un business case, un délai, un budget, des compétences, un livrable et un ROI. Dès lors que les métiers sont impliqués dans la recherche de valeur avec le Big Data, la question du financement est triviale, mais il reste à bien cadrer les besoins budgétaires et, si possible, à les « sanctuariser », pour mener le projet à son terme sans risquer qu’il soit remis en question.
9. Évaluer les outils technologiques
S’il ne faut évidemment jamais réduire les projets Big Data à de simples projets techniques, exclusivement initiés et pilotés par les DSI, la composante technologique reste essentielle. D’autant que l’offre de solutions s’est étoffée ces dernières années, qu’elles ont gagné en maturité, qu’il s’agisse des composantes infrastructures (Hadoop…), middleware (bases de données…) ou logicielles (analyse prédictive, algorithmes).
Mais toutes les solutions ne se valent pas, les discours marketing des fournisseurs tendent à surestimer les performances de leurs offres. Il faut envisager l’intégration avec l’existant et le coût total de possession d’une solution peut varier considérablement. La phase d’évaluation sert à baliser le terrain pour éviter qu’un projet Big Data bien parti ne soit compromis par des difficultés techniques qui auraient pu être traitées en amont.
10. Réaliser un POC
Même si les données sont abondantes, de bonne qualité et avec des perspectives intéressantes de valorisation, il subsiste toujours une incertitude quant à la faisabilité et au retour sur investissement d’un projet Big Data.
C’est tout l’intérêt, avant la mise en production, de réaliser un POC (Proof of Concept) pour valider les hypothèses, tester la résistance des modèles de données, vérifier la pertinence des résultats par rapport aux enjeux métiers et la performance des solutions techniques. Pour favoriser l’agilité, une équipe de petite taille est préférable afin d’éviter la dispersion des efforts. Dans l’idéal, cette équipe doit être placée directement sous la responsabilité du sponsor du projet.