En 2012, le cabinet d’études IDC estimait que l’ensemble des informations produites par l’homme avait atteint 2.7 zettaoctets. Depuis, ce chiffre a continué de s’accroître, alimenté par le développement des médias sociaux, des smartphones et des objets connectés ainsi que par la numérisation et la dématérialisation des échanges.
Ainsi, « l’univers numérique » double tous les deux ans, et devrait peser 44 000 milliards de gigaoctets en 2020, soit 10 fois plus qu’en 2013. À titre de comparaison, le volume mondial d’informations de l’univers numérique tiendrait aujourd’hui dans une pile de tablettes iPad Air de 253 704 kilomètres, soit deux tiers de la distance entre la Terre et la Lune.
Les entreprises sont majoritairement responsables des données créées par les consommateurs : si les deux tiers des données de la sphère numérique sont générées ou utilisées par les consommateurs et les salariés, 85 % relèvent de la responsabilité des entreprises. Le volume des données transitant par le cloud va doubler : moins de 20 % des données numériques ont transité par le Cloud en 2013. Elles seront 40 % en 2020.
Volume, vitesse et variété : les trois « V » du Big data
Ce phénomène a donné naissance au terme de « big data », qui désigne des données caractérisées à la fois par leur volume et leur vélocité (la vitesse à laquelle elles s’accroissent). Un troisième paramètre vient s’ajouter à ces deux aspects, la variété des données en question : la plupart en effet sont des données non-structurées, souvent sous forme de texte libre mais pas seulement. Il peut s’agir de commentaires publiés sur les réseaux sociaux, de documents multimédia, de fichiers PDF, d’images, de données biométriques ou autres.
Confrontées à ce déluge de données sans précédent, les entreprises ont deux choix :
– continuer de fonctionner comme avant, en se contentant d’exploiter ce qu’elles peuvent stocker dans leurs systèmes décisionnels et leurs entrepôts,
– tenter d’étendre leurs capacités pour tirer profit de cette nouvelle masse d’informations.
À première vue, la première option peut paraître suffisante encore pendant quelques années, le temps de réfléchir à son positionnement face au big data. Cependant, pendant que certains acteurs hésitent à se lancer, d’autres, souvent de nouveaux entrants, misent à fond sur le big data pour se différencier et conquérir des parts de marché. Télécoms, finance, santé, distribution, BtoC, énergie, aucun secteur n’échappe à cette tendance, et ce serait une erreur d’attendre sans rien faire pendant que les concurrents prennent de l’avance.
Une enquête menée par Tata Consultancy Services (TCS) début 2013 auprès de 1 217 entreprises dans le monde a ainsi mis en évidence que les entreprises les plus avancées avaient investi près de 24 millions de dollars US en 2012 dans le big data, soit plus de trois fois le montant investi par les entreprises en queue de peloton : sept millions de dollars seulement. En outre, le retour sur investissement atteint facilement voir excède les 50% pour les leaders.
Pour ne pas se retrouver à la traîne, il reste donc la deuxième option : lancer dès à présent une initiative autour du big data dans l’organisation, afin d’identifier des projets à mener et de démarrer le plus rapidement possible. Néanmoins, une fois la démarche actée, cela ne suffit pas à choisir dans quelle direction s’orienter. Pour que le big data devienne davantage qu’une opportunité, il faut en effet d’emblée se poser les bonnes questions, dont la plus importante est sans doute celle du résultat que l’on souhaite obtenir.
Une question centrale, celle du retour sur investissement
L’erreur encore trop fréquente sur de nombreux projets big data est de les considérer comme des projets technologiques avant tout, et de poser la question du retour sur investissement (ROI) une fois le travail bien entamé. Ainsi, dans l’enquête menée par TCS, 43 % des entreprises ayant investi dans le big data s’attendaient à un retour sur investissement supérieur à 25 %, mais environ un quart (24 %) avaient un ROI négatif ou inconnu.
Même s’il peut sembler difficile d’évaluer la valeur que l’on souhaite retirer d’un projet avant son démarrage, faire l’impasse sur ces questions en amont a de fortes chances de mener à des dérives, voire à des échecs, et dans le big data peut-être plus qu’ailleurs. En effet, dans ce domaine les possibilités sont nombreuses, et il est donc essentiel de faire le tri parmi toutes les pistes pour ne garder que celles qui peuvent apporter des résultats concrets et exploitables par l’entreprise.
Quels domaines cibler ?
Interrogées sur les domaines dans lesquels elles ont le plus investi en big data, les entreprises consultées par TCS ont cité en premier lieu les ventes, le marketing et le service client.
Néanmoins, les plus gros retours sur investissement ne sont pas forcément à attendre dans les domaines en tête de ce classement, déjà bien matures en ce qui concerne l’exploitation de leurs données. En effet, en demandant ensuite aux responsables métiers d’évaluer le retour sur investissement attendu, l’enquête de TCS a abouti à un classement assez différent, dans lequel les gains les plus significatifs ne sont pas forcément liés à l’importance de l’investissement.
Des métiers comme la logistique ou la finance, moins avancés que le marketing ou les ventes en matière de big data, peuvent donc représenter des opportunités tout aussi intéressantes pour les entreprises et ne sont pas à négliger dans les projets.
Par ailleurs, le big data n’est pas forcément synonyme de révolution. Les techniques et outils associées peuvent simplement être utilisés pour améliorer les performances ou l’efficacité de processus existants, un gain souvent aisé à mesurer. À titre d’exemple, une assurance a pu détecter 30 nouveaux cas de fraudes avérés sur un même panel en utilisant les techniques du big data, là où les outils existants en décelaient 50. Une grande banque américaine a, quant à elle, réduit de 70 % les coûts de préparation de ses données en intégrant des technologies big data à sa plateforme d’analyse.
À chaque métier ses enjeux
Dans chaque secteur et dans chaque domaine métier, il existe de nombreux cas d’usage dans lesquels le big data a une carte à jouer :
- Dans le marketing, le graal de la vision à 360° du client est évoqué depuis longtemps ;
- Dans les ressources humaines, il s’agit notamment d’améliorer le recrutement et de réduire le turn-over des employés ;
- Dans l’industrie ou l’énergie, l’analyse prédictive des données issues de capteurs suscite un réel intérêt pour améliorer la maintenance prévisionnelle ou ajuster la production à la demande ;
- Dans les transports, l’analyse en temps réel des flux de passagers ou de marchandises peut aider à fluidifier le trafic ;
- Dans la logistique, le big data peut aider à suivre les livraisons de produits ou à détecter les pertes dans les stocks ;
- Dans la banque et l’assurance, une meilleure détection de fraudes peut être une source d’économies non négligeable ;
- Dans le monde médical, les analyses du génome, de l’ARN, du protéome ouvrent de nouvelles perspectives en termes de médecine personnalisée.
Néanmoins, tous les projets n’ont pas le même degré de complexité, ni la même valeur potentielle pour les entreprises. Celle-ci dépendra à la fois du soin accordé à l’étude du ROI et de la manière d’aborder les nombreux enjeux liés à ces projets.
Ainsi, même un cas d’usage classique comme la vision à 360° du client soulève de nombreuses questions :
- quelles données analyser (centre d’appel, réseaux sociaux, cartes de fidélité…) ? Comment s’assurer qu’une personne sur Facebook est la même que le client enregistré dans votre système d’information ?
- Pour quoi faire ? Envoyer des offres plus ciblées, améliorer la satisfaction des clients…
- Avec quelles limites ? Il n’est par exemple pas évident de savoir ce qu’une entreprise peut faire avec des données issues de médias sociaux ou achetées auprès d’acteurs externes : dans quels cas la loi considère qu’elle en tire profit ou pas ?
Défis et facteurs clefs de succès
La plupart des projets de big data, malgré leurs spécificités, ont en commun un certain nombre de challenges. Parmi ceux-ci, les enjeux techniques sont assez simples à identifier : collecte et stockage de gros volumes de données, anonymisation des données à caractère personnel, capacité à mener des analyses en temps réel, analyse sur des données non structurées…
Les différentes solutions permettant de répondre à ces problématiques commencent à être connues : écosystème Hadoop, analyse en mémoire, bases NoSQL, logiciels d’exploration visuelle ou d’analyse prédictive… Néanmoins, la popularité croissante de ces outils peut donner l’impression, à tort, que les projets big data sont avant tout technologiques. La mise en avant de ces enjeux techniques peut en effet masquer un point pourtant essentiel : dans les projets de big data, la majorité des défis sont d’ordre culturel.
Quel que soit le projet, plusieurs questions vont inévitablement se poser, par exemple :
- Quelles données faut-il utiliser ? Doit-on se limiter à celles de l’entreprise ou inclure des données externes ?
- Comment amener les métiers à sortir des silos organisationnels pour partager les informations nécessaires ?
- Comment établir une relation de confiance entre les personnes chargées de l’analyse des données et les responsables métier destinataires des résultats de leurs travaux ?
- Comment faire le meilleur usage de ces mêmes informations ?
Une fois ces questions clairement posées, il apparaît évident qu’y répondre ne relève pas de la seule responsabilité des directions de systèmes d’information : c’est bien toute l’entreprise qui est concernée, et notamment les métiers et fonctions en attente de la valeur que doivent fournir les projets de big data.
A ces facteurs culturels s’ajoute un certain nombre de challenges globaux, comme la qualité des données ou bien la question des coûts : l’investissement initial, notamment en matériel (serveurs) reste en effet important, ce qui rend d’autant plus nécessaire l’analyse préalable du retour sur investissement.
Parmi les enjeux globaux, une question est peut-être encore plus centrale que les autres : celle des compétences. Si l’organisation ne dispose pas de profils adéquats, la valeur qu’elle peut espérer de ces projets chute rapidement.
En effet, extraire des informations utiles et exploitables d’une masse de données brutes, ne serait-ce que pour mesurer la réputation d’une marque, représente un travail considérable. Celui-ci nécessite des connaissances en statistiques, en bases de données ainsi qu’une bonne compréhension du contexte et des métiers de l’entreprise. L’entreprise qui souhaite tirer le meilleur parti du big data a besoin de « data scientists », des experts possédant le niveau d’analyse permettant de sortir des résultats pertinents.
Les facteurs clés de réussite des projets big data
Afin que les projets de big data se déroulent dans les meilleures conditions, maximisant ainsi leurs chances d’apporter de la valeur à l’entreprise, un certain nombre de facteurs sont nécessaires :
- Intégrer le retour sur investissement dans le choix des projets
Plutôt que de lancer des initiatives big data tous azimuts, sans bien savoir ce que l’on souhaite en obtenir, les entreprises ont intérêt à intégrer en amont la notion de retour sur investissement à leur démarche. En se concentrant en priorité sur les projets pouvant démontrer rapidement de la valeur et sur ce qu’elles veulent obtenir des données à leur disposition, elles éviteront plus aisément les explorations hasardeuses et les dérives.
- Miser sur les compétences
Le métier de data scientist émerge tout juste. A l’heure actuelle, les premières promotions arrivent seulement sur le marché du travail. Il est donc essentiel d’accorder un soin tout particulier à identifier et à retenir les bons profils pouvant exister en interne, et si ceux-ci s’avèrent rares, il ne faut pas hésiter à former ses équipes ni à se faire accompagner afin de démarrer rapidement.
- Aboutir rapidement à un Proof of Concept (POC)
Les projets de big data génèrent le maximum de valeur lorsqu’ils répondent à une opportunité business. Pour ne pas rater ces fenêtres d’opportunité, il est important d’aller vite. Ainsi, les projets ne doivent pas excéder un an dans une grande entreprise : il est préférable que les équipes puisent produire des résultats et les mettre à disposition des métiers le plus tôt possible.
- Privilégier des équipes de taille restreinte
Pour favoriser l’agilité, une équipe de petite taille est préférable afin d’éviter la dispersion des efforts. Dans l’idéal, cette équipe doit être placée directement sous la responsabilité d’un donneur d’ordre, dont le rôle est d’éviter les frictions entre IT et métiers.