La Business Intelligence connaît des transformations majeures. La plus emblématique concerne le succès des solutions qui ont misé sur les besoins d’agilité et de simplicité des utilisateurs. Au risque de déposséder les DSI, face au pouvoir des métiers ! Il existe pourtant une approche qui permet de satisfaire à la fois les nouvelles, et légitimes, exigences des utilisateurs et l’impérieuse nécessité, pour les DSI, de conserver le contrôle des applications : la visualisation des données.
Le développement des capteurs et des objets connectés, le succès des réseaux sociaux comme Facebook ou Twitter et la numérisation croissante des différents processus de l’entreprise, multiplient les sources de données potentiellement exploitables. Ce phénomène du big data crée de nouveaux besoins, tant en termes d’analyse que de performances.
Les entreprises souhaitant exploiter ces nouveaux gisements de données, souvent non-structurées, doivent ainsi être en mesure d’effectuer des analyses textuelles ou statistiques poussées sur des volumes sans cesse en hausse. Pour cela, il faut concilier trois compétences représentatives d’un profil émergent de plus en plus recherché, celui de data scientist :
- une bonne connaissance du métier et de ses données,
- une maîtrise des analyses statistiques,
- une aisance avec les outils informatiques.
De nouvelles règles du jeu
La transformation de la Business Intelligence se caractérise par trois tendances lourdes. D’abord la transparence, dans la mesure où les entreprises partagent de plus en plus d’informations avec leurs clients, leurs partenaires, leurs sous-traitants… Ensuite, la personnalisation, exigée par les clients dont les comportements de consommation évoluent dans un contexte où les réseaux sociaux, le temps réel et la qualité de service constituent les éléments clés de la décision d’achat. Enfin, la possibilité de prendre les bonnes décisions avec de moins en moins d’inputs, à mesure que les solutions décisionnelles sont plus faciles à utiliser.
Donner du sens à l’analyse de données
Face à des données toujours plus volumineuses, hétérogènes et complexes, des façons plus intuitives de les lire et de les analyser se développent. Ainsi, la restitution des analyses passe plus souvent par des représentations graphiques très visuelles et interactives, un ensemble de fonctionnalités regroupées sous le terme de visualisation de données. Il devient ainsi bien plus aisé de donner rapidement du sens à de très gros volumes de données, par rapport à une situation où explorer des milliers de lignes sur un tableau dépassait les capacités humaines et ne permettait pas de faire ressortir des informations pertinentes.
Ces capacités jouent également un rôle important dans la démocratisation des applications décisionnelles, comme le montrent les analyses du cabinet Aberdeen Group : dans les entreprises qui proposent des solutions de visualisation des données, le nombre d’utilisateurs, en moyenne, est plus élevé que dans celles qui n’en ont pas (40 % contre 27 %). De même, la visualisation accroît l’usage des solutions et l’accès rapide à l’information utile, essentiellement parce que les utilisateurs sont autonomes et donc moins dépendants des équipes de la DSI.
De nouvelles façons de consommer les applications analytiques
Dans le même temps, les entreprises ont vu évoluer leurs pratiques et leurs façons de consommer les applications décisionnelles. Ces changements ont pour point commun d’être poussés par une forte demande d’agilité et de réactivité émanant des utilisateurs. Ainsi, les solutions traditionnelles, mises en place dans les entreprises dans les années 2000, sont de plus en plus délaissées.
Elles sont pénalisées, tout d’abord, par des délais souvent très longs pour la production de nouveaux rapports, liés notamment au fait qu’il faut faire appel aux équipes informatiques pour chaque modification. Les analystes d’Aberdeen ont constaté qu’il fallait en moyenne 143 jours pour satisfaire une nouvelle demande de reporting, une durée incompatible avec les exigences de métiers sommés d’être toujours plus réactifs.
Face à ces solutions jugées trop « statiques », de nouveaux entrants ont fait leur apparition avec des offres plus agiles, qui misent sur l’autonomie apportée aux utilisateurs. Dans une enquête menée par les analystes d’Aberdeen Group en mai 2013, les trois premières raisons citées pour l’adoption de ces solutions agiles étaient les suivantes :
- une demande d’information en hausse ou en évolution (51 %),
- un nombre croissant de sources de données (39 %),
- un besoin de plus en plus fort de prendre des décisions en tous lieux et à tous moments (34 %).
Ces solutions se distinguent notamment par leur caractère intuitif, permettant une manipulation fluide des données grâce à des fonctionnalités de visualisation avancées. Elles proposent une approche en libre-service, souvent associée à un accès en mode cloud. Enfin, elles ne nécessitent pas de construire au préalable des cubes, entrepôts de données ou univers intermédiaires, et, de ce fait, il est fréquent que les utilisateurs aillent chercher directement les données dans les bases opérationnelles.
Ces solutions ont bien sûr séduit les métiers, toujours friands d’informations à la demande et d’analyses sur mesure, avec des solutions rapides à mettre en œuvre. Ces besoins sont tels que de plus en plus de décisions d’achats informatiques sont prises directement par les opérationnels, parfois même en contournant la DSI. Des solutions dites « départementales » sont aujourd’hui fréquemment mises en place par le marketing, les ressources humaines, les équipes commerciales ou les opérationnels, afin qu’ils puissent, chacun, mener leurs propres analyses au moment où ils en ont besoin, sans dépendre d’un tiers.
Enfin, la demande de mobilité pour les applications décisionnelles est également en hausse. Avec le développement des tablettes, les collaborateurs sont de plus en plus nombreux à vouloir accéder à leurs données lors de leurs déplacements hors de l’entreprise. Il faut cependant que ces données soient de la même qualité et toutes aussi sécurisées que si elles étaient consultées en interne.
Une shadow BI risquée et coûteuse
Si ces évolutions ont permis d’apporter davantage d’agilité aux métiers, palliant certains défauts reprochés aux systèmes décisionnels classiques, elles posent cependant d’autres problèmes.
En effet, si ces projets sortent du périmètre de la DSI, il est fréquent que plusieurs solutions soient mises en œuvre en parallèle, entraînant la réapparition de silos qui ne communiquent plus, ou mal. Ce type de situation peut rapidement générer des surcoûts pour la DSI, même lorsque l’achat des logiciels n’est pas rattaché à son budget : en effet, bien souvent, celle-ci doit intervenir en aval, mobilisant des ressources sur des tâches d’intégration, de test ou de nettoyage de données qui n’étaient pas prévues. Elle se retrouve donc, de fait, dans une situation où elle subit des dépenses qu’elle n’a pas engagées.
Le fait de court-circuiter la DSI, pour la mise en place, entraîne également une perte de contrôle, avec l’apparition d’environnements informatiques en dehors des cadres de gouvernance et de sécurité existants dans l’entreprise, parfois qualifiés d’informatique de l’ombre, ou de shadow IT. Pour l’entreprise, cela peut créer de nouveaux risques en termes de sécurité et de confidentialité des données, en particulier dans le cas de solutions cloud et mobiles, mais aussi rendre la montée en capacité complexe et coûteuse, si jamais le nombre d’utilisateurs s’accroît.
Enfin, la prolifération non-contrôlée d’outils BI a tendance à compliquer une collaboration pourtant de plus en plus essentielle entre les métiers, la DSI et les « data scientists ».
Aujourd’hui, un grand nombre d’organisations possèdent donc deux grands types d’outils décisionnels, chacun avec ses limites : d’un côté, des systèmes legacy en place depuis plusieurs années, robustes et centralisés, mais trop rigides pour répondre aux nouveaux besoins des métiers ; de l’autre, des solutions départementales souples, en self-service, mais déployées de manière morcelée et sans contrôle, au risque de recréer des silos. Il existe pourtant une troisième voie permettant de combiner les atouts des deux types de solutions : la mise en place d’une solution de data visualisation d’entreprise.
Concilier agilité, performance et gouvernance
La visualisation de données à l’échelle de l’entreprise a ainsi pour objectif d’offrir aux utilisateurs l’autonomie et l’agilité qu’ils recherchent, sans pour autant sacrifier la gouvernance des données et la sécurité. Pour cela, les utilisateurs disposent d’une interface intuitive leur permettant de mener eux-mêmes leurs analyses, de collaborer avec leurs collègues et de profiter de tout un ensemble de représentations graphiques.
De leur côté, les données restent gérées par la DSI de manière centralisée. Celle-ci peut ainsi les contrôler, les sécuriser et s’assurer de leur qualité. Les utilisateurs accèdent donc à un seul et même socle de données, ce qui facilite le partage d’informations et évite de générer des surcoûts liés à l’intégration. La mise en place d’une telle solution contribue également à ce que la DSI ne soit plus perçue comme un frein par les utilisateurs, mais comme un vecteur d’innovation.
Les bénéfices de la « data visualization » d’entreprise | ||
Pour les utilisateurs | Pour la DSI | Pour l’entreprise |
|
|
|
Source : Digitalonomics. |