Passer à la Business Intelligence agile en maîtrisant les risques

Depuis quelques années, plusieurs évolutions modifient en profondeur le marché de la Business Intelligence.

Le développement des capteurs et des objets connectés, le succès des réseaux sociaux comme Facebook ou Twitter et la numérisation croissante des différents processus de l’entreprise multiplient les sources de données potentiellement exploitables. Ce phénomène du « big data » crée de nouveaux besoins, tant en termes d’analyse que de performances.

Les entreprises souhaitant exploiter ces nouveaux gisements de données, souvent non-structurées, doivent ainsi être en mesure d’effectuer des analyses textuelles ou statistiques poussées sur des volumes sans cesse en hausse. Pour cela il faut concilier une bonne connaissance du métier et de ses données, une certaine maîtrise des analyses statistiques et une aisance avec les outils informatiques : trois capacités qui décrivent un profil émergent et de plus en plus recherché, celui de « data scientist ».

Face à ces données de plus en plus volumineuses, hétérogènes et complexes, des façons plus intuitives de les lire et de les analyser se développent. Ainsi, la restitution des analyses passe de plus en plus par des représentations graphiques très visuelles et interactives, un ensemble de fonctionnalités regroupées sous le terme de visualisation de données.

Il devient ainsi bien plus aisé de donner rapidement du sens à de très gros volumes de données, là où lire des milliers de lignes sur un tableau dépassait les capacités humaines et ne permettait pas de faire ressortir quoi que ce soit. Ces capacités jouent également un rôle important dans la démocratisation des applications décisionnelles, comme le montrent les chiffres observés par le cabinet d’analyste Aberdeen Group.

La visualisation de données décolle actuellement à cause de deux tendances. La première : les big datas sont là, elles doivent être analysées et l’une des meilleures façons de leur donner du sens passe par les représentations visuelles. La seconde : les outils pour créer de bonnes représentations visuelles de données se démocratisent, ce qui crée une communauté grandissante de programmeurs, designers et statisticiens qui peuvent mettre en application leur intuition et leurs capacités d’analyse pour créer des histoires visuelles pleines de sens.

De nouvelles façons de consommer les applications analytiques

Dans le même temps, les entreprises ont vu évoluer leurs pratiques et leurs façon de consommer les applications décisionnelles. Ces changements ont pour point commun d’être poussés par une forte demande d’agilité et de réactivité émanant des utilisateurs.

Ainsi, les solutions traditionnelles mises en place dans les entreprises dans les années 2000 sont un peu délaissées. Celles-ci sont pénalisées en premier lieu par des délais souvent très longs pour la production de nouveaux rapports, liés notamment au fait qu’il faut passer par les équipes informatiques pour chaque modification.

Ainsi, les analystes d’Aberdeen ont constaté qu’il fallait en moyenne 143 jours pour satisfaire une nouvelle demande de reporting, une durée incompatible avec les exigences de métiers sommés d’être toujours plus réactifs.

Face à ces solutions jugées trop « statiques », de nouveaux entrants ont fait leur apparition avec des offres plus agiles, qui misent sur l’autonomie apportée aux utilisateurs. Dans une enquête menée par les analystes d’Aberdeen Group en mai 2013, les trois premières raisons citées pour l’adoption de ces solutions agiles étaient les suivantes : une demande d’information en hausse ou en évolution (51%), un nombre croissant de sources de données (39%) et un besoin de plus en plus fort de prendre des décisions en tous lieux et à tous moments (34%).

Ces solutions se distinguent notamment par leur caractère intuitif, permettant une manipulation fluide des données grâce à des fonctionnalités de visualisation avancées. Elles proposent une approche en libre-service, souvent associée à un accès en mode cloud.

Enfin, elles ne nécessitent pas de construire au préalable des cubes, entrepôts de données ou univers intermédiaires, et de ce fait il est fréquent que les utilisateurs aillent chercher directement les données dans les bases opérationnelles.

Ces solutions ont séduit les métiers, de plus en plus friands d’informations à la demande et d’analyses sur mesure. Ces besoins sont tels que de plus en plus de décisions d’achats informatiques sont prises directement par les opérationnels, parfois même en contournant la DSI.

Des solutions dites « départementales » sont aujourd’hui fréquemment mises en place par le marketing, les ressources humaines, les équipes commerciales ou les opérationnels afin qu’ils puissent chacun mener leurs propres analyses au moment où ils en ont besoin, sans dépendre d’un tiers.

Enfin, la demande de mobilité pour les applications décisionnelles est également en hausse. Avec le développement des tablettes, les employés sont de plus en plus nombreux à vouloir accéder à leurs données lors de leurs déplacements hors de l’entreprise. Il faut cependant que ces données soient de la même qualité et toutes aussi sécurisées que si elles étaient consultées en interne.

Une « shadow BI » non sans risques et surcoûts

Si ces évolutions ont permis d’apporter davantage d’agilité aux métiers, palliant certains défauts reprochés aux systèmes décisionnels classiques, elles posent cependant d’autres problèmes.

En effet, si ces projets sortent du périmètre de la DSI, il est fréquent que plusieurs solutions soient mises en œuvre en parallèle, entraînant la réapparition de silos qui ne communiquent plus, ou mal.

Ce type de situation peut rapidement générer des surcoûts pour la DSI, même quand l’achat des logiciels n’est pas rattaché à son budget : en effet, bien souvent celle-ci doit intervenir en aval, mobilisant des ressources sur des tâches d’intégration, de test ou de nettoyage de données qui n’étaient pas prévues. Elle se retrouve donc de fait dans une situation où elle subit des dépenses qu’elle n’a pas engagées.

Le fait de court-circuiter la DSI pour la mise en place entraîne également une perte de contrôle, avec l’apparition d’environnements informatiques en dehors des cadres de gouvernance et de sécurité mis en place dans l’entreprise, parfois qualifiés d’informatique de l’ombre ou de « shadow IT ». Pour l’entreprise, cela peut créer de nouveaux risques en terme de sécurité et de confidentialité des données, en particulier dans le cas de solutions cloud et mobiles ; mais aussi rendre la montée en capacité complexe et coûteuse si jamais le nombre d’utilisateurs s’accroît.

Enfin, la prolifération non-contrôlée d’outils BI a tendance à compliquer une collaboration pourtant de plus en plus essentielle entre les métiers, la DSI et les « data scientists ».

Aujourd’hui, un grand nombre d’organisations possèdent donc deux grands types d’outils décisionnels, chacun avec ses limites : d’un côté des systèmes « legacy » en place depuis plusieurs années, robustes et centralisées mais trop rigides pour répondre aux nouveaux besoins des métiers ; de l’autre des solutions départementales souples, en self-service mais déployées de manière morcelée et sans contrôle, au risque de recréer des silos.

Il existe pourtant une troisième voie permettant de combiner les atouts des deux types de solutions : la mise en place d’une solution de data visualisation d’entreprise.

Concilier l’agilité, la performance et la gouvernance

La visualisation de données à l’échelle de l’entreprise a pour objectif d’offrir aux utilisateurs l’autonomie et l’agilité qu’ils recherchent sans pour autant sacrifier la gouvernance des données et la sécurité. Pour cela, les utilisateurs disposent d’une interface intuitive leur permettant de mener eux-mêmes leurs analyses, de collaborer avec leurs collègues et de profiter de tout un ensemble de représentations graphiques.

De leur côté, les données restent gérées par la DSI de manière centralisée. Celle-ci peut ainsi les contrôler, les sécuriser et s’assurer de leur qualité. Les utilisateurs accèdent donc à un seul et même socle de données, ce qui facilite le partage d’information et évite de générer des surcoûts liés à l’intégration.

La mise en place d’une telle solution contribue également à ce que la DSI ne soit plus perçue comme un frein par les utilisateurs, mais comme un vecteur d’innovation.