L’apport des technologies de l’information à la performance des entreprises

Dans nos organisations et nos entreprises, il n’est plus question que de performance. La crise a favorisé cette propagation. Il est devenu indispensable aujourd’hui « d’être performant ». Mais que recouvre ce terme ? S’il faut être performant, comment faire pour atteindre et maintenir de hauts niveaux de performance ?

Deux disciplines tendent à apporter une réponse aux questions relatives à la performance des entreprises et des organisations. D’une part, les concepts venant du monde de la qualité apportent des méthodes et outils et visent la performance « sur le terrain ». D’autre part, les technologies de l’information offrent des possibilités inconcevables il y a encore quelques années. Pourtant, ces domaines ne communiquent que très peu alors qu’il pourrait y avoir de nombreux apports mutuels. Ces deux disciplines sont complémentaires.

Il y a encore quelques années, pour connaître la signification d’un mot, on utilisait un dictionnaire. Le Robert donne la définition suivante du mot performance : « Résultat obtenu par un cheval de course, un athlète, dans une compétition. » Cette définition est assez intéressante, puisqu’elle semble renvoyer immédiatement au sport individuel (un cheval, un athlète), à l’effort (résultat obtenu, compétition) et explique implicitement qu’il « faut » être le premier, sinon, parmi les meilleurs, pour « monter sur le podium ».

De nos jours, on utilise plus facilement Internet pour trouver la signification d’un mot. Le site Wikipedia nous donne une définition différente de la performance, appliquée à l’univers de l’entreprise : « Dans le domaine de la gestion, la performance est le résultat ultime de l’ensemble des efforts d’une entreprise ou d’une organisation. Ces efforts consistent à faire les bonnes choses, de la bonne façon, rapidement, au bon moment, au moindre coût, pour produire les bons résultats répondant aux besoins et aux attentes des clients et plus généralement des parties prenantes de l’entreprise et atteindre les objectifs fixés par l’organisation. » Cette définition est beaucoup plus proche de ce que beaucoup d’acteurs vivent au quotidien dans leurs entreprises, mais surtout elle apparaît beaucoup plus large. Au regard de cette définition, il semble cependant assez difficile d’être « performant ».

Comment nos entreprises ont-elles traité la nécessité de performance ? Une première réponse, apparemment simple, peut-être formulée : elles se sont organisées. Il est devenu assez rare aujourd’hui de rencontrer des dirigeants ou des acteurs de l’entreprise qui ne parlent pas de processus (caractérisés par des entrées et des sorties, des responsables, voire des pilotes d’activité(s), des procédures documentées, etc…).

Les systèmes d’information, les consultants, les éditeurs de progiciels (de ERP et de BPM en tête), les auditeurs, les certificateurs… nous ont appris depuis longtemps qu’il est nécessaire de mettre en œuvre des processus clairs pour pouvoir exécuter nos activités productives. De ce fait, la performance est le plus souvent assimilée au respect des procédures même si chacune des parties prenantes de l’entreprise « sent » bien que c’est insuffisant.

Que nous enseigne la qualité ?

Les concepts liés à la qualités englobent depuis longtemps les questions sur ce qui fait la performance ou la contre-performance d’une activité. Plusieurs termes issus de ce domaine s’y réfèrent, notamment dans les démarches de type « Lean 6 Sigma ». Une première notion apparaît avec le concept de « VOC » ou « Voice of the Customer ». Si le client final d’un processus était avec nous dans la salle, que dirait-il ? Estimerait-il que le processus, le produit ou, le service délivré, répondent au niveau de qualité attendu ? Accepterait-il le résultat que l’organisation a produit ou le refuserait-il ?

L’attente du client apparaît comme une demande de satisfaction en termes d’efficacité par rapport à ses besoins. Ainsi, un deuxième terme émerge, par contraste, celui de « VOB » ou « Voice of the Business ». Il représente l’intérêt de l’entreprise pour elle-même. écouter le client et seulement le client pourrait en effet amener à des dérives, car le client est intéressé en premier lieu, et à juste titre, par le résultat du processus, par son prix notamment, mais certainement pas par son coût.

La VOB vise donc à rappeler qu’une entreprise, quelle qu’elle soit, doit produire un résultat financier, sinon elle ne peut survivre. La prise en compte de la VOB permet donc d’ajouter comme critères de performance des notions sans doute plus « productivistes », comme celle de l’efficience industrielle, mais qui correspondent à une réalité concrète. Sommes-nous rentables ? Avons-nous dû mettre au rebut des pièces défectueuses pour en produire une bonne ? Notre processus est-il industrialisé ? Peut-il être étendu ? La VOB s’intéresse donc à l’efficience, c’est-à-dire à l’efficacité sous contraintes.

Enfin, toute démarche Qualité s’appuie sur la mesure. La notion d’éléments « CTQ » ou « Critical To Quality » permet alors de définir précisément si le résultat de l’activité (produit ou service) respecte les critères fondamentaux qui font que le client (VOC) et le business (VOB) considèreront le résultat obtenu comme « de qualité ». Sur une commande, on définira par exemple que la quantité (le nombre d’articles), la référence d’un produit et la date de livraison souhaitée déterminent la qualité. En cas d’erreur sur l’un de ces trois critères, le processus de prise de commande n’aura pas suffisamment bien fonctionné (non-qualité).

Une fois définis les concepts liés à la performance, les démarches de type management de la qualité nous apportent un éclairage supplémentaire en essayant de répondre à la question « comment être encore meilleur ? ». Pour cela, il existe principalement deux approches (voir figure ci-dessus) : l’amélioration continue ou par « petits pas » et l’amélioration par percée ou par « rupture ».

Les deux approches de l’amélioration de la performance

L’amélioration continue vise à corriger les erreurs et les incidents au fur et à mesure de leur apparition, et même, idéalement, avant l’incident. Il s’agit dans cette approche d’appliquer des méthodes d’analyse et de correction concrètes, sur le terrain, et d’améliorer les choses par « petites touches ». Face à un défaut, il convient en effet d’appliquer des méthodes (diagrammes d’Ishikawa ou de Pareto, « 5 Pourquoi ») pour rechercher la cause « racine » afin de traiter le problème et non le symptôme. Une fois la cause identifiée, la démarche qualité peut pleinement être appliquée afin de mettre en œuvre un cycle d’amélioration.

Une des approches les plus emblématiques de l’amélioration continue est la méthode « PDCA » dite « Roue de Deming », approche organisée en quatre étapes : plan, soit « définir ce qui doit être fait », do, soit « mettre en œuvre les changements », check, soit « vérifier que les résultats sont atteints », act, soit déployer la solution, la généraliser.

À l’inverse du premier type d’approche, les démarches d’amélioration par percée visent à mobiliser des équipes sur un problème précis, clairement identifié, afin d’y apporter le plus rapidement possible des solutions efficaces, qui ont pour objectif d’améliorer drastiquement la performance. Il s’agit donc, ici aussi, d’analyser les problèmes et les dysfonctionnements, d’écouter le « terrain » et d’apporter des améliorations, mais cette fois, cela se fait par l’intermédiaire d’un « projet » dédié, d’une mobilisation des ressources qui se focalisent dans la même direction.

Parmi les démarches d’amélioration par percée, la plus connue est la méthode Lean 6 Sigma, qui, comme son nom l’indique, conjugue les apports du lean (hérité du Toyota Production System) et ceux du 6 Sigma (appliqué par Motorola, puis par General Electric). Rappelons que le lean peut être assimilé à la « chasse aux gaspillages ». Il s’agit de réduire les temps de cycle, les tâches à faible valeur ajoutée, pour augmenter la productivité des facteurs. Cette méthode est fondée sur l’analyse et la modélisation d’un processus ou d’une activité et vise l’amélioration de la moyenne.

L’approche 6 Sigma se concentre sur la variabilité. Il s’agit de fiabiliser et d’industrialiser les processus afin de réduire le risque de non-conformité et la dispersion. Cette analyse se fait sur la mesure et l’observation du terrain. Ce sont alors les analyses statistiques sur les informations collectées qui remplacent la modélisation des processus, afin de corréler les causes probables et les conséquences. La démarche Lean 6 Sigma se veut rapide et « contrainte » dans le temps.

Que nous enseignent ces différentes approches ? Elles apparaissent différentes, tant par l’approche (à chaud ou à froid), que par leur « angle d’attaque » (statistiques, modélisation, incidents), mais nous pouvons relever plusieurs points communs :

  • l’importance donnée aux faits, à la mesure et à l’observation terrain ;
  • la focalisation sur l’atteinte d’objectifs et sur la satisfaction du client tant interne qu’externe qui fondent la performance ; l’importance accordée à la norme, aux procédures, aux outils et à la capitalisation ; le fait que les diverses méthodes soit ancrées dans la culture d’entreprise.

Fondamentalement, ces approches partagent un constat que l’on retrouve également dans le référentiel Itil par exemple : les incidents existent, et la perfection n’est pas de ce monde. Quel que soit l’effort consacré à « normaliser » l’activité, à définir les processus et les procédures, il reste inévitablement des incidents, des aléas et des risques. Dès lors se pose la question de savoir comment devenir et comment rester performant ?

Face aux incidents et dysfonctionnements, au contexte changeant et à la concurrence, ce qui constitue la performance, c’est avant tout la capacité d’une organisation à réagir et à s’adapter. Il semble donc nécessaire de s’ajuster en permanence en appliquant au quotidien les concepts qualité. Pour prendre une décision susceptible de produire l’adaptation par les ajustements que nous venons d’évoquer, il apparaît vital de comprendre la situation, c’est-à-dire d’avoir les bonnes informations, de disposer de données et de faits. L’enjeu est alors de « comprendre pour agir », c’est-à-dire d’être en situation d’opérer au plus vite avec les informations pertinentes. Nous pouvons ainsi qualifier une organisation qui serait toujours performante, toujours « au top », d’organisation de l’excellence au sens où elle vise l’objectif d’atteindre « le meilleur possible » tout le temps. Aujourd’hui certaines technologies de l’information donnent les moyens d’une telle performance.

Quel apport des technologies de l’information ?

Les démarches et méthodes qualité issues des pratiques managériales des années 1950 restent toujours d’actualité. Elles le sont tout particulièrement dans les périodes de crise ou de compétition accrue que nous connaissons aujourd’hui, où la performance d’une organisation devient une nécessité incontournable. Une des différences majeures de la période actuelle, et ce n’est bien sûr pas la seule, réside dans le rôle prépondérant affiché par les technologies de l’information. D’une part, elles poussent de plus en plus vers l’instantanéité et, d’autre part, elles rendent possible ce qui pouvait auparavant paraître impossible. Pour illustrer nos propos, nous nous focaliserons sur Internet, la BI, le BAM et les SBA.

Internet : l’instantanéité et ses effets pervers

Les usages d’Internet ont fait de l’instantanéité la règle. Sans même se référer aux réseaux sociaux, il semble évident que de plus en plus, à tout instant, le client veut pouvoir disposer d’informations sur le service qui lui est rendu : où en sont mes commandes ? où en est l’exécution de mes paiements, etc.

De même, tout « incident » ou dysfonctionnement peut très vite avoir des conséquences très graves en termes d’image, de e-réputation ou de communication institutionnelle. On le voit par exemple avec différents exemples d’incidents de traitement dans le monde bancaire, relayés par les médias, et, bien sûr, de pertes financières. Très rapidement, la moindre faute se propage et il est nécessaire d’être en mesure de fournir des informations très régulièrement, voire de façon immédiate aux clients.

Business Intelligence : une démocratisation de l’exploitation des données

Les évolutions technologiques de ces dernières années ont mis la « donnée » au centre des préoccupations. Il est désormais possible d’aller chercher les informations plus facilement, là où elles sont disponibles, avec davantage de simplification et de standardisation, d’analyser et de corréler les informations entre elles, et de traiter de grands volumes de données. Même si le concept de big data est encore balbutiant, et le plus souvent vu sous l’angle « technologique » et non pas sous l’angle « métier ».

Si l’on observe les développements de ces dernières années, on pense tout naturellement au domaine de la Business Intelligence (BI) qui connaît depuis deux décennies des taux de croissance soutenus. Ces outils répondent à un besoin de traçabilité, de compréhension et de visibilité qui relèvent le plus souvent d’une volonté de pouvoir tout contrôler (a posteriori), de pouvoir tout expliquer, et il faut bien le dire, parfois, de vouloir tout justifier.

Le positionnement des outils de BI a toutefois fortement évolué ces dernières années, grâce notamment aux acteurs de niche qui, pour se différencier des acteurs dominants du marché, jouent sur des aspects nouveaux : plus grande liberté accordée à l’utilisateur (ce qui responsabilise sans doute les opérationnels), intégration d’outils collaboratifs dans les rapports (commentaires, chats, voire conférences Web), orientation vers le temps réel ou, au contraire, vers de la simulation, réduction du délai de mise en œuvre et du Total Cost of Ownership (TCO)…

Tous ces aspects montrent que la BI est aujourd’hui la discipline qui démocratise l’exploitation de la donnée et qui, par bien des aspects, contribue à sensibiliser les organisations et leurs directions à l’intérêt de son traitement. En ce sens, la BI s’inscrit dans nombre de démarches qualité fondées sur la mesure et sur l’analyse des données.

Business Activity Monitoring, réducteur de risques

Une deuxième discipline technologique gagne à s’associer à des préceptes qualité : le Business Activity Monitoring (BAM). Le BAM, moins connu que son cousin « BI », consiste à disposer de tableaux de bord temps réel où les analyses ne sont pas à la main de l’utilisateur mais au contraire prédéterminées. Les indicateurs sont calculés sur la base de règles métiers et d’après des informations collectées auprès d’autres applicatifs métiers (un moteur de paiements, une plate-forme interbancaire, un système de traitement de commandes ou de gestion de stocks).

Ils permettent de reconstituer un flux de bout en bout, à travers les silos techniques ou organisationnels, et d’assurer que le processus est efficient, en détectant les situations anormales, les goulets d’étranglement, etc. On retrouve ainsi de fortes similitudes avec les méthodes d’amélioration continue qui « prennent en charge » les incidents, dysfonctionnements ou risques afin de traiter le problème. Le BAM réduit le délai de détection, d’analyse et de résolution des problèmes, il vise dans les meilleurs des cas un temps de latence nulle, il est un fort contributeur d’une démarche de qualité continue et de prévention des risques.

Search Based Applications : de l’analyse à la corrélation de données

Les SBA (Search Based Applications) visent à apporter aux utilisateurs des façons intuitives de trouver de l’information dans le système d’information. Il s’agit alors d’appliquer des concepts tirés du Web et de les appliquer au monde de l’entreprise : la très grande majorité des internautes accèdent à Internet par l’intermédiaire d’un moteur de recherche, pourquoi dans l’entreprise cantonner cette méthode aux applicatifs métier ? L’information est de plus en plus hétérogène (de structurée à non structurée : images, flux, vidéo…) et de plus en plus volumineuse…

Mais les moteurs d’indexation et de recherche sont déjà conçus pour traiter ces cas. Les SBA permettent alors d’indexer et donc d’exploiter plus facilement les données et les informations disponibles dans et en dehors de l’entreprise. Ainsi indexées, il devient possible de corréler celles-ci, de les analyser et de les transformer en opportunités.

Ces concepts SBA très orientés big data s’inscrivent totalement dans les concepts qualité de collecte et d’analyse d’information, mais aussi dans le but ultime de la qualité : mesurer la satisfaction du client (éventuellement à travers des commentaires sur Internet…). Dès lors, ces applications contribuent fortement à la performance de l’entreprise dans la mesure où elles facilitent la collecte d’informations pertinentes, la compréhension d’une situation de gestion et la prise de décision opérationnelle. De nombreuses autres technologies s’inscrivent ainsi dans la filiation avec les méthodes qualité comme par exemple l’ERM (Enterprise Risk Management) ou encore des outils de BPM (Business Process Management ou Modelling selon les sensibilités).

Les concepts de la performance, de la qualité et de son manage­ment et ceux issus des technologies de l’information les plus récentes ne sont donc pas si éloignés. Contribuer à les relier pour améliorer leur complémentarité ne peut que les enrichir mutuellement et améliorer la performance des organisations productives.

Ces deux dimensions contribuent largement à ce qui constitue la performance d’une organisation adaptée à l’environnement économique actuel et semble-t-il de demain, c’est-à-dire sa capacité, dans un environnement aux changements rapides et constants, à appréhender son contexte le plus vite possible et à en déduire les meilleures actions. Cette capacité est devenue un atout différenciateur pour améliorer et ajuster au quotidien le fonctionnement de l’organisation et pour satisfaire ainsi un client final de plus en plus exigeant et volatil.

Les outils et la technologie d’une part, les méthodes et l’organisation d’une autre sont deux des principaux leviers qui doivent être actionnés intelligemment et de façon coordonnée. Il reste toutefois un troisième facteur de performance, primordial lui aussi, connu de tous mais encore trop souvent négligé : l’humain. Faire en sorte que les équipes opérationnelles soient formées et motivées pour être efficaces reste la condition nécessaire à la performance des organisations.

Cet article a été écrit par Daniel Alban, maître de conférences à l’Université Paris-Descartes et Andrea Zérial, associé et fondateur de Mind7 Consulting.