Comment gérer le droit à l’erreur

Commettre des erreurs fait partie de la nature humaine. La gestion de projet n’échappe pas à la faillibilité des individus. Mais comprendre comment l’erreur naît permet de s’améliorer. En principe…

« Dans notre imagination collective, l’erreur est associée à la honte, à la stupidité, à l’ignorance, voire à la psychopathologie ou à le dégénérescence morale », explique Kathryn Schulz, l’auteur de Being Wrong. Heureusement, au-delà des apparences, l’auteur relativise cette vision négative : « Loin d’être synonyme d’infériorité intellectuelle, la capacité de se tromper est indissociable des capacités cognitives de l’individu. Loin d’être un biais moral, l’erreur est indissociable de nos autres qualités : l’empathie, l’optimisme, l’imagination, la conviction le courage. Et loin d’être une marque d’indifférence ou d’intolérance, l’erreur est un élément vital de nos capacités à apprendre et changer. »

L’erreur revient à considérer quelque chose de faux comme vrai. Cela suppose qu’il existe une vérité absolue, à l’aune de laquelle on va pouvoir mesurer l’étendue de l’erreur. « Or, précise l’auteur, il n‘est pas toujours possible de trouver des « standards de vérité » ». Ce qui n’empêche pas les individus d’agir, dans le vrai ou dans l’erreur, comme s’il existait une vérité absolue. L’idée qu’il serait bon d’éradiquer toutes les erreurs (par l’innovation technologique par exemple) fait partie de l’imaginaire collectif, avec une injonction pour les éliminer.

Le problème, souligne l’auteur, est que la mise en pratique de ce principe se heurte à deux difficultés majeures. Cela suppose, d’abord, que l’on sache identifier où se trouve l’erreur et où se trouve la vérité, donc d’être infaillible. Ensuite, vouloir éradiquer toutes les erreurs peut provoquer des dommages collatéraux et créer d’autres erreurs.

Being Wrong, Adventures in the Margin of Error, par Kathryn Schulz, Portobello Books, 2011, 405 pages.

Notre capacité à se tromper a fait l’objet de très peu d’analyses, sauf peut-être en médecine et dans l’aviation. En revanche, ironise l’auteur, « nous excellons dans l’analyse des erreurs des autres ». Nous avons également tendance à considérer que ceux qui ne sont pas d’accord avec nous sont dans l’erreur, même si on ne peut pas le prouver.

La raison la plus élémentaire de se tromper réside dans les biais liés à nos sens. L’exemple de la vidéo dans laquelle un gorille apparaît lors d’un match de handball, mais que personne ne voit car on demande au préalable aux individus de suivre la balle et de compter le nombre de fois qu’elle passe de mains en mains (voir The Monkey Business Illusion, visible sur Youtube) : entre un tiers et la moitié des personnes qui regardent la vidéo ne voient pas ce qui se passe alors que c’est évident si l’on ne se concentre pas sur ce qui est demandé ! Il existe d’ailleurs de nombreuses applications d’illusions d’optique sur les couleurs, les formes, les distances… L’auteur en déduit que l’on peut se tromper alors que le système observé peut parfaitement fonctionner.

Lorsque l’on croit que l’autre est dans l’erreur, c’est souvent le résultat de trois hypothèses. La première est « l’hypothèse de l’ignorance » : dans la mesure où nous sommes persuadés que nos croyances reposent sur des faits avérés, ceux qui ne sont pas d’accord n’ont simplement pas eu le bon niveau d’information. « Ce type de raisonnement, basé sur le fait que l’on peut faire changer les comportements en apportant les bonnes informations, est le plus répandu », assure l’auteur.

Si l’on ne parvient pas à faire évoluer les comportements, on utilise alors une deuxième hypothèse : celle de « l’idiotie de l’individu » : on admet ainsi que l’interlocuteur connaît les faits mais que son degré d’intelligence ne lui permet pas d’en saisir la signification. Troisième hypothèse présentée par l’auteur : « On admet que les individus connaissent les faits, sont capables d’en comprendre la signification, mais refusent de le faire. » Un phénomène que l’on retrouve dans les mouvements religieux ou politiques. C’est le principe de la dissonance cognitive, bien étudié par le psychologue américain Léon Festinger, qui naît d’un conflit entre deux idées contradictoires : l’individu ne veut pas accepter un fait avéré qui va à l’encontre de ses convictions profondes. On trouve notamment ce comportement dans les addictions, par exemple le tabac, lorsqu’un fumeur trouvera toujours un exemple d’un autre fumeur centenaire pour relativiser la dangerosité du produit.

De l’influence des émotions sur la compréhension des erreurs

« Notre capacité à tolérer l’erreur dépend de notre capacité à tolérer nos émotions, rappelle l’auteur. Si l’on ne peut pas effectuer un travail émotionnel pour comprendre pourquoi nous nous trompons, alors on ne peut guère réaliser un travail conceptuel pour identifier où, quand et comment nous nous sommes trompés. » Mais comment reconnaître et accepter nos erreurs ? C’est évidemment difficile. « Au lieu de reconnaître nos erreurs, nous cherchons souvent des excuses, des circonstances atténuantes, des facteurs exogènes que nous ne pouvions contrôler, souligne Kathryn Schulz. Et dans ce domaine, nous sommes particulièrement créatifs. »

Hélas, cette position défensive, si elle procure un sentiment de confort dans l’immédiat et nous protège d’émotions négatives, se révèle en fait contre-productive dès lors qu’il s’agit de comprendre pourquoi nous avons échoué et, surtout, crée des conflits entre les individus, ce qui ne participe à une saine résolution des difficultés. Ou qui donne lieu à une attitude classique : « J’ai eu tort cette année, mais vous verrez que j’aurai raison l’année prochaine ! » Ce type de réaction est typique des milieux politiques ou de la Bourse et, d’une manière générale, de tous ceux qui se targuent de prédire ce qui va se passer dans le futur et qui se positionnent en « visionnaire ».

On trouve également ceux qui aurait dû avoir raison, mais un événement impromptu est venu perturber le cours naturel des choses, ou encore ceux qui ont fait des erreurs mais qui « étaient à peu près sûr de réussir », ce que l’auteur appelle le « near-miss defense ». Autre variante : « J’allais réussir, mais c’est de votre faute si j’ai échoué. » Le problème, souligne l’auteur, est que ces arguments ne sont jamais utilisés lorsque l’on a réussi… Dès lors, comment prendre conscience de nos erreurs ? « L’un des meilleurs moyens reste la communication et l’extrapolation », assure l’auteur. En acceptant l’erreur, on se transforme, notamment en faisant de mieux en mieux la différence entre vérité et erreur.

Le principe fondamental est évidemment de reconnaître que n’importe qui est faillible. « Vous devez commencer par l’accepter et rechercher la cause des erreurs, conseille Kathryn Schulz. Ce qui est fait dans de nombreux domaines où il n’est pas question de ménager les ego des uns et des autres, mais de gérer de vraies urgences : le transport, la sécurité alimentaire, la santé, l’énergie nucléaire… Ces secteurs sont obsédés par l’erreur et imaginent tous les scénarios possibles afin de les prévenir, et mènent des analyses a posteriori des erreurs commises pour en tirer les enseignements. En considérant les erreurs comme inévitables, ces industries ont développé de meilleures capacités pour éviter les erreurs, et lorsqu’elles se produisent malgré tout, pour y répondre de façon plus efficace. »

Reste que beaucoup d’entreprises se contentent de calculer leur performance sur des moyennes, qui, en réalité, cachent les disparités qui apparaissent par exemple pour les organisations qui ont mis en place une démarche Lean Six Sigma dont l’objectif n’est pas de réduire le taux moyen de défaut, mais les écarts par rapport à la moyenne. « Par exemple, une entreprise de logistique qui a un taux de succès de 99 % et qui livre 300 000 paquets par an, en livrera 3 000 au mauvais endroit, alors que la même entreprise qui aura adopté une approche Six Sigma ne perdra qu’un seul paquet par an », note l’auteur.

Pour Kathryn Schulz, les tentatives de réduction des erreurs ont trois caractéristiques en commun. D’abord, le fait d’accepter que des erreurs sont susceptibles de se produire. Ensuite, le fait que la transparence est indispensable pour comprendre les ressorts de l’erreur, de manière à ce que toutes les parties prenantes retiennent les enseignements utiles. Enfin, il convient de se focaliser sur les faits et non sur les opinions ou des suppositions. Dans l’approche Lean Six Sigma, c’est le principe du « Management by facts ».

Kathryn Schulz conclut son analyse sur une note optimiste : « Faire des erreurs peut être amusant et, surtout, même si c’est parfois cruel, voir les autres commettre des erreurs peut être très amusant ! » L’erreur est en fait un signe d’optimisme : « Nous faisons des erreurs parce que nous croyons en nous-mêmes et sommes persuadés que nous pourrons faire mieux la prochaine fois », assure l’auteur. En matière de gestion de projets systèmes d’information, il est quand même préférable d’éviter de répéter les erreurs.

En réalité, l’erreur révèle un fond d’optimisme : « Nous faisons des erreurs parce que nous croyons en nous-mêmes. C’est pour cette raison que l’erreur est plus présente que l’espoir, dans l’esprit des individus. » Il reste à expliquer ce principe aux chefs de projets et aux dirigeants…