Lorsque l’on observe les raisons du succès des start-up, l’un des facteurs clés réside dans le fait que leur modèle de développement repose sur la création d’un algorithme qui permet de réussir des tâches quasiment impossibles à réaliser pour un être humain.
C’est la supériorité de la machine sur l’homme et on voit émerger des modèles très performants, par exemple dans le domaine du Big Data. De là à conclure qu’il faut remplacer la prise de décision par des machines qui seraient expertes en analyse prédictive…
L’actualité récente, avec le crash de l’Airbus dans les Alpes, a réactivé le débat entre, d’un côté, ceux qui plaident pour une nouvelle avancée dans les automatismes et la finesse des algorithmes prédictifs (jusqu’à prendre le contrôle d’un appareil à distance et mieux anticiper les dysfonctionnements) et, de l’autre, ceux qui estiment que rien ne peut remplacer l’intervention humaine dans les processus complexes. On s’en doute, la vérité est probablement entre les deux.
Dans tous les cas, c’est une question de confiance. Faut-il craindre les bugs ou la folie humaine ? Pour l’Airbus de GermanWings, il est probable qu’un automatisme aurait pu redresser l’appareil, même si le co-pilote aurait probablement eu des moyens de saboter l’intelligence artificielle. L’un des effets collatéraux est qu’attribuer une trop grande confiance aux automatismes diminue la vigilance, c’est ce qui a été constaté dans une étude américaine de la FAA (Federal Aviation Administration), l’équivalent de notre DGAC, publiée fin 2013.
Cette étude a analysé les accidents d’avions entre 1996 et 2009 et a conclu que les pilotes, du fait de leur formation, seraient relativement incompatibles avec la manière dont sont construits et conçus les avions d’aujourd’hui. Ils auraient tendance à privilégier systématiquement le mode automatique par rapport au mode manuel, ce qui est souvent fatal en cas d’événements imprévus…