Intelligence artificielle : entre éthique et instabilité

Lors de la dernière conférence USI 2019, organisée par Octo Technology, Alexei Grinbaum, chercheur au CEA et auteur de l’ouvrage « Les robots et le mal », a analysé les biais des algorithmes et de l’intelligence artificielle.

Pour Alexei Grinbaum, la relation homme-machine se caractérise par deux tendances opposées. D’un côté, « l’homme projette spontanément l’humanité sur les machines, agit émotionnellement et peut même en tomber amoureux. » D’un autre côté, de façon plus rationnelle et analytique, on considère que ce n’est qu’une machine qui « n’est pas comme l’homme, et n’est pas libre parce qu’elle suit un algorithme au service d’un objectif. » Il y a, selon lui, un double mimétisme : « les machines imitent les hommes qui, eux-mêmes, imitent les machines. »

Des algorithmes trop souvent opaques

Cela pose, pour Alexei Grinbaum, la question de la responsabilité de la machine. Les machines sont-elles responsables en cas d’accident ou de conflit ? La responsabilité est « probablement partagée entre le concepteur, le développeur ou la société productrice, en fonction des traces de la chaîne causale qui a mené vers telle action ou telle décision. En fait, on projette la responsabilité sur la machine parce qu’elle est autonome. »

Pour l’utilisateur, un algorithme est presque toujours opaque, seuls les développeurs et les experts connaissent les détails. On connaît le cas de la voiture autonome : en cas d’accident, elle doit faire un choix, mais toutes les métriques sont négatives : par exemple, dans des cas très rares, choisir entre tuer une personne ou bien cinq.

Mais sur quels critères ? La voiture autonome ne peut pas ne rien faire, elle doit donc se baser sur des métriques, par exemple minimiser le nombre de personnes touchées, épargner celles dont l’espérance de vie est la plus élevée, ou les plus intelligentes, ou bien celles qui ont le plus d’amis sur Facebook…

Voiture autonome : qui sacrifier en cas d’accident ?

Dès lors, pourquoi ne pas sonder les individus pour savoir ce qu’ils en pensent, avec une forme de « démocratie technologique » ? Cela a été fait, rappelle Alexei Grinbaum. « Globalement, on peut distinguer trois régions. D’abord, le monde occidental, où l’on préfère ne rien faire ou, en tout cas, protéger la vie du plus grand nombre.

Ensuite, l’Amérique du Sud, où l’on préfère protéger les personnes avec le statut social le plus élevé. Enfin, l’Asie, où l’on préfère protéger la vie de ceux qui respectent le plus la loi. Mais il faudrait qu’une machine puisse reconnaître l’origine ethnique d’un taxi autonome ! C’est impossible… »

Pour atténuer cette difficulté, Alexei Grinbaum suggère d’introduire la notion de hasard. « Il faut recourir au hasard, à l’aléatoire, dans les algorithmes au moment, et seulement au moment, où la machine détecte un conflit dans lequel l’utilisateur est impliqué. C’est à la fonction du hasard, dans la conception des algorithmes, de soustraire la machine à ce jugement éthique qu’on projette trop vite spontanément sur elle.

La difficulté tient donc dans la capacité d’un robot à déterminer et séparer le bien du mal, qui sont des valeurs qui ne sont pas les siennes, qu’il ne comprend pas. » Heureusement, les cas de dilemmes que doivent gérer les intelligences artificielles seraient très rares : « entre 10-6 et 10-7 », rassure le chercheur.

L’instabilité du mécanisme d’apprentissage

Malgré tout, plusieurs sources de tensions et de conflits apparaissent avec les algorithmes. Selon Alexei Grinbaum, cinq facteurs principaux les provoquent : la spécificité du problème à traiter, la difficulté de la formation, l’apprentissage sans compréhension, l’instabilité de cet apprentissage avec le temps et la difficulté de tout vérifier.

Pour lui, « l’apprentissage d’une machine n’est pas stable. En Chine, l’expérience a été faite, par inadvertance : si quelqu’un qui se promène dans la rue avec un panneau représentant le visage d’un dirigeant, la machine va déterminer automatiquement que la personne qui traverse la rue au feu rouge est le Président de la République, parce qu’elle n’a pas reconnu que ce n’était pas un être humain, mais juste un panneau. Les biais dans les données sont partout. »

De même, la spécification d’un problème est très difficile : « Si vous voulez apprendre à une machine à respecter les humains, vous devrez, au préalable, lui apprendre ce qu’est un humain et c’est très compliqué. » L’enjeu, pour Alexei Grinbaum, n’est pas « de savoir comment rendre l’intelligence artificielle bienveillante, mais de faire en sorte qu’elle ne se substitue pas à l’homme en tant qu’agent moral. »