Intelligence artificielle : toujours une question d’éthique

La problématique de l’éthique dans l’intelligence artificielle fait l’objet de nombreux débats, notamment sur les questions de surveillance, de discrimination et vis-à-vis de son degré d’autonomie pour les prises de décisions (par exemple avec les véhicules autonomes).

Cette question d’éthique concerne tous les secteurs. « L’un des défis des années à venir consistera donc à définir et à enseigner des valeurs aux IA », rappellent les auteurs d’une étude de l’IFRI (Institut Français des Relations Internationales). En avril 2021, la Commission européenne a publié un projet de règlement sur l’IA et entend devenir le pôle mondial d’une IA « centrée sur l’humain, durable, sûre, inclusive et digne de confiance », de manière à se différencier en proposant une IA qui inspire davantage confiance que celle de ses voisins.

Les enjeux sont en effet très importants : d’après une étude du CapGemini Research Institute, 62 % des consommateurs feraient davantage confiance à une entreprise dont l’utilisation de l’IA est considérée éthique et neuf dirigeants sur dix estiment que des problèmes d’ordre éthique ont résulté de l’utilisation de l’IA au cours des trois dernières années. Les entreprises intègrent de plus en plus cette problématique : 18 % des entreprises européennes ont nommé un responsable de l’éthique en matière d’intelligence artificielle, d’après le cabinet IDC. D’autant que, selon les consommateurs, en cas de dysfonctionnement d’applications basées sur l’intelligence artificielle, c’est d’abord l’entreprise qui l’a mise en œuvre qui sera jugée responsable (pour 41 % des consommateurs américains), devant le concepteur de l’algorithme (26 %), l’algorithme lui-même (7 %) les pouvoirs publics (1 %), d’après une étude de Gartner.

« Il faut se poser non pas la question de ce que l’IA peut faire, mais ce qu’elle doit faire. Faire de l’IA pour de l’IA n’est pas pertinent, il faut toujours élaborer une étude d’impact pour le concept que l’on veut modéliser. Cette phase de prise de recul et de hauteur est cruciale, c’est la contextualisation qui crée de la valeur », explique Jean-Baptiste Bouzige, CEO d’Ekimetrics, société spécialisée en Data Science. Pour Eric Hazan, directeur associé senior chez Mc Kinsey, « toutes les technologies ont des externalités positives (par exemple la croissance, la création de valeur…) et négatives (par exemple les biais dans l’analyse des données), il en est de même avec l’intelligence artificielle. »

Selon la dernière étude de McKinsey, publiée en décembre 2021, les entreprises sont de plus en plus sensibilisées aux différents biais liés à l’intelligence artificielle : quatre entreprises sur dix modifient leurs algorithmes si des biais sont détectés et les vérifient régulièrement. Et une entreprise sur trois dispose de mécanismes spécifiques pour identifier les biais des algorithmes. « Les algorithmes doivent être interprétables de manière à savoir pourquoi on prend telle décision », soutient Jean-Baptiste Bouzige, CEO d’Ekimetrics.

Pour Mathieu Ovaert, Chief Digital Officer chez Nestlé, « l’intelligence artificielle doit être explicable, de même que les décisions, elle doit être « à hauteur d’homme » et, d’ailleurs, je préfère parler d’intelligence augmentée plutôt que d’intelligence artificielle. » Chez Nestlé, environ quarante cas d’usages liés à l’IA sont opérationnels « mais aucun n’est en mode presse bouton. »

En effet, si les données ne sont pas fiables, les résultats sont désastreux. Mathieu Ovaert, qui se fait accompagner par Ekimétrics, conseille de commencer par « un travail de plombier », pour intégrer des données existantes en silos vers un Data Lake. « Ce n’est certes pas très valorisant, mais nous n’avons pas commencé par des chantiers nobles. » Parmi les premières initiatives chez Nestlé : l’amélioration des tableaux de bord. « Nous avons élaboré des tableaux de bord simples avec des données fiables et cela crée beaucoup de valeur. »

Ensuite, Nestlé a lancé un chantier d’amélioration de ses investissements publicitaires et promotionnels. « L’idée est d’aider à la décision face à la prolifération des médias dans lesquels on peut investir et, comme nous sommes un très gros annonceur, il faut aider nos équipes à prendre les bonnes décisions. » Nestlé est pour l’instant en phase pilote sur les segments du chocolat et du café. « Ce n’est pas le système qui décide, il propose des scénarios, il faut convaincre que « homme+machine » est plus efficace que « homme » tout seul. Pour l’instant, je n’ai pas eu de débat éthique à adresser. Le consommateur attend un engagement vérifié et vérifiable », estime Mathieu Ovaert. Autre projet dans les cartons chez Nestlé : utiliser l’IA pour optimiser le remplissage des camions. « Il faut toujours éduquer, borner et paramétrer les algorithmes », conclut-il.

Pour concevoir et déployer une IA robuste sur le plan éthique, une étude du Capgemini Research Institute recommande sept bonnes pratiques :

  • Indiquer clairement l’objectif visé par les systèmes IA et leur impact potentiel.
  • Déployer une IA qui soit pensée proactivement au service de la société et de l’environnement.
  • Intégrer d’office des critères de diversité et d’inclusion tout au long du cycle de vie des systèmes IA.
  • Renforcer la transparence au moyen d’outils technologiques.
  • Rendre l’expérience IA plus humaine et s’assurer que les systèmes IA sont contrôlés par l’humain.
  • Garantir la robustesse technologique des systèmes IA.
  • Protéger la vie privée des utilisateurs en leur donnant plus de pouvoir en terme de contrôle des interactions IA.