Intelligence artificielle : interrogations sur l’emploi, inquiétudes sur les biais

Les consommateurs utilisent déjà largement l’intelligence artificielle, par exemple, selon Gartner, 60 % recourent à des assistants de navigation (Google Maps, Waze…), 45 % acceptent l’écriture prédictive dans un message et 35 % utilisent des assistants virtuels.

Pour Helen Poitevin, analyste chez Gartner (1), l’impact de l’IA sur la population active sera significatif, dans la mesure où, dans les pays de l’OCDE, 14 % des tâches sont automatisables à plus de 70 % (cela concerne 66 millions d’actifs), 32 % des tâches sont automatisables entre 50 et 70 % et 54 % le sont pour moins de 50 %. Mais, globalement, l’IA devrait être une source de création nette d’emplois : en 2020 (année pivot où les destructions et les créations d’emplois s’équilibrent), elle en suscitera 2,3 millions pour n’en détruire « que » 1,8 million.

Gartner note des différences de perception selon que les entreprises utilisent ou non l’IA. Dans ces dernières, 77 % des salariés estiment que l’IA détruira des emplois, pour 23 % qui pensent le contraire. Mais dans les entreprises qui utilisent l’IA, seulement 16 % des salariés affirment qu’elle détruira des emplois, 57 % qu’il n’y aura aucun changement et 26 % qu’elle créera des emplois. « Ce sont les plus jeunes qui acceptent plus volontiers les usages de l’IA », note Helen Poitevin, qui suggère aux entreprises d’investir dans « la dextérité digitale en étant transparentes sur les usages et l’éthique. »

Un impact globalement positif sur l’emploi

Pour Annette Zimmermann, analyste chez Gartner (2), l’adoption de l’intelligence artificielle et du Machine Learning se heurte toutefois à des obstacles dans trois domaines : les compétences, la compréhension des bénéfices et des usages, et le management des données. Les entreprises mettent en œuvre l’IA pour quatre usages : automatiser les tâches répétitives (66 % des entreprises), améliorer l’expérience client (63 %), réduire les coûts (47 %) et gérer les tâches complexes (40 %).

Adoptant un point de vue macro-économique, l’Insee a publié une étude réalisée par des économistes du Collège de France (Philippe Aghion), de l’OFCE (Céline Antonin) et de l’Ecole d’économie de Paris (Simon Bunel), portant sur l’intelligence artificielle, la croissance et l’emploi (3). Pour les auteurs de l’étude, « l’intelligence artificielle désigne généralement la capacité d’une machine à imiter le comportement humain intelligent. Elle peut être considérée comme la dernière forme d’automatisation, la quatrième des révolutions technologiques depuis celle de la machine à vapeur au XVIIIe siècle. »

L’IA stimule la croissance… en théorie

Que peut-on dire, actuellement, des effets de l’IA et de l’automatisation sur la croissance et l’emploi ? Les économistes estiment que l’IA peut stimuler la croissance en remplaçant la main-d’œuvre, ressource limitée, par du capital, ressource non limitée. L’intuition de base est que si l’automatisation réduit les coûts du travail, cela encourage l’innovation visant à créer des tâches nouvelles et plus complexes, qui utilisent de la main-d’œuvre bon marché.

Mais pourquoi constate-t-on un ralentissement de la croissance de la productivité au cours de la dernière décennie, et non une explosion de la croissance dans les pays développés, alors que l’automatisation et l’IA affectent une part croissante des activités ? « Nous soutenons que c’est à cause de l’hétérogénéité des entreprises et notamment de l’expansion des firmes « superstars », qui inhibe l’innovation dans les autres entreprises. Ainsi, les TIC et l’IA ont aidé certaines « superstars » à se déployer sur davantage de secteurs ou de régions, faisant ensuite obstacle à l’accès et/ou à l’innovation des autres entreprises. L’enjeu est donc de repenser la politique concurrentielle », expliquent les économistes.

Concernant l’effet de l’automatisation, le consensus académique a évolué vers une vision selon laquelle l’automatisation des tâches routinières accroît la demande des entreprises en faveur des qualifications que ne possèdent pas les machines. Des travaux empiriques récents montrent en effet que l’automatisation a fait naître davantage d’emplois hautement qualifiés, complémentaires des machines, et faiblement qualifiés à bas coût, pour lesquels le remplacement par la machine n’est pas rentable. Ils ont aussi montré une forte corrélation négative entre les salaires ou le niveau d’études et la probabilité d’informatisation. Concernant l’impact spécifique des robots sur l’emploi, les constats sont mitigés selon que l’on regarde l’emploi total ou l’emploi industriel.

Pour les économistes, « il faut aussi démêler l’effet propre de l’automatisation de celui de la localisation (et délocalisation) d’activités. Par exemple, les résultats pour les États-Unis sont très liés à ce qui s’est passé spécifiquement dans l’industrie automobile. »

Pour la France, en mesurant l’effet de l’exposition aux robots sur les marchés du travail locaux, l’analyse empirique de l’Insee montre que la robotisation réduit l’emploi global au niveau des zones d’emploi. Ainsi, les trois économistes estiment, qu’au niveau des zones d’emploi, l’installation d’un robot supplémentaire a conduit à une suppression de dix emplois au cours de la période 1994‑2014. Ils montrent également que l’exposition à la robotisation pénalise davantage les travailleurs ayant un faible niveau d’éducation que ceux ayant un fort niveau d’éducation. «

Ce constat suggère que des politiques inadaptées, en matière de marché du travail et d’éducation, réduisent l’impact positif que l’IA et l’automatisation pourraient avoir sur l’emploi » concluent les économistes, pour qui « les politiques jouent donc un rôle essentiel : d’une part, l’IA peut inhiber la croissance si elle est associée à une politique concurrentielle inadaptée. D’autre part, des politiques du marché du travail ou d’éducation inadaptées pourraient réduire l’impact positif de l’IA et de l’automatisation sur l’emploi. »


(1) Talent futures : how AI will impact jobs and your workforce, Gartner Symposium 2019.
(2) The present and future of artificial intelligence, Gartner Symposium 2019.
(3) « Intelligence artificielle, croissance et emploi : le rôle des politiques », Économie & Statistique, n° 510-511-512, Insee, décembre 2019.


Quels sont les quatre métiers IT qui vont disparaître

Avec l’intelligence artificielle, associée à DevOps, quatre métiers sont menacés, selon The Enterprisers Project :

  • Le manager de projet, parce que les méthodes agiles rendent son rôle beaucoup moins crucial, au profit de la responsabilité directe des équipes.
  • Le codeur pur, au profit de développeurs capables de résoudre des problèmes complexes et de poser un regard critique sur les applications.
  • Le testeur d’assurance qualité, non pas que cette fonction ne soit plus indispensable, elle le sera de plus en plus, mais elle ne s’effectuera plus de manière manuelle.
  • L’administrateur système, du fait de l’engouement sur le cloud qui nécessite moins de compétences en matière de serveurs, de gestion de configuration et de maintenance.

Source : « 4 dying IT jobs », The Enterprisers Project.
Lien : https://enterprisersproject.com/article/2018/9/4-dying-it-jobs?


Le risque de biais discriminatoires

Pour Lucie Chapus et Anne-Victoire d’Yvoire, consultantes Data Protection et confiance digitale au sein de la Practice Security4Business de Magellan Consulting « l’IA connaît une limite grandissante en terme de discrimination, plus couramment appelée : biais. Le biais discriminatoire est le fait, pour l’intelligence artificielle, de biaiser le résultat obtenu et de discriminer les personnes sur des caractéristiques propres (origine, genre, sexualité, etc). » L’éthique entre alors en jeu : peut-on faire confiance à une machine dont les décisions retentissent sur la vie des utilisateurs ? Une machine peut-elle décider de l’embauche d’une personne ? De l’incarcération d’une autre ?

L’origine des biais est diverse : causés par le programmateur de l’IA, qui y insère ses propres biais par idéologie ou croyance, ils peuvent également être issus des données à partir desquelles l’intelligence artificielle apprend. Lucie Chapus et Anne-Victoire d’Yvoire estiment qu’aujourd’hui, « le phénomène va plus loin avec l’utilisation de systèmes de réseaux de neurones profonds où des liens sont faits directement par l’IA. Les informaticiens ne sont alors plus capables d’expliquer quels ont été les critères de décision et, par conséquent, d’expliquer le résultat en lui-même. » Elles affirment également que les biais induits par la machine « provoquent inévitablement des atteintes aux droits fondamentaux et aux valeurs fondamentales de non-discrimination, socles du modèle social français. A titre d’exemple, lors d’un recrutement, l’IA ne va pas décider de l’intérêt ou non de recruter un homme, elle va simplement faire du sexe masculin et de l’âge des critères déterminants. »

Certes, pour adresser la problématique des biais et le manque de transparence de l’IA, le Règlement européen sur la protection des données à caractère personnel (RGPD), ainsi que la loi Informatique et Libertés, ont affirmé le principe de minimisation, selon lequel le traitement de données personnelles doit se limiter à ce qui est strictement nécessaire à la finalité recherchée. « En pratique, ces droits sont difficiles tant à exercer qu’à satisfaire. Lister exhaustivement les données ou expliquer la logique utilisée par l’IA nécessitent de fortes expertises. Leur application et l’élimination des biais discriminatoires s’avèrent donc être un nouveau challenge pour ces experts », soulignent Lucie Chapus et Anne-Victoire d’Yvoire.

Pour ces dernières, « d’un point de vue business, pour faire de l’IA un atout de compétitivité, la démarcation d’une entreprise vis-à-vis de ses concurrents suppose une capacité à mettre en évidence la gestion de son capital éthique, dont il émanera une réputation positive, inspirant stabilité et organisation. Dans un contexte de méfiance primaire vis-à-vis de l’IA, une entreprise doit inspirer confiance à ses clients et collaborateurs, notamment à travers un cadre de responsabilité aussi bien numérique que moral. Elle doit démontrer que, malgré les bénéfices engendrés par son avancement technologique, elle respecte les droits des personnes et prend en considération les conséquences de son activité sur autrui. »