Éditeurs de solutions d’intelligence artificielle : à la recherche de la martingale

Les éditeurs de logiciels multiplient en France les solutions d’intelligence artificielle (IA) appliquées aux usages métiers. Après une phase d’expansion rapide, qui a propulsé le marché tricolore de l’IA (logiciels et services associés) à plus de 3,5 milliards d’euros, la croissance devrait se tarir d’ici 2030 même si elle restera robuste.

Selon une étude de Xerfi sur le marché de l’intelligence artificielle à l’horizon 2030, les effets d’annonce et l’euphorie des premières expérimentations laisseront peu à peu la place à la consolidation de cas d’usage créateurs de valeur et à une diffusion progressive au-delà des secteurs pionniers (banque, services intellectuels, énergie et industrie).

D’ici 2030, la part des entreprises françaises utilisant au moins une application IA s’établira à près de 30%, selon les calculs des experts de Xerfi, contre 10% en 2024 d’après l’INSEE. L’intégration native de l’IA dans les logiciels métiers sera le principal moteur à l’adoption.

Des freins subsistent

Mais plusieurs freins continueront de limiter le passage à l’échelle : l’obsolescence des systèmes d’information, la pénurie de compétences, la difficulté à identifier des cas d’usage immédiatement rentables et les réticences liées à la protection des données… De quoi accentuer le retard français, face aux États-Unis par exemple. Sans oublier que l’IA Act et les régulations sectorielles imposeront des obligations accrues de traçabilité, d’auditabilité et de robustesse.

À court terme, le contexte macroéconomique pèsera également sur la diffusion du marché. La faible perspective d’activité économique et la pression sur les marges pèseront sur les budgets IT des entreprises hexagonales au moins jusqu’au premier trimestre 2027, en allongeant les cycles de décision et en retardant certains déploiements. À cela s’ajoute un enjeu d’acceptabilité. Dans les secteurs sensibles, notamment la santé et la finance, les craintes liées aux biais, aux hallucinations, aux effets sur l’emploi et à l’empreinte énergétique peuvent alimenter une prudence durable.

« Nous sommes convaincus que l’IA ne sera plus perçue comme une innovation autonome mais bien comme un socle technologique transversal, enchâssé dans l’ensemble des offres logicielles et de services, et indissociable de la transformation numérique des entreprises. La dynamique du marché se jouera donc autant dans la maîtrise de son environnement technologique (données, interopérabilité, sécurité) que dans l’évolution intrinsèque des modèles eux-mêmes », explique Flavien Vottero, auteur de l’étude.

Comment mesurer le retour sur investissement

Pour répondre aux attentes des entreprises et aux risques de désillusion, les éditeurs sont au cœur du réacteur. Ce sont eux qui transforment les capacités technologiques en solutions concrètes, en les adaptant aux processus métiers des clients. Des acteurs comme Shift Technology dans la détection de fraudes, Owkin dans la santé ou ChapsVision dans l’intelligence décisionnelle illustrent cette capacité à verticaliser les usages. Ils se heurtent toutefois à une équation économique compliquée. « Les clients exigent des gains démontrables, tandis que la valeur perçue des offres autonomes s’érode à mesure que les grandes suites logicielles intègrent l’IA en standard », précise l’étude.

Dans ce contexte, l’un des enjeux majeurs pour les éditeurs est d’établir des modèles de tarification crédibles. Les abonnements génériques ou la simple facturation à l’usage ne suffisent pas toujours à refléter la valeur réellement créée. Le développement des modèles de co-création avec les clients peut alors être une piste à creuser car elles permettent d’ancrer la monétisation dans des résultats opérationnels tangibles plutôt que dans une promesse technologique abstraite.

Pour réduire leur dépendance technologique aux fournisseurs de modèles fondamentaux et de services d’inférence (OpenAI, Anthropic…), certains acteurs s’appuient sur la progression des modèles ouverts, en particulier ceux de Mistral AI, tandis que l’écosystème Hugging Face élargit l’accès aux briques open source et facilite leur appropriation par les développeurs. L’industrialisation passe également par l’intégration fluide dans les environnements existants pour que l’IA s’inscrive dans les routines quotidiennes des utilisateurs.

Pour se conformer à la réglementation européenne, les éditeurs intègrent la confiance dans leurs offres dès la phase de conception. Il faut toutefois éviter de présenter l’AI Act comme un choc réglementaire uniforme : ses obligations montent en puissance par étapes. Adobe promeut ainsi le standard Content Credentials pour certifier l’origine des contenus générés. Réponses défensives, ces dispositifs deviennent des arguments commerciaux et des outils de différenciation.

Vers une recomposition de la filière mondiale

Pour l’auteur de l’étude, « la profusion d’acteurs ne pourra pas durer éternellement. En réalité, une consolidation se profile à tous les niveaux. Certaines start-up de modèles disparaîtront, les applicatifs trop génériques seront éliminés et la data supply sera captée par quelques acteurs globaux seulement. »

Les consolidateurs seront, selon toute vraisemblance, les hyperscalers américains mais aussi des industriels et groupes de services désireux de sécuriser leurs maillons critiques. Dans cette recomposition, la bataille concurrentielle se jouera moins sur la puissance brute que sur la capacité à transformer l’IA en solutions concrètes, ancrées dans des données souveraines et des usages sectoriels. Auquel cas, la France pourrait disposer d’une fenêtre d’opportunités.