IA : les défis de la cybersécurité

Le Club de la Presse B2B a organisé un débat sur la sécurisation de l’IA, avec six experts. Selon une étude publiée par Dell, 63 % des entreprises françaises sont conscientes que l’IA accentue les problèmes de sécurité. Ainsi, 73 % des entreprises ont subi au moins un incident lié à l’IA, et 60 % se disent mal préparées face à ce nouveau risque, selon une étude de Metomic.

De l’application au système : la difficile prise en compte de la cybersécurité

L’introduction de l’IA ne peut être traitée comme une simple mise à jour logicielle. Pour Grégoire Martinon, directeur de la recherche en IA chez Emerton Data, nous assistons à l’arrivée d’un « nouvel acteur autonome dans le système d’information ». Cette autonomie crée un risque opérationnel immédiat dès que l’IA interagit avec les processus de l’entreprise. Son conseil est clair : « On ne sécurise pas l’IA comme on sécurise une application mais comme on sécurise un système ». Dans un livre blanc sur l’IA et la cybersécurité, les experts de Sopra Steria rappellent que « contrairement aux systèmes d’information,  classiques, les LLM n’ont pas été conçus pour évoluer en environnement hostile. Ils doivent donc être intégrés avec une vigilance accrue, en combinant analyse de risques, choix d’architecture sécurisé, monitoring en continu, et contrôle fort sur les données. »

Avant tout, sécuriser les données

Pour François-Christophe Jean, directeur technique chez Cohesity, l’IA n’est qu’un rouage d’une machine plus vaste dont le carburant est la donnée. Il rappelle que « l’IA n’est qu’une consommatrice de data, l’enjeu est donc de sécuriser les données ». « Certaines organisations, particulièrement dans les secteurs stratégiques, redoutent que des acteurs externes n’utilisent des documents corrompus pour contourner l’IA et exploiter des droits d’accès », confirme Grégoire Martinon.

Un point crucial d’achoppement concerne la gestion des privilèges. François-Christophe Jean insiste sur une règle d’or : l’IA ne doit jamais bénéficier d’un accès aux données supérieur à celui d’un utilisateur humain classique. Ce principe de parité est soutenu par Pierrick Conord, responsable Cloud Security et Cyber AI chez Sopra-Steria, qui affirme que les droits doivent être strictement alignés : « Un agent IA ne devrait pas disposer de davantage de privilèges qu’un humain qui l’utilise ».

Le Prompt Injection, menace invisible mais réelle

Le livre blanc de Sopra Steria met en exergue les risques : injection de prompt ou jailbreaking, empoisonnement de données dans les corpus d’entraînement, manipulation d’agents autonomes ou de plugins outillés, ou encore la fuite d’information par hallucinations contrôlées.

Pour Pierrick Conord, l’une des vulnérabilités les plus singulières de l’IA est le Prompt Injection : « Il ne s’agit pas d’un bug informatique traditionnel, mais d’un moyen d’influencer l’IA en détournant son mode de raisonnement. »

Cette menace peut être particulièrement insidieuse, y compris de façon indirecte, avec l’intégration d’instructions cachées dans des données, invisibles pour l’œil humain mais interprétables par la machine.

Selon Norman Adda, directeur de projets chez Inherent, cela peut mener à la modification de priorités dans des appels d’offres, au biais de décisions stratégiques ou même à des dénis de service.

La sensibilisation avant l’interdiction

Le risque ne vient pas seulement de l’extérieur. Le manque d’acculturation est un problème majeur selon Norman Adda. Les utilisateurs ne mesurent pas toujours les risques de fuites de données, notamment lorsque des informations personnelles finissent par servir à entraîner les modèles.

Cette méconnaissance nourrit le Shadow IA (l’utilisation d’outils d’IA non autorisés par la DSI). Pour Pierrick Conord, l’émergence de ce phénomène est l’aveu d’un échec de l’entreprise à fournir les outils adaptés à ses collaborateurs.

Plutôt que de brandir l’interdiction, les experts prônent l’éducation : Pascal Bérard, Business Security Officer chez Sage, souligne qu’il faut éduquer et sensibiliser selon les besoins, car, selon lui, « plus il y a de règles, moins elles seront respectées ». Pour sa part, Vincent Barbelin, CTO ambassador chez Dell, évoque la mise en place de « prompt academies » pour apprendre aux salariés à utiliser l’outil avec intelligence, augmentant ainsi leur productivité tout en limitant les risques.

Enfin, Pascal Bérard rappelle que l’IA doit être vue comme un créateur de valeur et non comme une simple technologie. Il identifie trois piliers pour une stratégie réussie : d’abord, l’industrialisation : il existe un fossé entre un prototype (POC) et une mise en production sécurisée. Ensuite : la pertinence : il faut cibler les cas d’usages les plus porteurs. Enfin, il convient de prendre en compte la maturité organisationnelle.

Globalement, on peut rester optimistes : les experts de Sopra Steria estiment que « les années 2025–2026 verront l’industrialisation sécurisée de l’IA. On passera du stade émergent (où chacun faisait ses règles de son côté) à un stade plus normalisé, avec des frameworks (techniques et légaux) consolidés. Les LLM ne seront plus une nouveauté expérimentale mais intégrés dans de nombreux produits critiques, la sécurité devra être à la hauteur. Les défenseurs disposeront aussi de meilleurs outils alimentés par l’IA pour contrer les menaces.


Les bonnes pratiques à prendre en compte

1. Gouvernance et accès

  • Alignement des privilèges : Un agent IA ne doit jamais disposer de plus de droits ou de privilèges qu’un utilisateur humain effectuant la même tâche.
  • Approche système : Ne pas traiter pas l’IA comme une simple application isolée, mais comme un composant critique du système d’information global.
  • Maîtrise de la donnée : Concentrer les efforts de sécurité sur la donnée elle-même, car l’IA en est la principale consommatrice.

2. Vigilance technique et opérationnelle

  • Protection contre le « Prompt Injection » : Se méfier des instructions cachées dans des données ou documents tiers (invisibles pour l’humain), capables de détourner le raisonnement de la machine.
  • Évaluation des risques métiers : Identifier les biais potentiels ou les risques de déni de service que l’IA pourrait engendrer dans les processus critiques, comme les appels d’offres.
  • Du POC à l’échelle : Ne pas négliger l’écart de sécurité majeur qui existe entre une preuve de concept (POC) et une industrialisation réelle.

3. Facteur humain et acculturation

  • Lutte contre le Shadow IA : Plutôt que d’interdire — ce qui pousse les collaborateurs vers des solutions de contournement — l’entreprise doit fournir des outils officiels sécurisés.
  • Formation au « Prompting » : Mettre en place des structures de formation (type « Prompt Academies ») pour apprendre aux utilisateurs à interagir avec l’IA de manière sûre et productive.
  • Sensibilisation aux données personnelles : Rappeler régulièrement que les informations injectées dans certaines IA peuvent servir à leur entraînement et entraîner des fuites de données confidentielles.