Le marché mondial progressera à un rythme de plus de 15 % par an à l’horizon 2028, atteignant près de de 1 300 milliards de dollars, selon le cabinet MarketsandMarkets. L’un des enjeux de cet engouement des entreprises réside dans la sécurisation. Cette problématique a été abordée lors d’une table-ronde organisée, le 25 septembre 2024, par le Club de la Presse Informatique B2B, qui a réuni six représentants de fournisseurs (Akamai, Oracle, Bouygues Telecom Entreprise, Veeam, Adista et Red Hat). « Le cloud computing, le Big Data ou encore l’IoT sont en effet des sources de vulnérabilités supplémentaires dans la mesure où les systèmes d’information sont désormais organisés en réseau, interconnectés à d’autres systèmes, ouverts sur l’extérieur et de plus en plus flexibles », souligne Alexis Jouan, directeur d’études chez Xerfi qui vient de publier une étude sur le marché de la cybersécurité.
L’une des difficultés reste de bien appréhender la diversité des risques. « C’est toujours complexe, pour les entreprises, de comprendre la réalité du cloud et des risques associés », confirme Damien Rilliard, Senior Director Sovereign Cloud EMEA chez Oracle. D’autant que quasiment tous les éditeurs de logiciels proposent (voire imposent…) leurs solutions en mode cloud. « Les entreprises ne connaissent pas toutes leurs ressources à protéger, notamment celles qui sont concernées par des API, créées par les développeurs ou les partenaires et quelquefois non identifiées par les DSI », explique Fabio Costa, Solutions Engineer Principal chez Akamai qui rappelle que plus de 90 % des cyberattaques mettent en cause des API non maîtrisées, qu’il est d’ailleurs très difficile de cartographier en temps réel. Le Shadow IT dans ce domaine reste vivace et le restera : « Le renouveau du Shadow IT concernera l’intelligence artificielle », avertit Damien Rilliard.
Pour Karim Bouami, directeur adjoint Cybersecurité chez Bouygues Telecom Entreprises, la tendance à la plateformisation va dans le bon sens pour mieux sécuriser, notamment pour les PME, très en retard dans ce domaine. « Cela permet de réduire les coûts, de mutualiser les ressources mais, surtout, de consolider afin de mieux repérer les signaux faibles face à la sophistication des attaques », estime-t-il. C’est en particulier crucial pour les grandes organisations : « Les grands groupes sont submergés par les volumes d’alertes de cybersécurité, le fait d’automatiser permet de réduire les charges de travail et de se concentrer sur les investigations à valeur ajoutée », ajoute Karim Bouami.
Encore faut-il avoir une vue exhaustive du système d’information. « Si les organisations maîtrisent la criticité des données et le patrimoine informationnel, elles ont un meilleur prisme d’analyse », rappelle Fabien Marteau, directeur de la Stratégie Offre chez Adista (groupe Inherent). Mais cette cartographie n’est pas suffisante : « Certes, c’est indispensable mais il y a un énorme besoin de formation, qui doit passer avant la technologie », assure Yohann Castillo, Technical Sales Manager chez Veeam. Surtout dans un contexte où les usages de l’intelligence artificielle progressent fortement. « Les modèles de langages (LLM) présentent des risques en eux-mêmes, avec des biais et des données erronées, ainsi que pour la diffusion d’informations sensibles », prévient David Szegedi, Field CTO France chez Red Hat.
L’IA est d’ores et déjà un terrain propice. L’explosion des outils d’IA a intensifié les problèmes tels que les attaques de phishing en augmentant la crédibilité des escroqueries et en permettant aux cybercriminels de les déployer à grande échelle. D’après une étude de Keeper Security, 80 % des DSI affirment que le phishing et le smishing sont devenus plus difficiles à détecter avec la montée en popularité des outils alimentés par l’IA, et déplorent que le phishing alimenté par l’IA est leur principale préoccupation (42 %).