Modernisation des systèmes d’information : quelles infrastructures pour le futur ?

Des tendances lourdes déterminent l’évolution des infrastructures informatiques. Ce n’est pas nouveau, l’histoire des architectures technologiques l’a bien montré au cours des dernières décennies. Mais, selon les analystes de Gartner, les DSI doivent plus que jamais baliser la route.

La situation, si elle n’est pas encore explosive, contient les germes qui peuvent conduire à une paralysie plus ou moins importante des systèmes d’information. « Les infrastructures actuelles, organisées en silos, sont difficiles à manager, à consolider et à mesurer.

Or, il faut évoluer vers des architectures en temps réel, estiment les analystes de Gartner, à la fois pour des raisons structurelles (liens forts entre de multiples systèmes d’information), des raisons technologiques (exigences de temps de réponse et de performances accrues) et des raisons business (dépendance à l’égard des systèmes d’information) », assure Phil Dawson, vice-président de la recherche de Gartner.

Place donc à la modernisation. « Un environnement IT moderne a plusieurs caractéristiques : ses composantes sont correctement managées, il est modulaire, consolidé, virtualisé, « opensourcé », hétérogène (même si le mainframe conserve sa place) et… vert, du fait des contraintes réglementaires, fiscales et de coûts de l’énergie », résume Mike Glennon, vice-président de Gartner, qui conseille une approche en cinq étapes : auditer la situation, définir l’architecture à mettre en place, former les équipes, moderniser les matériels et faire migrer les applications. « Il faut décider d’un niveau de maturité cible, sans brûler les étapes. Je conseille de privilégier les projets d’une durée de quatre à six mois, en établissant des priorités business », ajoute Mike Glennon.

L’une des voies que suggère Gartner réside dans la virtuali­sa­­­tion. Elle présente plusieurs avantages. Sur le plan technologique, la virtualisation permet de délivrer des modèles alternatifs avec par exemple les infrastructures comme un service, le grid computing, ou les appliances.

A l’horizon 2009, plus de quatre millions de machines virtuelles seront installées sur des serveurs x86, ce qui représente 20 % du marché mondial potentiel, prévoit Gartner. Côté postes de travail, ce sont 660 millions de PC qui seront virtualisés à l’horizon 2011, contre moins de cinq millions en 2007.

Sur le plan du management du système d’information, la virtualisation améliore la disponibilité du système d’information, optimise l’utilisation des infrastructures, réduit les coûts, permet de redéployer les ressources humaines, et « crée de l’optimisme chez les utlisateurs », assure Phil Dawson, pour qui, en revanche, la virtualisation présente également un certain nombre d’inconvénients : « Cela accroît les effets des dysfonctionnements, peut affecter les performances du système d’information, complexifie la gestion des licences logicielles, requiert de nouvelles compétences et engendre un certain scepticisme de la part des utilisateurs. »

Les DSI n’ont guère le choix : « Dans les cinq prochaines années, le marché de la virtualisation, encore immature, va devenir mature, à mesure que la concurrence va se renforcer et changer les modèles de tarification. Toutefois, la plupart des entreprises ne peuvent attendre que le marché soit mature, les problèmes à résoudre sont déjà là, en particulier la prolifération des serveurs, la rareté de l’espace et les problèmes de consommation énergétique », assure Phil Dawson.

Mais, et les DSI sont les premiers concernés car ils affrontent la complexité au quotidien, l’une des conséquences de la virtualisation est de favoriser les plates-formes multi- fournisseurs : pour les matériels, pour les hyperviseurs, pour les systèmes d’exploitation…

« La difficulté sera de déterminer à partir de quel moment le support d’un fournisseur se termine et quand s’applique le support d’un autre fournisseur », s’inquiète Phil Dawson.

D’autant qu’à mesure que se renforcent l’automatisation et la standardisation des infrastructures, les fournisseurs vont de plus en plus chercher à prendre le contrôle des infrastructures : les vendeurs de serveurs, de machines virtuelles, de systèmes d’exploitation, de stockage, de middleware, d’applicatifs, de logiciels de management des infrastructures et les fournisseurs de réseaux.

Chacun d’entre eux a des atouts à mettre en avant : la connaissance des besoins métiers pour les vendeurs d’applications, l’importance stratégique des données pour les fournisseurs de stockage, la capacité à faire évoluer les systèmes historiques pour les fournisseurs de serveurs et de systèmes d’exploitation… Ce qui, d’un côté, devient plus simple à gérer, devient, d’un autre côté, plus complexe…


Virtualisation : les six Best Practices de Gartner

  1. Privilégiez un retour sur investissement à court terme, dans la mesure où le marché (et, de fait, les prix) évoluent rapidement. Selon Gartner, il est souhaitable que le ROI soit effectif en six mois au plus. En principe, une entreprise qui déploie une cinquantaine de machines virtuelles ou plus en un an est à même d’atteindre cet objectif de ROI.
  2. Virtualisez les bonnes applications.
  3. Toutes les applications ne sont pas éligibles à la virtualisation, en particulier celles dont les besoins d’input/ouput sont importants. Gartner recommande de se focaliser sur les petites applications les plus anciennes.
  4. Définissez votre stratégie de stockage : déterminez où seront stockées les images virtuelles et les données applicatives conditionnent l’efficacité de la politique de virtualisation. Il faut privilégier un système centralisé et également prendre en compte le risque d’incident.
  5. Comprenez les problématiques logicielles. Selon Gartner, la croissance rapide du marché autour de la virtualisation fait que les fournisseurs se positionnent davantage dans un mode réactif en termes de prix et de licences. Pour Gartner, ces deux éléments demeureront problématiques dans le futur.
  6. Combinez intelligemment les machines virtuelles : l’objectif est de conserver un maximum de flexibilité dans l’allocation des capacités des serveurs, notamment dans les premières étapes de la virtualisation.

Mike Glennon, managing Vice-President, Gartner : « Gare à l’effet dominos ! »

« La modernisation des systèmes d’information se heurte à un effet dominos : il n’est en effet plus possible de modifier un élément de l’infrastructure sans que cela ait un impact sur beaucoup d’autres. Il en est ainsi de la virtualisation, de la consolidation, du stockage, des migrations de mainframes, de la SOA ou encore du Web 2.0…

Aujourd’hui, les systèmes d’information fonctionnent, mais il y a du gaspillage : dans l’utilisation des ressources (puissance, performance, espace), dans le management (chaque élément doit être géré spécifiquement), dans la maintenance (surtout pour les équipements les plus anciens) et dans les coûts de changement (upgrades, modifications des applicatifs), qui deviennent exorbitants.

A cela s’ajoutent deux tendances majeures. D’une part, la pénurie prévisible de l’expertise : 20 % de salariés américains partiront en retraite dans les dix ans. Dans les DSI, cela concernera quasiment tous les développeurs Cobol et Assembleur, formés avant le milieu des années 1970. Croyez-vous qu’il soit possible de faire migrer toutes vos applications en moins de dix ans ?

D’autre part, le fait que le support des applications et systèmes d’exploitation n’est jamais illimité dans le temps impose d’évoluer, que le DSI le veuille ou non ! Par exemple, en 2010, c’est la fin du support de Windows 2000 Professional et de Windows Server 2000… Parallèlement, les DSI doivent proposer de meilleures performances et souffrent d’être contraints de gérer de multiples fournisseurs et de trop nombreux projets. »