Comment migrer vers le cloud public d’Amazon

Les entreprises sont de plus en plus nombreuses à utiliser des services de cloud public et les cas d’usages se multiplient. Lancée en 2006, la plateforme Amazon Web Services (AWS) fait partie des pionnières sur ce marché, dont elle occupe aujourd’hui la première place mondiale. Selon le Synergy Research Group, sa part du marché du cloud public s’élevait en effet, mi-2015, à 29 %, devant Microsoft Azure, IBM et Google.

La plateforme AWS propose aujourd’hui plus d’une quarantaine de services très variés, d’où une certaine complexité au premier abord. Pour cette raison, nous avons choisi de proposer un tour d’horizon des principaux enjeux que rencontrent les entreprises démarrant avec la solution, ainsi qu’un certain nombre de bonnes pratiques pour la mise en place d’une offre de cloud public.

1. Les enjeux

À quels types d’entreprises s’adresse la plateforme ?

Amazon revendique plus d’un million de clients dans le monde pour sa plateforme AWS. Parmi ceux-ci, beaucoup de start-up et d’acteurs du Web, dont le cloud public a accompagné la montée en puissance. Certains ont bâti, dès le départ, leur système d’information sur le cloud, tandis que d’autres ont migré progressivement, à l’instar du producteur et diffuseur de vidéos en ligne Netflix.

Celui-ci a commencé à utiliser AWS dès 2009. Mi-2015, il a annoncé la fermeture de son dernier datacenter interne, la totalité de son infrastructure étant désormais sur le cloud. En France, des sociétés aussi diverses que BlaBlaCar (covoiturage), Vente-Privée (e-commerce) ou Viadeo (réseau social professionnel) ont suivi la même approche vers le cloud.

Les clients du cloud AWS sont également nombreux parmi les grandes entreprises traditionnelles. Ainsi, selon Amazon, plus de 80 % des entreprises du CAC 40 utilisent aujourd’hui sa plateforme. Parmi les clients français figurent notamment Veolia Eau ou Schneider Electric, des médias comme le groupe Canal +, le groupe Les Echos ou encore des associations comme Les Restos du Cœur.

Les principaux services proposés

La plateforme AWS peut être considérée à la fois comme une offre d’IaaS (Infrastructure as a Service) et de Paas (Platform as a Service). Historiquement, les premiers services proposés sur AWS ont été des services d’infrastructure typiques : le stockage (S3), la puissance de calcul (EC2) ou encore le réseau. Les entreprises peuvent utiliser ces ressources cloud pour déployer leurs propres environnements applicatifs (systèmes d’exploitation, bases de données…)

Au fil du temps, Amazon a enrichi sa plateforme, qui comporte aujourd’hui plus d’une quarantaine de services. Les services d’infrastructure se sont diversifiés, pour répondre de manière plus fine aux besoins :

  • exécution de code dans des conteneurs (EC2 Container Service) ou en fonction d’événements (Lambda),
  • stockage sous forme de blocs (EBS), systèmes de fichiers (Elastic File System), archivage (Glacier),
  • datacenter virtuel privé (VPC) ou liaison VPN directe à travers un réseau d’opérateur (Direct Connect),
  • équilibrage de charge, auto-dimensionnement, mise en cache…

À ces services, qui relèvent déjà d’infrastructures nettement plus spécialisées et donc moins neutres en terme de choix de plateforme, viennent s’ajouter des services ciblant directement les développeurs et architectes d’applications, le public cible du PaaS. Parmi ceux-ci figurent, par exemple (liste non-exhaustive) :

  • des bases de données : bases relationnelles (avec RDS, service générique, ou Aurora, moteur basé sur MySQL et développé par Amazon), NoSQL (DynamoDB), entrepôts de données (Redshift),
  • des services analytiques : moteur Hadoop (EMR), traitement de flux de données en continu (Kinesis), décisionnel (QuickSight),
  • des services collaboratifs : postes de travail (WorkSpaces), e-mail (WorkMail), partage de documents (WorkDocs),
  • des services pour la mobilité : développement (Mobile Hub, Mobile SDK), gestion des identités (Cognito), notifications (SNS),
  • Internet des objets : connexion d’appareils au cloud (IoT).

À ces services, destinés à la construction de plateformes applicatives, s’ajoutent, enfin, de nombreux services d’auto-ma-tisation et d’administration destinés aux équipes informatiques : gestion et déploiement de code source, catalogue de services, audit et surveillance, contrôle d’accès, gestion de clés, pare-feu, workflows, recherche…

Quels bénéfices en attendre ?

En général, les entreprises se tournent vers des solutions de cloud public lorsqu’elles sont confrontées à des problématiques précises, portant sur l’agilité, les délais de mise à disposition ou encore des coûts opérationnels trop élevés. Quand les enjeux initiaux sont bien posés, les gains peuvent facilement être identifiés et évalués.

Coûts, performances, élasticité

Photobox a chiffré précisément les coûts et les performances de son ancienne plateforme analytique. Le passage à Redshift a permis à l’entreprise d’acquérir vingt fois plus de capacité, pour sept fois moins cher, et avec un système dix fois plus rapide. Stephan Hadinger, responsable Architectes Solutions AWS pour la France, cite également le cas de 1001 vins, un site de vente de vins haut de gamme, avec un panier moyen de 2000 euros.

« Ce site a deux moments forts dans l’année, les primeurs et la période de fin d’année. Ils ont migré sur AWS pour gagner en disponibilité et se déployer à l’international. Aujourd’hui ils ont des boutiques en ligne dans quatorze pays. Avec le passage à AWS, le coût total est inférieur de 30% à celui de leur ancien prestataire. »

Chez Viadeo, c’est l’élasticité du cloud, autrement dit la capacité à ajuster automatiquement les ressources allouées en fonction des besoins, qui a permis de gérer les coûts de manière plus efficace. L’entreprise évite ainsi de laisser trop de serveurs actifs la nuit, alors que le trafic est faible à ce moment-là.

Cette même élasticité permet également aux entreprises d’envisager des options qu’elles ne pouvaient parfois pas mettre en œuvre auparavant, comme la continuité d’activités : avec un site de secours dans le cloud, celui-ci reste inactif tant qu’il n’est pas nécessaire.

Déploiement et accessibilité

Le déploiement est également facilité : pour des entreprises avec une présence internationale, un environnement pourra être plus aisément répliqué d’un pays à un autre, accélérant la mise en place et le développement de filiales. D’autres profils d’organisations peuvent aussi bénéficier de ces avantages, comme le pense Pierre Semet, responsable de la production des Restos du Cœur : « Nous avons des challenges dignes d’une grande entreprise, associés à ceux d’une start-up. Notre logiciel Ulysse, destiné à la gestion des personnes accueillies et au suivi de la distribution alimentaire, devait être accessible de partout, le tout à un coût maîtrisé pour ne pas pénaliser la qualité des actions. » L’association a donc choisi de le migrer sur AWS. « En quelques jours, le premier environnement était installé. L’accessibilité est garantie et nous disposons d’une sécurité à la demande. » Par ailleurs, mi-2015, quand l’association a déménagé, l’opération a été transparente en ce qui concerne l’infrastructure.

Sécurité

Le cloud AWS est certifié ISO 27001 et PCI-CSS. « La manière dont AWS est sécurisé permet à tous les clients de progresser en sécurité », estime Stephan Hadinger. « Quand nous faisons des ateliers avec les responsables de la sécurité des SI de grandes entreprises, souvent ces derniers s’aperçoivent qu’AWS est plus sécurisé que leurs systèmes, ou du moins d’un niveau de sécurité équivalent. Le directeur technique de la NASA a lui-même fait ce constat », assure-t-il.

Néanmoins, il reconnaît que « le client a aussi sa part de travail à faire sur la sécurisation des applications. » Pour aider les entreprises, AWS met à leur disposition des experts sur la conformité et la régulation, notamment dans le domaine bancaire en Europe.

2. Comment faire ?

Il existe plusieurs stratégies pour déployer des applications sur le cloud AWS, allant de la migration à l’identique jusqu’au développement (ou réécriture) d’une application sur mesure pour la plateforme. Chacune de ces options a ses avantages et ses inconvénients.

« Dans les faits, souvent les entreprises commencent par effectuer une migration 1 pour 1 », constate Philippe Desmaison, architecte chez AWS.

Organiser la migration

« La migration vers le cloud ne se résume pas à un changement de datacenter. Néanmoins les entreprises ont la mauvaise habitude de l’envisager ainsi », prévient Xavier Prélat (Intercloud), spécialiste de la plateforme AWS. « Le cloud est encore une transition technologique. Pour la mener à bien, il faut avoir les responsables applicatifs sous la main, puis avoir des priorités claires. »

Celui-ci conseille d’évaluer la migration, afin de déterminer par où commencer et ce que l’entreprise peut espérer comme gains. Ce processus d’évaluation se divise en plusieurs étapes :

1. lister les différents composants de l’infrastructure existante et identifier les dépendances.

2. choisir des projets simples pour commencer. « Prenant le contre-pied de cette préconisation, un client a choisi de démarrer avec la pire des applications candidates, afin de montrer à ses collaborateurs que le passage au cloud était possible », relate Xavier Prélat.

3. étudier le coût total de possession, sans se limiter à une comparaison basée sur le coût des serveurs et du stockage. Il faut établir une comparaison année par année, en prenant en compte tous les éléments, jusqu’à la consommation électrique ou le réseau.

4. désamorcer les craintes liées à la sécurité : la gestion des clés, les pare-feux sont des services gratuits. AWS possède deux datacenters situés en Europe (Allemagne et Irlande) pour se conformer aux obligations légales. Enfin, les rapports d’audit sont à la disposition des clients.

5. évaluer les besoins techniques des applications.

6. faire un Proof of Concept.

7. définir les critères de succès. Ceux-ci ne se limitent pas aux coûts, comme le montre les différents types de bénéfices possibles.

Les projets de migration vers le cloud ont un impact important sur la DSI et l’organisation. Pour cette raison, il est important de les prendre en compte en fonction d’un ensemble de perspectives :

  • Métiers : l’enjeu principal est de se concentrer sur la valeur pour l’organisation.
  • Plateforme : concevoir pour le cloud nécessite d’évaluer l’impact en terme de plateforme.
  • Maturité de l’organisation : les systèmes et les processus existants vont conditionner la manière dont le passage au cloud doit être planifié et les risques associés à la transition.
  • Équipes IT : la DSI doit faire l’état des lieux des compétences dont elle dispose et de celles qu’elle doit acquérir ou aller chercher chez des partenaires.
  • Processus : la culture Itil se marie bien avec le cloud. Des engagements sur les niveaux de services sont tout autant nécessaires dans le monde du cloud qu’ailleurs.
  • Opérations : la manière d’effectuer le monitoring ou la gestion des incidents, la mise en œuvre de la continuité d’activité sont modifiées par le passage au cloud, il faut donc les repenser. La résilience est par exemple incluse dans le principe même du cloud.
  • Sécurité : des règles de sécurité pour le cloud doivent être définies et mises en œuvre.

Formation et accompagnement

Pour bien démarrer, l’essentiel est avant tout d’utiliser les bons services. « Le vrai enjeu est d’arriver à connaître et à maîtriser les services. Une solution comme Amazon Lambda modifie, par exemple, complètement la façon de concevoir les applications », prévient Jean-Charles Falloux, directeur digital media & innovation du Groupe Les Echos.

Dans ce but, AWS propose une journée de formation gratuite, environ une fois par mois, pour découvrir la plateforme et ses bonnes pratiques. Guillaume Leccese, directeur technique en charge de la R&D et de l’innovation chez Oxalide, un spécialiste de l’infogérance et de l’hébergement, conseille également la formation en ligne proposée par Amazon. « Elle permet de comprendre à quoi sert chaque service d’AWS, d’apprendre la vingtaine de sigles importants et de savoir à quoi ils correspondent. Après, il faut réussir à entrer dans le moule Amazon. »

Une autre possibilité, pour les entreprises qui souhaitent davantage d’accompagnement, est de faire appel à un partenaire, à l’instar de Michel Tournier, DSI d’Anovo (groupe Ingram Micro) : « Nos équipes n’étaient pas préparées pour ce challenge. Nous avons trouvé un partenaire, Cloudreach, qui a compris que nous étions un peu dans l’urgence, et nous avons pu migrer une de nos applications critiques dans un délai record. »

3. Les points d’attention

Connaître les quelques limites techniques

Même si la plateforme AWS est l’une des plus riches du marché à l’heure actuelle, il subsiste néanmoins certaines limites techniques dont il faut être conscient. « Il est par exemple compliqué d’obtenir du MySQL en haute disponibilité uniquement avec des instances EC2 et du stockage S3. Il est préférable de passer à RDS, mais il faut alors maîtriser l’API S3 pour l’intégrer dans les applications créées avec des outils de gestion de contenu », illustre Guillaume Leccese, directeur technique chez Oxalide. Autre exemple, la technologie d’adressage IPv6 n’est pas, à ce jour, supportée au niveau des instances EC2, ce qui peut poser problème lors de la configuration et de l’intégration de datacenters virtuels (VPC). AWS annonce néanmoins travailler sur le sujet.

Surveiller les coûts

Le modèle économique de la plateforme AWS repose sur « de gros volumes avec de faibles marges », selon Stephan Hadinger. La facturation se fait à l’usage, par exemple en fonction du volume de stockage utilisé, du nombre d’instances ou de la durée pendant laquelle les ressources sont utilisées. Pour cette raison, il est essentiel de suivre précisément sa consommation de services, afin d’éviter les mauvaises surprises.

« La lisibilité des coûts d’Amazon n’est vraiment pas immédiate », témoigne un client d’Oxalide, qui ne souhaite pas être cité. « C’est d’autant plus gênant que nous avons décidé d’opter pour le service auto-scaling, qui nous permet d’allumer de nouvelles machines ou d’en éteindre d’autres en fonction de notre charge. En auto-scaling montant, il est impératif de suivre l’évolution des coûts ; il faut créer des alertes, car on n’est jamais à l’abri d’une erreur qui pourrait faire gonfler dangereusement la facture. »

Certains choix techniques peuvent également s’avérer plus coûteux que prévu : « Copier-coller notre infrastructure physique dans le cloud nous aurait coûté plus cher », estime ainsi le CTO de Viadeo. « Il faut se demander ce que l’on doit changer et optimiser notre infrastructure : ce qui coûte systématiquement cher, ce sont les bases de données, pas les frontaux Web. Par exemple, il faut préférer RDS/Aurora à une instance Oracle/MySQL.»

Pour éviter une surfacturation, Stephan Hadinger suggère quelques autres pistes :

1. Veiller à utiliser les bonnes tailles de machines.

2. Opter pour des instances réservées : si certains serveurs tournent en permanence, cela réduit le prix de l’instance (en revanche, les instances réservées sont facturées même si elles restent inutilisées).

3. Miser sur les services managés, qui peuvent aider à réduire les coûts liés au système. Par exemple, une base de données RDS allège le travail des administrateurs de bases de données grâce à la supervision et à la sauvegarde automatiques, des tâches pouvant représenter jusqu’à 60 % du travail d’un DBA en temps normal.

4. S’appuyer sur l’outil AWS Trusted Advisor, qui propose automatiquement des options permettant de réduire les coûts.

Réversibilité et régulations

Dans certains cas, l’usage du cloud public se heurte encore à des freins d’ordre réglementaire, notamment quand il s’agit de l’hébergement de données clients. Ainsi, pour Carlos Gonçalves, DSI de Société Générale Corporate & Investment Banking, si les freins liés aux audits des prestataires de cloud sont en train d’être levés, « des enjeux liés à la localisation physique des données et à la réversibilité subsistent. » Sur ce dernier sujet, Amazon cite le cas d’Instagram, un de ses anciens clients, qui a choisi de faire héberger ses données chez Facebook : la migration a nécessité environ six semaines.

Les challenges de l’approche hybride

L’offre VPC d’AWS permet aux entreprises d’envisager des modèles hybrides, où le datacenter virtuel est intégré au reste du système d’information. Néanmoins, ce choix peut soulever certains défis, liés notamment à la quantité de données à migrer, à la connectivité et à l’intégration proprement dite. Concernant la migration des données, le temps nécessaire dépendra à la fois de leur volumétrie et de la qualité de la liaison réseau. À cet égard, la mise en place d’une liaison Direct Connect facilite nettement les projets de migration, comme l’illustre l’expérience du groupe Schneider Electric.

Le groupe Les Echos, qui souhaitait développer ses offres éditoriales et de services sur tous les points d’entrée Web & mobile, s’est ainsi aperçu « qu’il fallait mieux créer un bon complément dans le cloud pour avoir un système de redistribution des contenus le plus performant possible », explique Jean-Charles Falloux, directeur Digital Media & Innovation. Pour assurer une bonne intégration, l’entreprise a privilégié la solution d’Axway API Gateway. « Toute la logistique et l’intelligence se retrouvent dans le cloud grâce aux API, cela nous donne de la souplesse pour nos futurs projets. »

« Au final, l’expérience AWS est réussie lorsque l’on parvient à tout industrialiser, quand on arrive à déployer le service PaaS d’Amazon, le middleware et l’applicatif en un clic », conclut Guillaume Leccese.

Vente-Privée en quête d’élasticité

L’entreprise de e-commerce réalise la totalité de son chiffre d’affaires, soit 1,7 milliard d’euros, sur le Web et les canaux mobiles. Elle a commencé par héberger sur AWS des applications autonomes issues d’agences Web, afin de pouvoir en regagner la maîtrise. En 2013, ce sont les applications d’analyse de logs qui ont été migrées. « Nous avions besoin d’élasticité pour récupérer les logs tous les matins pendant les pics de charge », explique Romain Quinat, responsable de la production chez Vente-Privée.Aujourd’hui, Vente-Privée utilise environ 20 instances EC2 sur lesquelles tournent des environnements Linux et Windows, ainsi que des bases SQL. L’entreprise a déployé son propre processus d’automatisation des déploiements sur ces machines virtuelles. La facture s’élève à 12 000 euros/mois pour cinq à sept environnements de recette tournant en parallèle. « Nous avons comparé trois templates différents et tout était moins cher avec le cloud AWS. »

 

Avantages Inconvénients/risques
Migration
1 pour 1
  • Parfois, la seule solution possible pour certaines applications.
  • Également la plus rapide à mettre en œuvre.
  • Permet de conserver une adhérence plus faible à la plateforme, si la notion de réversibilité est importante.
  • Gains, notamment en termes de performance et de coûts, limités, mais néanmoins possibles si le projet est bien évalué.
  • L’élasticité sera assez limitée si l’application est monolithique.
  • L’infrastructure n’est pas optimisée pour une gestion en fonction de la demande, et donc souvent sur-provisionnée.
Adapter l’application
pour AWS
  • Meilleur usage des fonctionnalités d’AWS, notamment pour l’auto-dimensionnement et le stockage.
  • Bénéfices supplЋmentaires possibles à travers l’automatisation des tâches (déploiement, provisionnement à la demande…
  • Ce choix est envisageable si l’application s’y prête: elle peut ђtre découpée en briques et les modifications à effectuer pour cela restent mineures.
Optimiser l’application pour AWS
  • Permet de bénéficier de toute l’élasticité de la plateforme AWS (équilibrage de charge, surveillance automatique des instances.
  • Effort assez élevé en terme de conception/réécriture.• Forte adhérence à la plateforme

 


Une typologie des principaux cas d’usageLes retours d’expérience sur la plateforme AWS laissent transparaître une grande diversité de cas d’usage, qui correspondent à différentes trajectoires d’adoption du cloud.

• Les prudents : le cloud par petites touches ou en support des projets

Ils commencent par envisager le cloud pour des besoins ponctuels ou moyennement stratégiques : Proof of Concept, phases de recette nécessitant la mise en place d’environnements temporaires, applications périphériques…

C’est, par exemple, le cas chez Vente-Privée, qui a basculé son infrastructure de recettes sur AWS en 2013. « Auparavant, il fallait près d’un mois pour livrer un nouvel environnement », explique Romain Quinat, responsable de la production chez Vente-Privée. « De plus, quand une application tombait en panne, c’était un vrai cauchemar pour la remettre en route, car nous n’avions pas la maîtrise complète du processus de déploiement. » Le passage sur AWS avait pour objectif d’uniformiser les déploiements, d’accroître la visibilité sur le processus et de réduire le délai de mise à disposition des environnements de recette à 48h. Au final, depuis le passage au cloud, cette étape ne prend plus que deux heures.

• Les pragmatiques : le cloud comme extension de l’infrastructure interne

Après avoir constaté certaines limites de leur infrastructure interne (élasticité insuffisante, dimensionnement inadapté, coûts de maintien en conditions opérationnelles élevés…), ces entreprises vont utiliser le cloud pour les pallier. Le cloud est alors vu comme un complément pratique aux systèmes internes, permettant de faire face à des besoins spécifiques (pics d’activité, plan de reprise sur incident…). L’expérience de Schneider Electric (lire pages 2 et 3 dans ce numéro) est à la croisée de l’approche précédente et de celle-ci.

• Les opportunistes : le cloud pour tester d’autres technologies

Ces entreprises se tournent vers le cloud pour expérimenter de nouveaux services qu’elles n’ont pas la possibilité de déployer en interne, car ceux-ci sont trop coûteux ou trop complexes à gérer. « Les entreprises profitent souvent du cloud pour utiliser des technologies qu’elles n’avaient pas l’habitude d’utiliser, comme l’analytique, le Big Data… Cela permet, par exemple, à des PME de créer des entrepôts de données, qui jusqu’à présent étaient très chers. Le ticket d’entrée pour RedShift est de 25 centimes d’euros de l’heure », illustre Stephan Hadinger, responsable Architectes Solutions AWS pour la France.

• Les décomplexés : le cloud côté production

Il s’agit généralement d’entreprises ayant acquis un bon niveau de maturité avec le cloud, souvent après être passées au préalable par certains des états précédents. Quand le cadre s’y prête, notamment quand l’environnement réglementaire et métier est favorable, elles migrent tout ou partie de leurs datacenters physiques vers le cloud.

Parmi les sociétés ayant décidé de franchir ce pas figure Veolia Eau ou encore Viadeo. « Nous faisons des mises en production tous les jours. Avant, arrivés en fin de projet, au moment où il fallait mettre en place des serveurs, c’était le drame. Nous avons souhaité bénéficier de la même agilité sur la partie infrastructure que sur le développement en passant au cloud pour la partie production », confiait Julien Simon, CTO du réseau social Viadeo.