1. Cartographier l’existant
Tout commence par une collecte d’informations, une photographie de l’existant. L’interview des décideurs permet de trier le bon grain de l’ivraie, d’évacuer les types de fichiers qui ne sont pas indispensables aux activités de l’entreprise ni à la production informatique.
2. Classifier les données
Il s’agit là de décomposer les données cartographiées en quelques familles, par exemple Platinium, Gold et Silver, en fonction de leur position stratégique et de leur impact relatif sur le business de l’entreprise. Lors de cette étape, les personnels concernés sont toujours impliqués. La DSI est également associée à cette classification car elle impacte les modalités de sauvegardes faites par la suite.
En ce sens, la classification des données permet d’aligner les moyens retenus pour protéger les informations, sur la stratégie même de l’entreprise. Ainsi, les données Platinium seront-elles sauvegardées trois fois (une première sauvegarde dans le datacenter de l’entreprise, une deuxième sur un site distant, et une troisième sur bande); les données Gold seront sauvegardées deux fois, et les données Silver une seule fois. Cette approche a une incidence directe sur l’espace disque nécessaire et utilisé. La classification présente cependant un avantage de taille : les données prioritaires seront restaurées plus facilement et plus rapidement en cas de besoin.
3. Bâtir la solution
Les critères de niveaux de services une fois précisés, il faut bâtir la solution optimale. Pour que les sauvegardes soient un succès, il est nécessaire de bien dimensionner l’infrastructure du datacenter, au niveau des baies de stockage, du réseau et des serveurs. Souvent, la virtualisation vient simplifier l’infrastructure et réduire les coûts. Cette couche d’abstraction entre la gestion de données et les équipements matériels permet de ré-utiliser autant que possible, les baies en place dans l‘entreprise.
Autre source d’optimisation, la déduplication des fichiers, voire des blocs de données sera menée à la source ou sur un serveur de médias. En fonction des mises à jour et de la nature des informations, cette technique réduit considérablement le volume des sauvegardes. Cela a deux effets bénéfiques : d’une part, la fenêtre de sauvegarde se réduit, ce qui permet de libérer le réseau ou bien d’augmenter la fréquence des sauvegardes. D’autre part, le volume nécessaire sur les supports de sauvegarde est également moins important qu’avec des sauvegardes traditionnelles.
4. Test et reporting
C’est ce qui fera la différence sur le choix des outils : sa capacité à faire du reporting et de la supervision. Les processus de sauvegarde doivent être surveillés étape par étape. En fin de sauvegarde, des tests menés sur les jeux de données protégés permettent de garantir l’intégrité des informations numériques mises en lieu sûr.
En outre, ces tests aident à déterminer le dernier jeu de données fiables à restaurer, en cas d’incident, et à optimiser le ratio de sauvegardes validées sur l’ensemble des sauvegardes effectuées. L’examen régulier des rapports de tests permet d’anticiper le vieillissement d’un support de sauvegarde et, le cas échéant, à remplacer un disque ou une bande avant qu’il ne puisse plus mener à bien sa mission.
5. La restauration, plus qu’essentielle
La restauration est probablement plus importante que la sauvegarde elle-même. Beaucoup d’entreprises sauvegardent mais ne savent pas si elles seront capables de restaurer les données, et si ces données seront cohérentes. En définissant des plans de tests de sauvegardes, on vérifie que toutes les procédures de sauvegarde et de restauration fonctionnent correctement. La plupart du temps, l’expert installe une infrastructure virtuelle «bis», similaire à l’infrastructure de l’entreprise et qui permet de tester les sauvegardes en parallèle de la production.
(Source : Raphaël Feddawi, consultant Symantec chez AntemetA).