mer, 04/04/2012 - 15:06
Trop de logiciels de backup ou pas la moindre sauvegarde en place ? Des fichiers endommagés, trop longs, ou impossibles à restaurer ? Il est temps de changer de méthode. Chacun doit maintenant faire face à de vastes volumes imprévus : flux de messages, échanges d’images ou données issues d’applications virtualisées. Trop souvent perçue comme une corvée, la sauvegarde doit pourtant plus que jamais faire partie des processus d‘entreprises. Par Raphaël FEDDAWI, consultant SYMANTEC chez AntemetA.
Pourquoi faut-il changer de méthode ?
Aujourd’hui, on ne peut plus faire ce que l’on faisait il y a cinq ans. Les entreprises consomment et génèrent des volumes croissants de données, les applications métiers et le suivi de la relation client accumulant de plus en plus de renseignements sur les ventes, les promotions et la fidélisation des clients. La plupart du temps, on ne se rend pas tout de suite compte du déluge de données partagées sur les serveurs de fichiers. Une même présentation se trouve souvent dupliquée en nombreuses versions, réparties sur plusieurs disques durs. C’est lorsqu’on se penche sur la sauvegarde, qu’on s’aperçoit qu’elle devient difficile à maîtriser.
Les moyens de communication augmentent avec les sites web 2.0, les réseaux sociaux et la messagerie instantanée. Or, les messages électroniques vers les succursales et avec les partenaires deviennent stratégiques ; on perd trop souvent la trace d’échanges importants. Le volume de mémos, de fichiers bureautiques et de bases de données à sauvegarder devient considérable. Qu’elles soient contenues dans un serveur de messages ou de travail collaboratif (Sharepoint ou un autre), les informations professionnelles doivent rester disponibles et rapidement restaurées, en cas d’incident.
Trop de solutions tuent la sauvegarde
Les données numériques sont de plus en plus critiques et l’informatique s’inscrit dans le développement de l’entreprise. Celle-ci ne manque pourtant pas d’outils ni de logiciels de sauvegarde. Bien souvent, c’est même le contraire, elle en utilise plusieurs, selon le type de fichiers ou de données à sauvegarder. L’équipe informatique elle-même cherche une cohérence dans toutes ses procédures de sauvegarde et de restauration. Or, en plus de générer des coûts cachés, gérer des solutions hétérogènes devient complexe et chronophage. Et, face à l’explosion de la volumétrie, l’entreprise s’aperçoit que ses données sont partiellement, voire très mal sauvegardées. Manque de moyens, manque de temps ou manque de ressources internes, l’entreprise doit composer avec ces contraintes.
5 étapes clés indispensables
Le phénomène Big Data, englobe les contenus des smartphones, des tablettes tactiles et des machines virtuelles que l’on déploie si facilement à présent. Ces dernières aident à délivrer de nouveaux services et à traiter toujours plus d’informations, sans avoir à acheter de nouveaux serveurs. Mais comment sauvegarder ces machines virtuelles ? Comment réduire la fenêtre de backup simultanément ? Où faut-il placer les sauvegardes à présent ? Peut-on faire confiance aux dernières fonctionnalités de déduplication, à tous les datacenters, au cloud backup ? L’association de bonnes technologies, de meilleures pratiques et de retours d’expérience devient indispensable. Pour faire face à ces nouveaux challenges, l’entreprise doit adopter de nouvelles pratiques et être accompagnée par des experts. Ces bonnes pratiques se déclinent en cinq étapes essentielles et précises.
1- Cartographier l’existant
Tout commence par une collecte d’informations, une photographie de l’existant. L’interview des décideurs permet de trier le bon grain de l’ivraie, d’évacuer les types de fichiers qui ne sont pas indispensables aux activités de l’entreprise ni à la production informatique. Ressemblant de près à un plan d’urbanisation d’une ville, cette étape s’avère fondamentale pour maîtriser la conduite du changement du plan de sauvegarde. Elle s’appuie sur des outils d’audits ou sur un reporting précis, parfois généré par les solutions en place dans l’entreprise, une base de connaissances ou une application métier. L’essentiel ? Ne rien oublier d’important pour la continuité d’activité. La sauvegarde optimisée est celle qui prend en compte les idées et les documents nécessaires à la poursuite des activités cruciales.
2- Classifier les données
Il s’agit là de décomposer les données cartographiées en quelques familles, par exemple Platinium, Gold et Silver, en fonction de leur position stratégique et de leur impact relatif sur le business de l’entreprise. Lors de cette étape, les personnels concernés sont toujours impliqués. La DSI est également associée à cette classification car elle impacte les modalités de sauvegardes faites par la suite. En ce sens, la classification des données permet d’aligner les moyens retenus pour protéger les informations, sur la stratégie même de l’entreprise. Ainsi, les données Platinium seront-elles sauvegardées trois fois (une première sauvegarde dans le datacenter de l’entreprise, une deuxième sur un site distant, et une troisième sur bande); les données Gold seront sauvegardées deux fois, et les données Silver une seule fois. Cette approche a une incidence directe sur l’espace disque nécessaire et utilisé. La classification présente cependant un avantage de taille : les données prioritaires seront restaurées plus facilement et plus rapidement en cas de besoin.
3-Bâtir la solution
Les critères de niveaux de services une fois précisés, il faut bâtir la solution optimale. Pour que les sauvegardes soient un succès, il est nécessaire de bien dimensionner l’infrastructure du datacenter, au niveau des baies de stockage, du réseau et des serveurs. Souvent, la virtualisation vient simplifier l’infrastructure et réduire les coûts. Cette couche d’abstraction entre la gestion de données et les équipements matériels permet de ré-utiliser autant que possible, les baies en place dans l‘entreprise. Autre source d’optimisation, la déduplication des fichiers, voire des blocs de données sera menée à la source ou sur un serveur de médias. En fonction des mises à jour et de la nature des informations, cette technique réduit considérablement le volume des sauvegardes. Cela a deux effets bénéfiques : d’une part, la fenêtre de sauvegarde se réduit, ce qui permet de libérer le réseau ou bien d’augmenter la fréquence des sauvegardes. D’autre part, le volume nécessaire sur les supports de sauvegarde est également moins important qu’avec des sauvegardes traditionnelles.
4-Test et reporting
C’est ce qui fera la différence sur le choix des outils : sa capacité à faire du reporting et de la supervision. Les processus de sauvegarde doivent être surveillés étape par étape. En fin de sauvegarde, des tests menés sur les jeux de données protégés permettent de garantir l’intégrité des informations numériques mises en lieu sûr. En outre, ces tests aident à déterminer le dernier jeu de données fiables à restaurer, en cas d’incident, et à optimiser le ratio de sauvegardes validées sur l’ensemble des sauvegardes effectuées. L’examen régulier des rapports de tests permet d’anticiper le vieillissement d’un support de sauvegarde et, le cas échéant, à remplacer un disque ou une bande avant qu’il ne puisse plus mener à bien sa mission.
5 - La restauration, plus qu’essentielle
La restauration est probablement plus importante que la sauvegarde elle-même. Beaucoup d’entreprises sauvegardent mais ne savent pas si elles seront capables de restaurer les données, et si ces données seront cohérentes. En définissant des plans de tests de sauvegardes, on vérifie que toutes les procédures de sauvegarde et de restauration fonctionnent correctement. La plupart du temps, l’expert installe une infrastructure virtuelle «bis», similaire à l’infrastructure de l’entreprise et qui permet de tester les sauvegardes en parallèle de la production.
La sauvegarde dans le Cloud, très complémentaire
Une bonne stratégie de sauvegarde ne suffit pas toujours. La place pour des baies de stockage supplémentaires peut parfois manquer dans la salle serveur de l’entreprise. Autre cas, l’entreprise n’a pas les moyens financiers ou humains pour gérer un autre datacenter distant pour répliquer ses données. Dans ce contexte, les solutions d’externalisation des sauvegardes vers le cloud prennent un nouvel attrait. Avec les technologies les plus récentes, la sauvegarde peut facilement être externalisée et même déportée vers le cloud, sous forme de service accessible à la demande. Un nombre croissant d’entreprises souhaitent externaliser leur sauvegarde auprès d’un intégrateur de confiance et de proximité.
En conclusion, la migration d’applications n’est jamais un exercice simple : il faut établir la confiance dans une nouvelle solution, changer certaines habitudes et revoir fréquemment quelques procédures. D’où la nécessité de s’entourer d’experts de très haut niveau qui accompagnent les changements organisationnels et techniques, simplifient la transition, en proposant des choix pertinents pour chaque infrastructure. Le projet de sauvegarde, c’est aussi celui d’une équipe qui doit travailler en confiance. Outre l’expertise des projets, des certifications régulièrement mises à jour garantissent au client un soutien optimal et l’assurance d’une actualisation régulière des solutions technologiques. L’éditeur et le partenaire de proximité travaillent ensemble avec le client et luttent ainsi contre l’obsolescence des systèmes.
Raphaël FEDDAWI, consultant SYMANTEC chez AntemetA
A propos de l'auteur