lun, 09/09/2013 - 12:30
Le cloud quantique est une révolution dans le monde du cloud computing. Le terme « cloud quantique » désigne un service de cloud computing dont les données coexistent en temps réel sur plusieurs centres de données informatiques (datacenter). Il fait référence à la physique quantique et plus particulièrement aux « particules intriquées ». Par Sébastien ENDERLE, Fondateur d’ASP Serveur.
Dans ce contexte, nous allons dans un premier temps en donner un aperçu tangible et présenter factuellement ses principaux apports.
1. Niveau de disponibilité record de 100 %
Le niveau de disponibilité théorique du cloud quantique est de 100 % par addition des niveaux de disponibilité des datacenters de type TIER III (les plus couramment répandus), chaque datacenter de type TIER III affichant une disponibilité théorique de 99,982 % par an.
Le cloud quantique permet la reprise immédiate, automatique, à chaud et sans perte de données des services de cloud computing sur un second datacenter.
L’utilisation d’une infrastructure validée de cloud quantique permet au prestataire de services de cloud computing de s’engager sur une disponibilité contractuelle de 100 %. Notez que ce niveau de disponibilité est actuellement impossible à atteindre avec n’importe quelle autre technologie selon l’état de l’Art, bien que certains prestataires ne se privent pas d’utiliser le 100 % de disponibilité comme argument marketing. Il est aisé de comprendre qu’en tout état de cause, une infrastructure basée sur un seul datacenter ne pourra jamais dépasser la disponibilité théorique de ce datacenter, soit 99,982 % pour les datacenters de TIER III et 99,995 % pour les datacenters de TIER IV.
2. Affranchissement total des PRA et PCA (Plans de reprise d’activité et Plan de continuité d’activité)
Le cloud quantique dispose par essence d’un mécanisme de reprise ou de continuité d’activité sur un second datacenter. Le jeu de données étant cloné de manière synchrone entre les datacenters, la reprise d’activité est immédiate et sans aucune perte de données. Le temps de bascule en cas de panne est si instantané (inférieur à quelques millisecondes) qu’il est imperceptible par les clients distants (Navigateur, RDP, VNC, CITRIX...).
Note : cette nouvelle technologie n’affranchit pas de la mise en place d’archivage (sauvegarde sur plusieurs jours glissants par exemple) si vous souhaitez retrouver un jeu de données antérieures à la date du jour.
3. Résilience record des données
Dans le cadre de l’utilisation du cloud quantique, les données coexistent en temps réel sur deux datacenters distants. Un incident dans un des datacenters intriqués n’affecte pas la résilience des données. La résilience totale signifie que la perte de données n’est plus possible théoriquement sauf cas extrême (bombardement atomique...).
Quel est le principe de fonctionnement du cloud quantique ?
L’infrastructure nécessaire pour le cloud quantique est la suivante :
- placement des datacenters distants dans le même LAN (Local Area Network) ;
- duplication des réseaux de sortie opérateurs sur les datacenters distants ;
- synchronisation des équipements réseau.
Interconnexion des datacenters distants à très haute vitesse et très faible latence réseau (fibres FC400 et latence réseau inférieure à une milliseconde).
Mise en place d’un système de stockage capable d’un clonage synchrone des données sur deux datacenters distants dans un contexte de très haute connectivité
Mise en place d’un « orchestrateur » capable de piloter la plupart des hyperviseurs du marché. Cet orchestrateur prendra la décision de migrer à chaud et automatiquement les machines virtuelles en cas de défaillance d’un serveur hôte, d’un élément d’un datacenter ou d’un datacenter complet.
Mise en place d’un cluster actif/actif de load-balancer physique. Une fois ces éléments mis en place, il suffit de placer les serveurs hôtes dans deux datacenters A et B. La partie stockage des serveurs hôtes n’est jamais en local, mais elle est confiée au MetroCluster qui assure le clonage synchrone des données. Les données étant les mêmes sur chaque datacenter, en cas de panne d’un serveur hôte ou du datacenter A, l’hyperviseur du datacenter B va simplement utiliser les données présentes sur le datacenter B. Il n’y a pas copie de données, pour cette raison la migration à chaud est instantanée. Les datacenters étant placés dans le même réseau, l’adressage IP ne change pas et il n’y a donc pas de délais de propagation. Les load-balancer physiques offrent une fonctionnalité supplémentaire en ajoutant la répartition de charge sur plusieurs datacenters en plus de la tolérance de panne. Ils permettent aussi la virtualisation des adresses IP.
Conclusion
76 % des 1 275 décideurs informatiques, financiers et juridiques européens interrogés en décembre 2012 ont indiqué avoir migré leurs données vers le Cloud ou envisageaient de le faire au cours des douze prochains mois, selon une étude réalisée par Opinion Matters pour Iron Mountain. Ils sont même 21 % à vouloir opter pour un modèle exclusivement cloud pour stocker l’ensemble de leurs données.
Rappelons-le, la directive de l’UE en matière de protection des données stipule que « le responsable du traitement [des données] doit mettre en œuvre les mesures appropriées pour protéger les données à caractère personnel contre la destruction accidentelle ou illicite, la perte accidentelle, l’altération, la diffusion ou l’accès non autorisé ».
Il apparaît aujourd’hui stratégique de choisir le prestataire qui propose les engagements les plus forts du marché et qui dispose des infrastructures et des technologies permettant de tenir réellement ces engagements. Opter pour le cloud quantique permet de s’appuyer sur un partenaire fiable qui s’engage sans compromis sur une disponibilité contractuelle avec pénalités financières de 100 %.
Sébastien ENDERLE, Fondateur d’ASP Serveur
A propos de l'auteur