lun, 16/09/2013 - 11:14
Avec l'essor du Cloud Computing et de la virtualisation, les environnements applicatifs n'ont jamais été aussi flexibles... et opaques ! Parce qu'ils sont par nature élastiques et imprévisibles, les entreprises peinent à en avoir une vue juste et exhaustive. Et la gestion des performances applicatives en est de fait impactée : comment en effet optimiser la résolution d'incidents de performance si on ne peut identifier l'ensemble des composants qui sont sollicités par l'application à un instant T ? Par Alain Hélaïli, Directeur Avant-Vente pour la région EMEA, Compuware.
Gestion des performances en environnements virtualisés : quand flexibilité rime avec opacité
Dans un contexte où le volume de données ne cesse d'augmenter et les flux de s'intensifier, le Cloud Computing s'est révélé, pour beaucoup d'entreprises, comme une réponse providentielle à la problématique de la disponibilité des ressources et des performances applicatives. Les environnements virtualisés fonctionnent en effet sur un principe de « recyclage » : un ou plusieurs serveurs supplémentaires peuvent être temporairement sollicités en fonction des montées en charge subies par une application, puis quitter l'environnement lorsque la charge diminue. Une élasticité qui permet aux entreprises de disposer en permanence des ressources dont leurs applications ont besoin, et ce de manière totalement transparente pour l'utilisateur mais aussi bien souvent pour les équipes IT.
Et c'est là où le bât blesse : il devient dès lors très difficile pour les entreprises d'identifier avec précision quelle application utilise quels composants et à quel moment. Parce qu'elles se fondent sur une vision partielle de leur réalité, les cartographies d'infrastructure se révèlent souvent erronées ou incomplètes. Faussant de fait la compréhension de l'impact potentiel de l'état du système sur les performances des applications et sur l'expérience de l'utilisateur final. Difficile en effet de déterminer avec certitude la cause d'une baisse de performance à un instant T si on ne peut identifier l'ensemble des composants qui étaient alors sollicités par l'application.
Révéler en temps réel les dépendances entre système et applications
Sauf à connaître en permanence l'état de l'infrastructure. Autrement dit, à être capable de fournir une cartographie précise, automatique et en temps réel de l'ensemble des ressources systèmes qui alimentent une application. Des outils perfectionnés permettent aujourd'hui de créer des modèles de navigation dynamiques en croisant un ensemble d'indicateurs clés relatifs d'une part aux applications et d'autre part aux systèmes qui les motorisent. Ce faisant, ils permettent d'en révéler les dépendances et d'identifier ainsi en permanence et à tout moment quels serveurs ou composants sont sollicités par quelles applications - et inversement.
Un atout de taille dans la mise en œuvre d'une gestion des performances applicatives (APM), en particulier dans des environnements virtualisés : ces outils permettent en effet d'avoir une photographie précise des ressources systèmes utilisées par une application à un instant T, y compris en remontant dans le temps, et de comprendre leur impact, en fonction de leur état, sur ses performances. Grâce à cette visibilité retrouvée sur l'ensemble de leur environnement applicatif, les entreprises sont désormais en mesure d'identifier immédiatement si le système est en cause en cas de ralentissement ou d'interruption de service, et le cas échéant, de résoudre l'incident plus rapidement.
Une vue unifiée des environnements applicatifs pour gagner en efficacité
La valeur ajoutée côté IT réside indéniablement dans cette capacité à accélérer la correction des incidents de performance, à gagner en réactivité et par conséquent à optimiser l'expérience de l'utilisateur final. Non seulement, comme nous venons de le voir, en découvrant automatiquement les liens directs entre systèmes et applications, mais aussi en centralisant leurs outils de supervision applicative au sein d'une seule et même plateforme. Longtemps, les entreprises ont dissocié les équipes en charge de la supervision des systèmes et celles en charge de la supervision des applications, chacune disposant de leurs propres outils et de leurs propres métriques. Résultat : en cas d'incident sur une application, les responsables applicatifs perdaient un temps considérable à obtenir les données relatives à « l'état des machines », et de fait, à rétablir le service impacté. Sans parler des problèmes de temporalité et de granularité, en particulier sur des systèmes virtualisés par nature imprévisibles, qui pouvaient rendre très compliquée la corrélation des données systèmes et des données applicatives.
Disposer d'un seul et même outil, offrant à chaque partie-prenante une vue complète mais néanmoins spécialisée de l'environnement applicatif dans sa globalité, permet ainsi à tout le monde d'avoir le même niveau d'information à partir des mêmes métriques. Et donc de mieux comprendre l'impact des problèmes de performances sur les utilisateurs finaux et la manière de les résoudre efficacement.
Alain Hélaïli, Directeur Avant-Vente pour la région EMEA, Compuware
A propos de l'auteur