jeu, 28/02/2013 - 10:54
Tout au long de l'année 2012, le big data a été à deux doigts de devenir un terme aussi galvaudé et imprécis que ne l'a été « le cloud » en 2011. Cependant, si l'on fait abstraction du buzz marketing, on constate que le big data prend de plus en plus l'allure d'opportunité pour les de recueillir des informations utiles afin de stimuler leur croissance et favoriser leur rentabilité. Par Hervé Renault, Directeur Senior Avant-vente VMware, Europe du Sud, Moyen-Orient, Afrique.
C'est d'ailleurs l'idée reflétée dans les prévisions du cabinet Gartner, selon lequel en 2013, le big data devrait générer 34 milliards de dollars de dépenses mondiales en informatique. Quant à EMC et IDC, ils estiment que l'univers du numérique devrait s'accroître jusqu'à 40 zettaoctets (ZB) d'ici 2020, une prévision supérieure aux précédentes de 5 Zo, et qui serait synonyme d'une croissance multipliée par 50 depuis le début de l'année 2010.
Économies d'échelle
Le fait est que dans le monde entier, nous générons actuellement des données à un rythme de plus en plus élevé, et cette tendance va en s'accélérant. Des sources et des quantités de plus en plus importantes de données sont créées, permettant aux entreprises de profiter de davantage d'informations et de se faire de meilleures opinions sur ce qui fonctionne ou pas et sur les éléments à privilégier pour l'avenir.
Le résultat souhaité par les entreprises est (à juste titre), de dégager un avantage concurrentiel malgré un contexte économique encore difficile. Imaginons, par exemple, qu'une entreprise augmente la fréquence de ses rapports de vente ou sur ses stocks (d'une fois par mois à une fois par semaine ou par jour), ou qu’elle offre la possibilité à tous les employés concernés (même les utilisateurs d'appareils mobiles) de générer des rapports en temps réel et en permanence. Cela équivaudrait à davantage de flexibilité, une meilleure capacité de génération d'informations et une plus grande réactivité : c'est le genre d'avantages dont il ne faut pas sous-estimer la valeur. Le challenge reste de pouvoir réellement stocker, analyser et utiliser toutes ces données, ce qui nécessite des changements sur deux plans : les mentalités et la réalité.
Changement d'état d'esprit
La plupart des entreprises génèrent d'énormes quantités de données qui ne demandent qu'à être exploitées. Les entreprises doivent désormais se focaliser sur les informations existantes, qui se trouvent souvent dans d'énormes bases de données étroitement surveillées par les départements informatiques, et les libérer.
Les services informatiques des entreprises doivent comprendre que l'intégration de données est à la fois un phénomène contemporain et une procédure qui a de tout temps été effectuée par les utilisateurs internes. Les « experts en logique d'affaires », ces individus responsables des tableurs et des calculs intensifs, génèrent des données à l'aide de systèmes de Business Intelligence et se servent de leur propre expérience afin de créer des outils pour les aider à opérer leurs calculs. Il est important aujourd'hui qu'une évolution ait lieu au niveau des modes de pensée de ces différents acteurs, afin de comprendre que leur mission s'oriente vers la génération de flux de données au profit de l'ensemble de l'entreprise.
Changement technologique
Tout d'abord, il existe un besoin d'interfaçage de ces données afin de pouvoir les combiner à d'autres et de générer ainsi des informations donnant une représentation holistique d’un phénomène. Mais pour se préparer à produire de nouvelles données en proportions plus importantes et plus rapidement, il faut adopter une nouvelle approche en matière de conception de services informatiques, une approche quasi industrielle, permettant de concevoir une plateforme évolutive et résistante pour l'avenir, et pouvant prendre de l'envergure et grandir au rythme des quantités sans cesse croissantes de statistiques et de chiffres.
Le SDDC (Software Defined Datacenter), concept qui a commencé à prendre de l'envergure au cours de la seconde moitié de l'année 2012, jouera un rôle essentiel dans cette nouvelle approche. Ce concept réunit les technologies jusque-là cloisonnées et liées à des couches matérielles spécifiques, et ouvre la voie vers le traitement de l'ensemble des opérations de façon logicielle. Résultat : une infrastructure fluide et agile, créée et contrôlée par logiciel.
La virtualisation du traitement est la première étape vers le SDDC, mais elle doit être accompagnée de l'adoption de la virtualisation stockage et de réseau. Les entreprises pourront alors adopter des technologies de big data telles que Hadoop, récemment virtualisée dans le cadre du projet Serengeti Open Source, et conçue pour permettre aux entreprises d'exploiter d'énormes quantités de données et d'en dégager des avantages concurrentiels.
Conclusions
Au-delà du battage médiatique, il est évident que le big data représente une énorme opportunité pour permettre aux entreprises d'améliorer leurs processus. Quelle qu'en soit la taille ou son activité, toute entreprise cherche à obtenir davantage de données et d'informations et à profiter de meilleures capacités à effectuer des prévisions et des prises de décision. Cependant, il est pour cela nécessaire d'acquérir de nouvelles technologies et architectures plus évolutives, car les infrastructures existantes ne sont pas en mesure de prendre en charge de tels besoins.
Hervé Renault, Directeur Senior Avant-vente VMware, Europe du Sud, Moyen-Orient, Afrique
A propos de l'auteur