Ajouter un commentaire

Par :
Mathieu Dubois

mer, 20/03/2013 - 09:59

Même si certains acteurs du marché se sont déjà lancés, « Big Data » est encore loin de faire l’unanimité en France où il est (trop ?) souvent perçu comme un terme marketing uniquement.  Et pourtant … D’après différentes études parues récemment, le marché du « Big Data » arrivera a maturité en 2020. De son côté, Gartner évalue ce marché 30 milliards de dollars en 2013. Vous êtes très certainement 4G ready, IPv6 ready et autres mais êtes-vous « Big Data » ready ? Par Mathieu Dubois, Ingénieur Sécurité Réseaux, Nomios.

« Big Data » est un terme abstrait, je vous l’accorde. Un terme « marketing » ? Oui mais …

Il s’agit en réalité d’un concept qui a pris un nouvel essor depuis un peu plus de deux ans. Pourtant la notion de « Big Data » ne date pas d’hier. Dans son livre « Le travail à la vitesse de la pensée » en 1999, Bill Gates annonçait déjà « How you gather, manage and use information will determine whether you win or lose ».

Entre recyclage et réelles avancées, qu’est ce qui se cache vraiment derrière la notion de « Big Data » ? Faut-il se lancer ? Quels en sont les risques, les contraintes, les opportunités ? Quels sont les pièges à éviter à l’heure où les chiffres annoncent 500 To de données indexés chaque jour par Facebook et 110 To pour Apple ?

Que se cache t-il derrière la notion de Big Data ?

La recherche permanente de la compétitivité constitue l’une des activités les plus critiques pour toutes les entreprises, quel que soit leur secteur d’activités. Indispensable à la survie de l’entreprise, elle fait apparaître sans cesse de nouveaux besoins. Pour avoir « un coup d’avance » sur son concurrent, il faut quasiment systématiquement disposer d’une information supplémentaire. Et pour disposer d’une information supplémentaire, il faut avoir une source que les concurrents exploitent mal voire pas du tout.

Pourquoi ne pas profiter des données dont l’entreprise peut disposer grâce à son système d’information ? Les données brutes doivent bien entendu être converties en informations exploitables, elles-mêmes devant être converties en actions ou décisions concrètes pour avoir un intérêt. Ici ce sont bien les données brutes qui sont le point de départ de ce nouveau processus décisionnel.

 

La viabilité du processus repose sur plusieurs aspects. La pertinence des actions ou décisions liées à l’analyse des données ne peut être garantie sans :

  • Une grande quantité de données exploitables et présentant un intérêt bien entendu. Pour être en mesure d’effectuer une analyse pertinente, plus il y a de données plus les informations extraites sont nombreuses et plus les tendances identifiées sont précises.
  • La diversité des sources de données. Chaque source d’information a son intérêt, plus ou moins grand. Il va de soi qu’en cumulant les sources, on obtient une vision plus globale.
  • La capacité à obtenir, traiter et analyser les données dans les meilleurs délais. La même information n’a pas la même valeur si elle est obtenue aujourd’hui ou dans dix ans. Quelle serait votre réaction si je vous annonçais dans deux ans que les réseaux sociaux sont un filon à creuser pour faire fortune ? Pourtant l’information en elle-même est bonne !

 

On vient d’identifier les trois clés de voute du « Big Data », les trois « V » : Volume, Variété, Vélocité. Parce que comme son nom ne l’indique pas, « Big Data » ce n’est pas que des gros volumes de données.

Enfin, ce processus, pour être fiable et exploitable à grande échelle, génère de nouvelles contraintes : mise en place de nouvelles méthodes de travail, utilisation de nouveaux outils, acquisition de nouvelles compétences et surtout, dans la majorité des cas, acceptation d’une nouvelle vision des choses.

Premiers pas dans le Big Data

Se lancer dans le « Big Data » est un vaste chantier. Les objectifs peuvent être divers et variés, il en va de même pour la stratégie à adopter, les méthodes de travail et les outils à utiliser. La première étape est donc de définir un plan de marche précis et des premiers objectifs concrets, le tout sur un périmètre restreint et sur une période définie. On peut considérer cette phase comme un premier pas dans le « Big Data ». C’est cette étape qui va permettre de déterminer ce qui est réalisable, comment et avec quels outils.

Les contraintes et les pièges pour arriver à des résultats dignes de ce nom sont nombreux. D’un point de vue purement technique, la contrainte la plus évidente concerne les capacités du système d’information à stoker de très grands volumes de données. Les exemples donnés plus haut pour Facebook et Apple ne concernent que quelques mastodontes mais en fonction du secteur d’activité et du périmètre défini, les chiffres peuvent tout de même faire peur à première vue.

Au-delà du stockage, l’exploitation au sens large de ces données demande des moyens humains pour les étapes de mise en forme, tri intelligent, arbitrage sur les décisions à prendre en fonction des informations récupérées, etc.

Enfin, même si un certain flou juridique demeure aujourd’hui (notamment en ce qui concerne l’harmonisation des règlements au niveau international), il est impératif pour les entreprises de conserver certains « logs » ou journaux d’événements*, en particulier les logs de navigation web.

Cette contrainte doit être vue par les équipes techniques comme une opportunité. En effet, la conservation des logs et la capacité à présenter un certain nombre d’informations plusieurs mois après les faits sont des exigences non négociables. Mais quoi qu’il arrive, des outils, des méthodes de travail et des personnes compétentes sur le sujet sont indispensables. Pourquoi ne pas en profiter pour faire plus que ce qui est imposé ? Avec les mêmes outils, les mêmes personnes et le même mode de fonctionnement, on peut aller plus loin.

Le « Big Data » est là, à portée de main. Tous les ingrédients sont réunis, il ne manque plus qu’un peu de créativité !

Au-delà des moyens humains, il est bien entendu indispensable de disposer d’outils adaptés et c’est peut-être à ce niveau là que se fait la différence.

De nombreuses solutions existent sur le marché, des solutions « free », à des solutions de SIEM en passant par des solutions orientées Business Intelligence, l’offre est pléthorique. Pour jouer sur tous les tableaux et être en quelque sorte « le premier de la classe », la bonne conduite à adopter est surtout de « choisir sa voie ». En fonction de cela, un outil sera forcément plus adapté au besoin que les autres. Tout est  donc une question d’objectifs et de contexte.

Enfin, réussir son projet « Big Data » c’est aussi et surtout assurer un suivi au quotidien, prévoir l’évolution des outils et du périmètre et se remettre en question de façon permanente. Bref, rien ne remplace l’implication humaine.

Le Big Data, pour quoi faire ?

Certes, se lancer dans « Big Data » impose de nombreuses contraintes et engendre de nouveaux besoins. Mais l’objectif ici est d’obtenir de nouveaux résultats et les bénéfices à portée de main sont, eux aussi, nouveaux. En ce sens, tous les efforts consentis doivent être vus comme une évolution positive du système d’information et de ses acteurs plutôt que comme une simple contrainte.

La notion de « Big Data » remet au goût du jour des concepts qui ont plus de dix ans. En effet, l’analyse des données informatiques ne date pas d’hier : les sites marchands exploitent les statistiques de connexions depuis toujours pour mieux cibler les clients, faire évoluer l’offre et redéfinir constamment la stratégie.

On n’évoquerait pas le concept s’il n’y avait pas d’intérêts potentiels pour les entreprises. En effet, le « Big Data » offre des opportunités jusque là jamais exploitées dans des domaines comme le marketing (analyse des comportements), les ressources humaines (exploitation des données issues des réseaux sociaux) ou encore la logistique (redéfinition des itinéraires en fonction des conditions de circulation).

Au-delà de ces domaines ou métiers directement impactés par l’utilisation des données à disposition, les applications sont multiples et les possibilités infinies. 

En guise d’exemple concret, l’analyse des connexions au site web et des adhésions à la fan page de Lady Gaga sur Facebook a conduit à un constat simple : la chanteuse compte de nombreux fans en Amérique latine. Alors qu’aucun concert n’y était prévu, le continent sud-américain a été ajouté à la tournée de la chanteuse et le succès était au rendez-vous. Dans cet exemple on perçoit clairement le cycle Données à Information à Action à Résultats quantifiables.

Confronté à un afflux de données sans précédent, le système d’information doit évoluer pour répondre aux exigences de demain. Perçu comme une contrainte au départ, ce besoin a ouvert de nouveaux horizons et offert aux entreprises une nouvelle voie vers la compétitivité.

Défi technique et organisationnel, « Big Data » ne se limite pas à la manipulation de gros volumes de données comme son nom ne l’indique pas. Vélocité et variété sont également des éléments clés du concept.

Apprendre à exploiter correctement la masse de données doit être une considération majeure pour le futur proche. L’enjeu  pour les entreprises ? Se donner une nouvelle arme pour améliorer une offre ou un positionnement et mieux maîtriser ses clients et prospects. Les possibilités sont infinies et les exemples nombreux.

Mathieu Dubois, Ingénieur Sécurité Réseaux, Nomios

A propos de l'auteur

Mathieu Dubois

Filtered HTML

Plain text

CAPTCHA
Cette question permet de vérifier que vous n'êtes pas un robot spammeur :-)
 DDD   X   X  U   U  X   X  RRRR  
D D X X U U X X R R
D D X U U X RRRR
D D X X U U X X R R
DDD X X UUU X X R RR