Ajouter un commentaire

Par :
Romain Chaumais

ven, 18/05/2012 - 14:36

L’essor du Big Data, qui permet aux entreprises de traiter à la volée une masse exponentielle d’informations diverses, s’est construit sur une infrastructure en open source déjà hégémonique : Hadoop. Cette nouvelle donne menace le modèle économique des éditeurs traditionnels, acculés à troquer leurs technologies propriétaires contre des assemblages de briques ouvertes et à partager la valeur avec leurs clients. Une révolution. Par Romain Chaumais, co-fondateur d'Ysance et responsable du pôle Business Intelligence.

C’est une révolution silencieuse, qu’est en train de vivre le monde bien gardé des éditeurs de logiciels de Business Intelligence. Jusqu’à présent, le secteur était largement dominé par des acteurs dont le modèle économique découle de la commercialisation (licence ou abonnement) de technologies propriétaires. C’est le cas de Microsoft, d’Oracle ou de SAP, pour citer certains des plus emblématiques d’entre eux. A leurs côtés ont émergé des initiatives collaboratives dites en open source, dont le code est ouvert à tous et dont l’enrichissement découle d’une multitude de développements individuels à travers le monde. C’est le cas du système d’exploitation Linux, pionnier du logiciel libre, autour duquel se sont agrégées au fil des années de nouvelles couches logicielles et pour lequel des éditeurs se sont spécialisés dans le rôle d’assembleur tel que RedHat. Mais jusqu’à récemment, dans le domaine de la BI, les offres open source se sont contentées de cohabiter avec les outils propriétaires, sans jamais parvenir à les remplacer.

Hadoop : une technologie ouverte enrichie par les éditeurs traditionnels et les purs acteurs du web

Récemment, un nouveau type de pratique a perturbé l’ordre établi du monde du décisionnel. Entre les commentaires sur les réseaux sociaux, les points de contacts machine-to-machine ou encore le suivi du trafic sur le web, les entreprises ont désormais accès à une masse exponentielle d’informations. Or si elles répondent à des besoins stratégiques de type aide à la décision pour l’entreprise et recèlent donc une grande valeur économique, ces dernières dépassent très largement la capacité des outils traditionnels, inadaptés à la gestion intensive de pétaoctets de données. Pour répondre à ces nouveaux besoins, rassemblés autour du concept de Big Data, un nouveau type d’architecture logicielle a vu le jour, appelé Map Reduce, dont l’approche consiste à explorer, puis à révéler à la volée des données chaudes, brutes et non structurées (à l’inverse des technologies relationnelles qui traitent plus particulièrement des données froides, structurées… et en bien moins grand nombre).

Or ce nouvel environnement est bien différent des précédents. Alors que plusieurs éditeurs se partagent historiquement le marché des bases de données relationnelles, il ne reste d’ores et déjà plus qu’un seul moteur de type Map Reduce : Hadoop. Et justement, celui-ci est ouvert. Rappel des faits. En 2008, Google publie son algorithme phare, appelé Google Big Table, dont Yahoo s’empresse de proposer un clone en open source. Hadoop est né. Très rapidement, ce moteur fédère un conglomérat d’acteurs divers animés depuis 2009 par la Fondation Apache, une organisation à but non lucratif qui développe des logiciels en open source de longue date. Ces derniers créent en un temps record un écosystème complet et ajoutent sans cesse de nouvelles briques accessibles à tous, qui permettent notamment de faciliter l’administration d’Hadoop, de le sécuriser ou encore de l’interfacer plus facilement avec les technologies existantes. Bref, de le démocratiser. S’y côtoient des éditeurs traditionnels, comme Oracle, Teradata ou des acteurs purs du web, tels que Facebook, Twitter, eBay ou bien sûr, Yahoo. Cette liste déjà longue de contributeurs ne cesse de s’allonger.

Une démultiplication des ROI accessible jusqu’aux TPE

Même si Hadoop n’était peut-être pas initialement la technologie la plus performante, son environnement s’est enrichi tellement rapidement qu’aucun acteur privé n’est déjà plus en mesure d’aligner seul les ressources en R&D nécessaires pour contrer cette dynamique. Cette déferlante a du coup étouffé toute velléité de concurrence propriétaire, devenant hégémonique en à peine quatre années d’existence. Même Microsoft a fini par troquer sa technologie maison (Windows HPC Server, abandonnée en novembre dernier), au profit d’une solution construite sur Hadoop (Windows Azure). Finalement, il ne reste plus aux éditeurs traditionnels qu’à assembler des distributions de briques complémentaires sommées d’interagir autour d’un même noyau ouvert, à l’instar du modèle économique d’un acteur comme Red Hat dans l’univers Linux.

Il aura donc fallu attendre l’avènement du Big Data pour voir des éditeurs traditionnellement de la BI aussi propriétaires que Microsoft ou Oracle apprendre le partage et bâtir des distributions de briques logicielles autour d’une architecture en open source. Autrement dit, Hadoop a réussi sur le même modèle que Linux dans les systèmes d’exploitation : dans l’hégémonie d’une technologie ouverte. Ce modèle économique est lourd de conséquences, pour les éditeurs du décisionnel, désormais obligés de partager la valeur avec leurs clients. Il l’est aussi pour les utilisateurs, qui peuvent accéder au moindre coût à des outils décisionnels ultra-performants et avant-gardistes, avec des ROI démultipliés par rapport aux projets habituels. Elle est là, la révolution : Hadoop a permis de déverrouiller le marché du Big Data dès sa genèse et le rendre accessible à tous, des grands groupes jusqu’aux… TPE. Ce n’est pas la moindre de ses conséquences.

A propos de l'auteur

Romain Chaumais

Filtered HTML

Plain text

CAPTCHA
Cette question permet de vérifier que vous n'êtes pas un robot spammeur :-)
 H  H      J  H  H  W     W  V     V 
H H J H H W W V V
HHHH J HHHH W W W V V
H H J J H H W W W V V
H H JJJ H H W W V