Ajouter un commentaire

Par :
Daliane Calvani

lun, 13/02/2012 - 14:20

Trop souvent encore, les questions de gestion et de qualité des données se posent après un constat d’échec, et non dans un objectif de performance. Par Daliane Calvani, Manager Pôle Conseil Ysance.

Les données sont l’essence même de toute entreprise. Elles constituent un véritable enjeu commercial, engageant la performance et la compétitivité des entreprises. Le problème est qu’à l’ère du Big Data les entreprises doivent faire face à un afflux massifs de données et donc par voie de conséquence à davantage de risques de dégradation de qualité. A terme, c’est l’ensemble des couches organisationnelles de l’entreprise qui en pâtit.

C’est pourquoi, la création d’une entité chargée de la gestion des référentiels de données – appelée Master Data Management (MdM) – s’avère de plus en plus nécessaire, voire indispensable pour certaines structures. Pourtant, et malgré la prise de conscience générale de l’importance de la donnée, les entreprises sont encore frileuses à mettre en place une politique de Data Management. En causes : la complexité du projet, son impact organisationnel et un ticket d’entrée jugé trop élevé face à un retour sur investissement (ROI) difficilement quantifiable. Et pourtant…

Qu'elles soient commerciales, financières, concurrentielles ou légales, les données des référentiels nécessitent d'être structurées pour être stockées et historisées au sein d'un «Repository ». Le Master Data Management est né de la convergence de deux tendances : la montée en puissance des architectures orientées services et le nombre d’applications interconnectées (ERP, site, médias sociaux, outils logistiques…). Gérer la fiabilité et la cohérence des données dans ce contexte devient un vrai casse tête pour les entreprises.

D’autant que l’organisation en silo, qui prime encore dans bon nombre de sociétés, complique davantage la tâche. En cas d’erreur sur les données (NPAI, retours d’e-mailing ou de facture, non-vente…), des corrections sont opérées mais de manière composite et cloisonnée par chacun des métiers sans se répercuter aux autres applications, engendrant une perte de temps, toutefois difficile à évaluer.

Et le problème est bien là : l’atomisation et l’hétérogénéité des données dans chaque application de l’entreprise compliquent toute tentative de calculer a priori le ROI d’un projet de MdM. A l’inverse, pour non optimale qu’elle soit, une mauvaise qualité ou gestion des données n’impacte pas pour autant le quotidien des utilisateurs, ni ne bloque les rouages de l’entreprise. Cette opacité empêche ces dernières de se projeter dans une démarche préventive et de se poser la bonne question : « quel est mon risque, si je ne surveille pas mes données ? ». Faute d’y avoir répondu à l’avance, les questions de gestion de qualité des données se posent encore trop souvent suite à un constat d’échec, et non dans un objectif de performance.

Le manque à gagner est pourtant bien réel. Les bases de données n’apportent qu’une vue partielle, souvent erronée, d’un type de données métiers, alors que le Master Data Management en offre une vision globale et exhaustive. Bien que la mise en œuvre nécessite une forte composante technique, le principe du MdM est simple : il s’agit de rassembler au sein d’un « observatoire unique » et centralisé les données de référence (codes articles/produits, fournisseurs, employés…), de les hiérarchiser et de les synchroniser, pour ensuite les diffuser aux différentes applications de l’entreprise en fonction de leurs besoins.

Les utilisateurs partagent ainsi, en mode synchrone, la même version des données de référence. Cette vision transversale unique et consolidée améliore considérablement la qualité des flux métiers et facilite en retour la gouvernance des différents référentiels de l’entreprise. C’est d’ailleurs dans ces termes que le ROI peut être calculé, car plus les utilisateurs sont nombreux à « consommer » une même donnée, plus la fréquence de synchronisation est élevée, plus vite l’entreprise rentrera dans ses frais.

Autre avantage, les solutions de Master Data Management sont « agnostiques » c’est-à-dire qu’elles respectent l’urbanisation du système d’information et s’adaptent aux contraintes technologiques imposées par l’entreprise. Le MdM s’avère, par exemple, idéal dans les cas de fusion ou rachat de sociétés, il permet la migration de deux structures différentes – tant au niveau technique, opérationnel que des workflows – en un modèle unique et fiable.

En conclusion, et malgré les schémas d’adoption encore fluctuant, le Master Data Management apporte des bénéfices évidents. Il garantit une meilleure gestion des pratiques internes et externes de l’entreprise et génère, à terme, un ROI conséquent. Ce qui laisse présager pour le marché du MdM un bel avenir au cours des deux ou trois prochaines années. Le cabinet Gartner a d’ailleurs constaté que les revenus du marché du Master Data Management se sont élevés à 1,5 milliard de dollars en 2010 et devrait doubler à l’horizon 2014. Ce n’est qu’un début.

Daliane Calvani, Manager Pôle Conseil Ysance

A propos de l'auteur

Daliane Calvani

Filtered HTML

Plain text

CAPTCHA
Cette question permet de vérifier que vous n'êtes pas un robot spammeur :-)
 U   U  III  DDD   RRRR   DDD  
U U I D D R R D D
U U I D D RRRR D D
U U I D D R R D D
UUU III DDD R RR DDD