Ajouter un commentaire

Par :
Nathalie Schulz

ven, 08/03/2013 - 12:46

Alors qu’historiquement, depuis la création des premières bases de données dans les années 1960, les entreprises avaient exclusivement à faire à des données structurées, provenant d’une seule source d’information, elles doivent désormais composer avec une multiplicité de sources, provenant de canaux toujours plus variés : ordinateurs, mobiles, tablettes, GPS, ... et bientôt, téléviseurs, voitures... puis à terme tout objet connecté. Par Nathalie Schulz, Directrice générale de DQE Software.

 Force est de constater que l’on assiste aujourd’hui à une véritable explosion de la masse de données à traiter, qui croit de façon totalement inédite. Selon une récente étude EMC / IDC*, le volume de données générées par des machines devrait ainsi être multiplié par 15 d’ici 2020, pour atteindre un niveau 50 fois plus important qu’en 2010.

L’intégration de toutes les données, enjeu du Big Data

Dans ce contexte, la grande difficulté consiste à bien appréhender la diversité de ces données, alors qu’on estime que plus de 85% d’entre elles sont hétérogènes et non structurées.

Ce sont les véritables enjeux du « Big Data » ! Un gisement de connaissances clients qui, bien analysé et traité, peut s'avérer un puissant atout de performance commerciale. Mais qui, à l’inverse, mal appréhendé, peut avoir des répercussions négatives.

Malgré cela, à en croire une récente enquête Forrester pour l'Association of Business Process Management Professionals (ABPMP)**, les décideurs ne se sentent pour l’instant que très peu concernés par la problématique de la qualité des données.

Et ce alors même qu’ils ont à faire face à une détérioration progressive de la qualité de leurs bases de données, sous les effets conjugués d’approches multicanales non-intégrées, de la croissance exponentielle des données, des erreurs de saisie dans les formulaires des sites internet ou de commerce électronique, et de la nécessité d’intégrer de plus en plus de données extérieures.

Pour une base de données de plusieurs millions de clients, on imagine bien l’impact que cela a, en termes de performance marketing et commerciale, mais également en termes d’alourdissement des processus et des coûts de traitement.

Prenons l’exemple des NPAI ou PND, les retours de courriers pour adresse non valide. La Poste estime aujourd’hui que 200 millions de PND équivalent à 183 millions d’euros de perte pour les entreprises***.On comprend donc pourquoi un taux de NPAI faible est souvent considéré comme un indicateur de bonne qualité d'un fichier ! Et avec un coût de traitement pouvant aller jusqu’à 10 € par NPAI, si l’on intègre l’ensemble de la chaîne de traitement, souvent manuelle, le manque à gagner est tout simplement colossal.

Vers une démarche de « e-DQM » (Data Quality Management)

On l’a compris, la qualité de la base de données clients est devenue un enjeu stratégique pour toute entreprise, à l’heure de la digitalisation de la relation client et du 2.0. Il faut en finir avec l’approche de certaines entreprises qui consiste à « mettre la poussière sous le tapis » pour retarder l’échéance des projets de consolidation et de standardisation des données.

J’ai souvenir par exemple, d’une grande entreprise multinationale qui a découvert, via un projet de DQM, qu’elle payait plus du double de licences que nécessaire de son ERP au niveau mondial, tout simplement pour un problème de doublons dans sa base de données de salariés.

Quand on voit de telles erreurs sur une base RH, dont les sources sont maitrisées en interne par l’entreprise, on peut présager de l’ampleur de la problématique sur des bases clients, qui agrègent des sources multiples et impactent l’entreprise à tous les niveaux de la démarche commerciale. Or la gestion de la qualité de la base de données, ou DQM, est une brique essentielle pour construire une relation fiable et pérenne avec ses clients, tout au long du « cycle de vie » de la relation commerciale.

A l’ère du client omnicanal et de l’instantanéité, la qualité de la donnée est de la responsabilité de tous dans l’entreprise, du call center qui remplit le formulaire au service courrier qui fait partir les mailings, de sorte que toute nouvelle information vienne enrichir la base de manière structurée et fiable, et ainsi être réinjectée sur tous les canaux numériques, pour que le client soit reconnu, accompagné, conforté, en temps réel !

Des technologies existent pour faciliter cette démarche. De manière curative, on applique le précepte : « auditer, standardiser, dédoublonner, fusionner, enrichir ». Et de manière préventive, on met en oeuvre des nouvelles pratiques, comme l’aide à la saisie sur les formulaires en ligne par exemple, pour optimiser les ajouts d’informations dans la base.

Plus encore que de DQM, nous devrions donc parler aujourd’hui de « e-DQM », pour tout ce qui concerne la gestion de la qualité de la donnée sur la relation client digitalisée, à l’heure du tout numérique. Avec un objectif, aussi simple qu’ambitieux : réussir à maintenir en temps réel une vision unique et consolidée du client, pour construire un parcours digital omnicanal, favorisant la mutation du prospect en client, du client en « ami », et de l’ « ami » en ambassadeur de la marque.

Nathalie Schulz, Directrice générale de DQE Software

Sources :

*http://www.decideo.fr/Nouvelle-edition-de-l-etude-EMC-IDC-The-Digital-Universe-ALORS-QU-ELLESPEUVENT- VALOIR-DE-L-OR-MOINS-DE-1-DES-DONNEES_a5759.html

**http://blogs.forrester.com/kate_leggett/12-02-04- poor_data_quality_an_often_overlooked_cause_of_poor_customer_satisfaction_scores

***http://www.laposte.fr/sna/rubrique.php3?id_rubrique=57  

A propos de l'auteur

Nathalie Schulz

Filtered HTML

Plain text

CAPTCHA
Cette question permet de vérifier que vous n'êtes pas un robot spammeur :-)
 N   N  X   X      J  X   X   SSS  
NN N X X J X X S
N N N X J X SSS
N NN X X J J X X S
N N X X JJJ X X SSSS