Ajouter un commentaire

Par :
Pascal Stopnicki

mer, 03/03/2010 - 14:43

Fort de son expérience de près de 20 ans dans la mise en œuvre de SIGR (Systèmes d’Information pour la Gestion des Risques) pour des entreprises du monde entier et de toutes taille, Pascal Stopnicki, PDG d’Effisoft, analyse pourquoi la qualité des données est une problématique majeure des Risk Managers. Il explique ainsi comment la rigueur, la méthodologie et les nouvelles technologies permettent d’en faire un véritable atout.

Dans un contexte « d’économie immatérielle » propre au secteur tertiaire, disposer d'un capital de données de qualité est une nécessité primordiale pour l’entreprise. La qualité de ces informations est du reste l'un des 11 facteurs du modèle d'intelligence économique identifiés par l’AFDIE (Association Française pour le Développement de l'Intelligence Economique), dans la catégorie « facteurs de résultats ».Or, un rapport de 2008 réalisé par JEMM Research indique que seulement 16 % des entreprises ont mis en place un programme de qualité de données. Ce risque n’est d’ailleurs que très rarement identifié dans les cartographies des Risk Managers.

Pourtant, le Risk Manager est, de par son activité, amené à manipuler un grand nombre de données parmi lesquelles la description des risques, les actions de prévention, le détail des polices d’assurances, les informations sinistres, des adresses, des contacts, etc. Plus ces données seront nombreuses, anciennes, structurées et fiables, plus le travail du Risk Manager sera précis et efficace. Elles lui permettront notamment d’optimiser :

-sa gestion au quotidien ;

-ses analyses menant à des décisions argumentées et documentées ;

-sa communication interne et externe.

En résumé, cela lui permettra d’impacter plus ou moins significativement la pérennité et les performances de son entreprise.

Le Risk Manager doit donc disposer d’une base de données de référence, interconnectée avec divers autres sources et régulièrement mise à jour. Mais, comme nous venons de le voir, ce puits de données n’aura de réels intérêts que si ces dernières sont homogènes et fiables.

Afin d’étudier les moyens de tendre vers cette qualité des données, distinguons les différentes étapes de gestion : la saisie / les imports automatiques et la validation.

Pour commencer, on ne peut laisser la base totalement accessible par tous. D’où l’intérêt de pouvoir gérer finement des droits d’accès aux données selon les profils d’utilisateurs.

Au niveau de la saisie, il faut par exemple des options pour pouvoir recouper les différentes sources de données, comme la comparaison des montants « année après année ». A titre d’illustration, on peut imaginer que si la saisie N+1 est supérieure de X% à la saisie N, alors le déclarant devra se justifier.

Il est aussi important de limiter le nombre de champs « texte » et de multiplier les listes déroulantes à choix prédéfinis. Ceci permet de guider la saisie et facilite les analyses quantitatives.

On peut de plus éviter les ambigüités en définissant précisément les données attendues à côté des champs à remplir.

Pour simplifier la tâche des utilisateurs non spécialistes mais obligés d’alimenter la base, comme par exemple ceux qui déclarent les sinistres, il faut par ailleurs disposer de formulaires intelligents à l’ergonomie optimisée dont les questions changent en fonction des réponses des utilisateurs.

Ces formulaires doivent également être extrêmement simples pour permettre à des centaines d’utilisateurs répartis dans le monde et parlant des langues différentes de saisir de l’information sans avoir été formés.

L’alimentation du système se réalise aussi par imports automatiques de sources très diverses. On a alors recours à des technologies adaptées comme un ETL (= Extract-Transform-Load) ou un EAI (= Enterprise Application Integration) permettant d'effectuer des synchronisations massives (ETL) ou en temps réel (EAI) d'information d'une base de données vers une autre.

Enfin, la Direction Risk Management (DRM) centrale ou locale doit toujours contrôler les données saisies avant leur enregistrement définitif. Là encore des outils bien spécifiques (SGC = Système de Gestion de Contenu ou CMS = Content Management System) peuvent lui faciliter la tâche.

Toutes ces techniques qui forment la base de l’informatique décisionnelle (ou Business Intelligence) se retrouvent dans certains logiciels de gestion des risques et des assurances à disposition des Risk Managers.

Au terme de cet exercice, le Risk Manager peut maintenant s’appuyer sur les informations de la base pour effectuer de multiples analyses et générer des rapports pré-formatés faciles à mettre à jour (simuler les montants de franchises, ventiler les primes, obtenir les ratios S/P, calculer le coût du risque…) car  la qualité d’une donnée ne doit pas être appréciée dans l’absolu mais de façon relative à son intérêt métier.

Thomas H. Davenport, qui enseigne l’art des systèmes de gestion de l’information à la School of Management (université de Boston) estime en effet que « la transformation des données en quelque chose de plus utile exige un niveau important d'intelligence et d'attention. Encore une fois, la plupart des entreprises ne considèrent le problème que sous l'angle technologique. Un système de « data warehouse » ou de « data mining » est certes nécessaire, mais pas suffisant pour assurer un haut niveau d'information et de connaissance. »

Bonne nouvelle donc : un logiciel, aussi perfectionné et indispensable soit-il, ne remplacera jamais le Risk Manager !

Pascal Stopnicki, PDG d’Effisoft

A propos de l'auteur

Pascal Stopnicki

Filtered HTML

Plain text

CAPTCHA
Cette question permet de vérifier que vous n'êtes pas un robot spammeur :-)
 L     Y   Y  PPPP   N   N  FFFF 
L Y Y P P NN N F
L Y PPPP N N N FFF
L Y P N NN F
LLLL Y P N N F