Ajouter un commentaire

Par :
Frédéric Mazué

mer, 26/05/2010 - 16:42

Pascal Travers, Directeur du marché Banques et Assurances chez Cross Systems, la filiale suisse de Micropole-Univers, reviens sur les problématiques de gestion des risques bancaires qui restent inadaptées dans un contexte économique complexe et changeant.

Depuis que l’activité de prêter ou de placer de l’argent a vu le jour, le risque financier est apparu, le supplément de remboursement versé étant pour partie rémunération du risque pris par le prêteur. La notion de risque s’est ensuite généralisée à tous les domaines de la banque, conduisant le banquier à devenir un super-gestionnaire des risques. Le challenge est alors d’optimiser l’activité en identifiant le meilleur rendement pour un risque minimal.

Premier risque à gérer, le risque crédit reste fortement lié à la situation de la contrepartie, quelle que soit sa nature, particulier ou entreprise, qu’il faudra toujours mieux connaître. Des solutions de CRM (Customer Relationship Management) ou de Scoring répondent au besoin, mais restent encore sous-utilisées par l’industrie bancaire.

Dans le financement du négoce se démarque une approche transactionnelle, où les acteurs cherchent à appréhender la situation la plus complète de leurs clients en suivant l’ensemble des engagements avec leurs collatéraux, de la demande de crédit au dénouement de la transaction. La banque doit alors gérer en temps réel son exposition totalement liée aux marchandises. Cette démarche fait des émules, mais les solutions informatiques restent l’apanage des pionniers et celles disponibles sur le marché sont encore balbutiantes.

Quant au risque de marché, il a été un des premiers à être traité par des modèles mathématiques qui se sont par essence facilement prêtés à l’informatisation. Les plus récents progrès ont été introduits par la mise en place de nouveaux outils pour le référentiel des valeurs. Alimentés par multiplexage des flux de marché fournis par des acteurs internationaux et délivrant aux silos applicatifs des données hautement qualifiées, ces référentiels ont permis aux systèmes d’évaluation du risque d’être plus réactifs.

Le dernier volet de Bâle II consacré au risque opérationnel s’inquiète de la probabilité de survenue d’un incident : un dysfonctionnement, une procédure inadaptée, une malveillance peuvent avoir un impact sur l’activité. Il est alors préconisé d’historiser ces incidents et les analyser pour adapter ses procédures. Encore faut-il s’assurer qu’elles soient vraiment suivies et quand bien même : comment imaginer ce qui ne s’est pas encore produit ? A cet endroit, la mise en place d’outils de veille de l’information peut être un avantage.

Enfin, le choix du plus fort rendement a parfois fait oublier aux plus téméraires le risque encouru. Aussi les organismes de régulation ont du veiller à éviter les égarements en introduisant régulièrement de nouvelles obligations, notamment de transparence, dans le reporting. Dernière en date, la régulation dite Bâle II qui a fait évoluer le calcul des ratios de fonds propres, avec l’idée d’inciter les banques à passer d’un modèle quantitatif et arithmétique à un modèle qualitatif probabiliste de plus en plus personnalisé. Si le modèle standard adopté par la majorité reste simple, les modèles qualitatifs nécessitent des solutions plus lourdes entreposant et exploitant des données historiques. Leur coût devrait en théorie être financé par l’économie en fonds propres réalisée.

Quoiqu’il en soit ce reporting légal reste une vision du passé, où le risque constaté est comparé aux ratios de fonds propres autorisés, pour parfois amener des actions correctrices à posteriori. Il n’existe en effet pratiquement pas de système de calcul des risques en temps réel avec adaptation simultanée des processus métier. Même si certaines activités sont surveillées de plus près, comme les changes, les règles organisationnelles restent soumises à l’évolution plus ou moins aisée de l’outil informatique. La solution réside dans l’apparition d’outils où la couche des règles métier est externe aux applications, dans un référentiel ouvert. La généralisation de telles architectures permettra aux banques de s’adapter dynamiquement aux variations des marchés.

Si la gestion du risque contient une part d’art de l’anticipation, elle reste perfectible par une approche introduisant des modèles plus dynamiques. Les différentes solutions évoquées ici ont largement dépassé le stade de concept pour apporter une agilité certaine dans la pratique bancaire.

Pascal Travers, Directeur du marché Banques et Assurances chez Cross Systems

A propos de l'auteur

Frédéric Mazué

Filtered HTML

Plain text

CAPTCHA
Cette question permet de vérifier que vous n'êtes pas un robot spammeur :-)
 X   X  TTTTTT   CCC  DDD   N   N 
X X TT C D D NN N
X TT C D D N N N
X X TT C D D N NN
X X TT CCC DDD N N