
Sous la pression réglementaire, l’enjeu d’un référentiel commun de données de marché comme celui d’un historique de prix de produits fiable est au cœur des préoccupations des grandes banques. Toutes doivent relever les mêmes défis : gérer des volumes de données de plus en plus importants, implémenter et automatiser des contrôles de plus en plus complexes.
Ce contexte les force à une restructuration des moyens de récupération, traitement, stockage et diffusion des données, dans un souci toujours plus pressant de transparence et d’encadrement des risques marchés.
Margo accompagne un acteur majeur de la banque dans l’évolution de son référentiel de données de marchés. L’objectif (ROI) étant de répondre aux exigences réglementaires croissantes, et de ne pas laisser perdurer une multitude de référentiels systèmes disparates.
La réalisation de ce projet passe par la fiabilisation de l’existant qui deviendra la référence et diffusera des informations dites « goldenisées », ce qui signifie validées par une instance dédiée et faisant office de standard commun à l’ensemble des systèmes de la banque. Cela implique une collaboration étroite entre opérationnels et IT chargés de la gestion des données de marché. Il s’agit, dans un premier temps, d’étendre le périmètre couvert à l’ensemble des données utilisées par les systèmes, de fiabiliser leur contrôle, puis dans un deuxième temps, de généraliser l’alimentation de tous les acteurs de la chaîne front to back : systèmes front, middle, économétrie, back office, services comptables…
L’objectif : Industrialiser les contrôles des données de marché
La première phase du projet consiste à étendre la couverture du référentiel existant à l’ensemble des données utilisées par les systèmes afin de constituer une source référentielle unique. Il s’agit à minima de reprendre les données et contrôles implémentés en local au sein de chaque système, mais plusieurs contraintes ont émergé.
Côté front tout d’abord, où l’organisation se fait par périmètre et par système applicatif dédié : un pour les taux, un autre pour les actions, un autre encore pour les matières premières ou les titres. Ces systèmes ont par ailleurs certains produits en commun.
La mise en place d’un référentiel mutualisé implique également de s’entendre sur les points essentiels que sont : la gouvernance des données, le choix de leur source et les contrôles à implémenter. Il faut ainsi tenir compte des spécificités, voire des contraintes de chacun : horaires de mises à disposition, mode d’alimentation, volume, temps de traitement…
Un consensus est donc nécessaire pour chaque étape du processus de traitement des données : choix du fournisseur, modalités de récupérations et licences, choix de la valeur candidate, de la valeur de comparaison, transformations si besoin, contrôles et validation.
A cette complexité s’ajoute la distinction nécessaire entre les traitements quotidiens comme le calcul du PnL (qui est l’indicateur de performance économique d’une activité), et ceux mensuels, voire annuels, des arrêtés qui ont des contrôles dédiés. Il faut aussi distinguer les traitements basés sur des données historiques comme le calcul de la VaR (calcul du montant de perte maximal qui a le plus de chances de ne pas être dépassé à un horizon donné).
Enfin des contraintes techniques nécessitent de repenser les processus pour répondre aux questions du mode de stockage, de gestion de profils et de droits d’accès, d’industrialisation des process de livraison…
L’enjeu à long terme et les moyens mis en œuvre
Outre la conservation d’un rôle de standard sur le périmètre déjà couvert, l’enjeu est d’étendre le référentiel à l’ensemble de la banque. Il s’agit donc de convaincre les différents systèmes d’abandonner leur sourcing individuel pour mutualiser les ressources et par là-même, de rationaliser les coûts tout en gérant les nouvelles attentes réglementaires et les contraintes inhérentes à la montée en puissance du service (délocalisation et réorganisation de l’équipe).
La taille comme la criticité du projet, ses dépendances avec les autres systèmes et l’inertie qui en découle, ou encore le nombre d’acteurs impliqués sont autant de facteurs qui en complexifient la mise en place. D’importants moyens organisationnels ont été déployés pour dépasser ces difficultés. Le passage en mode agile en a conditionné le succès, avec pour clé la concertation régulière entre parties prenantes et la synergie de leurs actions. L’activité a été partitionnée en 3 pôles distincts : gestion du référentiel en place d’une part, conception et mise en œuvre d’une refonte d’autre part, et enfin un stream dédié aux exigences de la nouvelle réglementation FRTB (Fondamental Review of the Trading Book). Des coachs agiles ont été délégués auprès des équipes, des développeurs offshores sont venus renforcer les effectifs pour les soulager des tâches répétitives à faible valeur ajoutée, et l’équipe opérationnelle a été renforcée.
Réaliser et communiquer… pour faire l’unanimité
La communication reste l’élément incontournable de la réussite du projet : échanges internes dans une équipe en phase de croissance et de diversification, mais aussi échanges avec l’ensemble des parties prenantes en toute transparence, dans un contexte de réorganisation du service et de refonte des processus. Cette organisation agile a permis une transformation progressive, raisonnée et maîtrisée.
La réussite du projet qu’accompagne Margo est le fruit de facteurs techniques mais surtout organisationnels. C’est grâce à la mise en place, via l’agilité, d’une réelle entente au sein de l’équipe, mais aussi avec chacune des nombreuses et diverses parties prenantes, que la transformation des processus a pu s’opérer. Un nouveau mode de gestion des priorités, la mise en place de critères d’acceptance impliquant l’équipe IT et la formalisation des engagements de part et d’autre, sont autant de moyens qui ont fluidifié et garanti la qualité des échanges comme des livrables. L’implication des différents acteurs a été la clé du cadrage, de la mise en œuvre et du suivi de ce projet d’envergure.