BCBS 239 : L'enjeu de la fréquence et de l'exactitude du reporting de risque

 




BCBS 239 : 

 

L'enjeu de la fréquence et de l'exactitude du reporting de risque. 

La BCE a publié un guide en juillet 2023 pour repréciser ses attentes dans le cadre de BCBS 239. Elle prévoit de renforcer le dispositif de supervision en matière de qualité des données.

 

L'objectif global de la norme BCBS 239 est de renforcer les capacités d'agrégation des données de risques des banques, et les pratiques internes de reporting de risques, améliorant ainsi les processus de gestion des risques et de prise de décision dans les banques.

« La bonne information doit être à disposition pour les bonnes personnes et au bon moment ».

 

La mise en œuvre de BCBS 239 n'est a priori pas simple.

 

Pourquoi ?

Malgré cette surveillance prudentielle accrue, la BCE n’a toujours pas constaté de progrès suffisants en 2023 :  "le dispositif data quality et reporting risques ne reçoit pas encore le niveau d’attention approprié de la part des banques".

 

Nous avons beaucoup échangé avec nos clients bancaires.

Ce qui semble faire faire défaut, c’est l’automaticité et l’exhaustivité des analyses dans des environnements extrêmement complexes. 

 

Fort de ce constant, nous mettons à disposition des outils de data lineage très légers, 100 % automatisés, même dans les systèmes ultra complexes, qui permettent des analyses de la donnée en source jusqu’à la cellule du dashboard. On prem' ou SaaS. 

 1. Une approche 100 % automatisée.  

 

{openAudit}, notre logiciel va analyser techniquement et quotidiennement la plateforme complète. 

En s'appuyant sur des parsers et de sondes qui travaillent en continue, {openAudit} permet une analyse quotidienne ultra granulaire du système, sans qu’il y ait besoin de construire des équipes de data stewards au service exclusif du projet. 

 
 

 2. Le data lineage dans les data  flows 

Pour répondre aux impératifs d'Exactitude & d'Intégrité, {openAudit} analyse automatiquement les technologies qui processent la donnée dans les Systèmes d'Information.

Nous déroulons les flux de "bout en bout" dans les bases de données avec une granularité au choix.

Pas besoin de révolutionner votre architecture, {openAudit} "perce" la complexité des « Legacy Systems » les plus volumineux et hétérogènes, mais aussi les architectures Cloud. 

 

NB : nous savons traiter les flux dans Moodys RiskAuthority™

 

 
 

3. Le data lineage dans la couche de reporting

 

Les solutions de data visualisation permettent de faire de la « data préparation » dans des proportions croissantes. Elles renferment maintenant l’essentiel de l’intelligence qui était préalablement construite dans les datamarts. Or l’ensemble des règles de gestion, souvent empilées, imbriquées, finissent par créer un écheveau inextricable.

 

{openAudit} vient analyser la structure des dashboards, les métadonnées qui s’y trouvent, donc l’intelligence, la structure, les sources, etc., pour que le data lineage soit le reflet exact de la réalité. 

 

 
 

Les résultats sont exportables en SVG, sous forme de base de données, ou de tableur Excel et donc partageable en interne ou vers les autorités régulatrices. 

Les bases de données de {openAudit} sont par ailleurs ouvertes pour la mise en œuvre d’analyses adhoc.

 
 

4. Monitorer le reporting de risque d’un seul coût d’œil

 

L’ensemble du reporting est affiché sur une seule interface d’{openAudit}, et les dashboards qui présentent des « pathologies » sont identifiables par une code couleur.

 

  • La désynchronisation d’un dashboard par rapport aux sources physiques est mise en lumière ; 
  • Le dashboard qui est complètement dysfonctionnel (qui n’affiche plus de résultat) est identifiable ;
  • Le dashboard qui est répliqué est affiché avec ses clones et le détail des  éléments répliqués (fond, forme, expression, filtres…) est accessible ; 
  • Le dashboard obsolète est identifiable, etc. 

 

(ci-après un exemple dans SAP BO)

 

 
 
 

5. Monitorer l’ordonnancement des flux d'un seul coup d'oeil

 

{openAudit} permet de valider d’un seul coup d’œil la qualité de l’ordonnancement (« schedule ») des chaînes d’alimentation.

 

Les anomalies sont facilement identifiables.

Exemples :  

  • Procédure lancée et non exécutée,
  • Dégradation des temps d’exécution. 

 

Au départ de cette interface, il est possible de retourner vers le data lineage pour inspecter le flux d’un point de vue technique et intervenir le cas échéant.

 

 
 
 

Conclusion 

 

La BCE a décidé de renforcer son exigence concernant BCBS 239, car à son sens, le dispositif data quality et reporting risques n’est pas encore au niveau attendu.

 

C'est un défi, car la mise en œuvre de l’ensemble des points de ce texte demande des investissements importants. 


Nous pensons que l’automatisation de tous les processus, leur capacité à « vivre » en parallèle du système analysé est la condition sine qua non pour que BCBS 239 soit un succès durable. 


L’intérêt est que BCBS 239 peut bénéficier à l'ensemble de la banque en renforçant l'importance de la qualité des données et de leur gouvernance. 

Cela peut améliorer les décisions, quelles qu’elles soient et réduire leur délai de mise en œuvre.


#BCBS239 #datalineage 

Commentaires

Posts les plus consultés de ce blog

La Data Observabilité, Buzzword ou nécessité ?

Le data lineage, l’arme idéale pour la Data Loss Prevention ?