E-book / Simplifier une plateforme SAP BO avec {openAudit}
Simplifier une plateforme SAP BO
avec {openAudit}
Introduction
Une courte histoire de SAP BO
La Business Intelligence existe depuis 30-40 ans. Business Objects, vient de souffler ses 35 bougies (1990). Pratiquement aux origines !
L’idée géniale des inventeurs : rendre la donnée intelligible et la mettre à portée de clic pour le métier.
Au départ, dans chaque entreprise qui implémente SAP BO, il y a peu d’utilisateurs, mais très vite les plateformes sont dépassées par leur succès. Des Business Analysts viennent s’interfacer. La complexité, et même l’hypercomplexité, devient la norme. Et la confiance s’étiole.
Les versions (BO 3.0…. 6, XI, XI R3, 4.0,1,2,3 …) se sont enchaînées sur presque 40 ans sans véritablement bouleverser le concept de départ.
SAP BO vs « les tendances de marchés »
Le métier veut de l’autonomie, veut pouvoir exploiter d’immenses « bacs à sable » de données, et obtenir des réponses instantanées et fiables. Nous sommes entrés dans l’ère de la dataviz, de la BI en self-service, etc.
Depuis quelque temps, le Cloud emporte tout sur son passage avec une promesse de scalabilité, de prix contenus et surtout une infra déléguée.
Les plateformes Big Data complètent cet inventaire avec la promesse d’une exploitation de données massives, structurées ou pas.
BO garde ses fidèles supporters, mais de plus en plus de voix challengent cette solution jusqu’alors plébiscitée, jugée trop complexe, trop statique. Mais comment améliorer sensiblement sa plateforme SAP BO et atteindre rapidement son objectif ? Comment faire en sorte qu'elle soit suffisamment intelligible pour être portée vers le Cloud, ou migrée vers des outils tiers ?
Simplifier massivement SAP BO, les écueils
Les équipes métier ont des habitudes, et malgré certaines difficultés, SAP BO fonctionne encore très bien !
L’IT craint un chantier monumental, avec des risques forts de ruptures de charge : investiguer chacun des tableaux de bord existant, ses dépendances, et opérer des épurations massives est complexe.
Faire évoluer les choses est un vœu pieux, mais rarement une réalité, tant les plateformes BO sont devenues complexes.
Notre parti pris : automatiser à 100 % l’introspection d’une plateforme BO
Une plateforme SAP BO peut être constituée de centaines de milliers de Documents, de Data Providers, de centaines de milliers d’Objets.
Les outils d’administration de la plateforme ne permettent pas de faire de l’analyse d’impact granulaire entre chacune des couches ou de faire des cleansings massifs.
La plateforme évolue à grande vitesse, rendant obsolète chacun des audits qui aura pu être réalisé.
Il est beaucoup plus efficace d’automatiser la lecture et la compréhension de sa plateforme : scan (parsing) dynamique des univers, des documents, analyse continue de l’audit (« Auditor »), pour pouvoir construire des réponses puissantes, toujours « up to date », et y adjoindre des moyens d’action ! C’est ce que nous proposons à travers notre logiciel {openAudit}.
Méthodologie d'analyse de la plateforme
'' {openAudit} permet d’analyser quotidiennement plusieurs centaines de milliers de documents, objets, data provider, pour une vision objective d’un patrimoine SAP BO.
{openAudit} va directement parser les fichiers *.wid, *.unv, *.unx pour récupérer l'intelligence, la structure des documents et la couche sémantiques (univers) ;
{openAudit} va accéder également au référentiel pour garder la cohérence des ID entre les différents objets (univers, data providers, documents, instances, autres) ;
Une sonde d’{openAudit} va récupérer certains logs des bases d’audit (Auditor).
Les fonctionnalités d’{openAudit} pour BO
Pour contrôler sa plateforme
Un inventaire de la plateforme SAP BO
Cette grille inventorie en continu toute la couche SAP BO
De nombreuses précisions sont disponibles :
ID / Nom / Exclu de l’analyse ou pas / Pollution du data provider
Qualité du document / Date de création ou dernier refresh, etc.).
Le poids du document est indiqué dans la colonne de droite.
'' L’ensemble des informations qui sont présentées et même beaucoup plus, sont mises à disposition dans nos bases des données documentées. Elles peuvent être exploitées pour faire des analyses complémentaires.
'' Si la plateforme dataviz comporte différentes technologies (Qlik Sense, Power BI, Looker…), elles sont présentées sur une même interface.
Une grille d’analyse d’impact
Cette grille filtrée permet d’opérer des analyses rapides pour comprendre quelles sont les interactions entre chacun des éléments utilisés par BO, depuis les bases en sources, jusqu’à la cellule du document :
Le champ de la table de la base de données en source de BO / L’usage réel de l’objet / L’origine de l’objet (result et/ou filter panel) / Le data provider (query) qui remonte l’objet / Le document, qui inclut tel ou tel objet / Les noms des objets / Le nom de l’univers.
Le poids, la date de dernière action qui a eu lieu, le folder, etc., i.e. la « carte d’identité » du document se trouve dans un pop-up qui s’ouvre au survol.
'' Cette interface d’analyse d’impact existe aussi pour d’autres technologies (Qlik Sense, Looker, Power BI, etc.), et elle peut fusionner les technologies pour permettre des analyses conjointes.
Le data lineage dans le document
Cette interface permet de mettre en évidence toutes les règles de calcul qui interviennent dans la construction d’une donnée du document.
Au départ d’un document, on trouvera :
L’ensemble de ses sources physiques et sémantiques,
Les impacts finaux, i.e. la cellule présentée dans le document,
L’ensemble des transformations intermédiaires : imbrication des variables, des expressions (les formules sont consultables au survol).
'' Le data lineage dans la dataviz est raccordé au data lineage dans les flux d’alimentation. Il est ainsi possible d’investiguer instantanément les flux de bout en bout : de la cellule du dashboard jusqu’à ses sources opérationnelles.
Pour simplifier sa plateforme
Archive de documents / nettoyage de Data Providers
L’archivage de documents s’opère par une sélection à l’unité, ou une sélection de masse de documents à archiver (obsolètes, cassés…) selon des filtres (par date de création, de refresh ou de modification d’un document typiquement)
L’archivage permet d’écarter le document qui sera purgé automatiquement, et qui fera l’objet d’un archivage unitaire au format « BIAR » indexé dans {openAudit}.
De même, il est extrêmement aisé d’opérer des nettoyages de masse des data providers remontant des objets inutiles, i.e. les objets en « pollution ». Ainsi, les queries sont allégées au maximum.
'' Certains de nos clients ont archivé plusieurs dizaines de milliers de documents SAP BO obsolètes ou cassés en 1 seul jour ! Précision : les roll back sont tout aussi simples !
Détection de la réplication
Un certain nombre de documents peuvent être tout à fait utilisés, récents, non pollués, mais très fortement répliqués.
{openAudit} compare tous les documents entre eux, et cette réplication est établie par pourcentage selon 5 critères : Degré de réplication de contenus > Degré de réplication de contenants > Degré de réplication des formules > Degré de réplication des filtres > Degré de réplication des données de filtres.
Il est possible d’opérer des mises en archive massives au départ de cette interface.
'' On a compté parfois plus de 100 clones exacts par documents. Le risque pour l’unicité de l’information étant d’ailleurs plutôt les clones présentant de faibles nuances. Ils sont également identifiables.
Nettoyage des univers
La fonctionnalité permet d’opérer des tris en fonction de l’usage ou non des objets dans les documents. L’interface permet de cacher les objets massivement dans la couche sémantique.
'' Nos nombreux audits ont montré qu’en moyenne, c’est 80 % des objets qui n’ont pas d’usage et qui viennent dégrader la compréhension des univers !
'' Dans le cadre d’un projet de migration, sur la base de ces analyses, les données pourront être fusionnées dans la base de données : les transformations complexes et les jointures pourront être opérées dans la base de données. L’intérêt sera aussi d’assurer une centralisation des principales règles de transformation dans la cible.
Pour aller plus loin : migrer SAP BO vers le Cloud
{openAudit} automatise un ensemble de tâches essentielles pour optimiser la gestion et la migration des données. Parmi ces actions, on retrouve :
La création des connexions sur la nouvelle plateforme ;
Le remapping des connexions cibles vers les univers (UNV, UNX) ;
La modification du SQL des objets utilisant des fonctions natives d’une base de données dans les univers (UNV, UNX) ;
La migration des univers ;
Le traitement en masse des documents planifiés et publiés ;
La modification des destinations dans les publications et instances ;
La correction en masse des règles de sécurité (LDAP, Win AD, niveaux d’accès) ;
Le remapping des objets dans les documents en cas d’incohérence des identifiants.
En cas de régression détectée, {openAudit} effectue une analyse d’impact afin d’identifier précisément les objets et documents affectés, puis met à jour les processus de manière automatisée et en masse
Aussi : migrer SAP BO vers un outil tier
La plupart des outils BI – comme SAP BO - possèdent :
Une couche sémantique ou une couche de data-prep qui fait l’interface entre l’IT et le métier ;
Un moteur de visualisation (le dashboard en tant que tel).
Sur la base de ces deux couches, {openAudit} construit un référentiel unique, agnostique (faisant abstraction de la technologie) pour simplifier et automatiser la migration.
{openAudit} s’appuie ensuite sur ce référentiel « pivot » pour automatiser certaines migrations de BO vers Looker, PowerBI, bientôt Strategy, etc.
Conclusion
SAP BO reste une solution massivement utilisée en entreprise, et toujours appréciée pour sa robustesse, sa sécurité, même si aujourd'hui les hyperscalers du Cloud ont porté sur le devant de la scène d'autres solutions.
Pour faire en sorte que l'expérience utilisateur reste optimale et que les coûts de maintenance n'explosent pas, une sur-administration qui automatise les process sera un avantage certain. Il pourra aussi s'agir de simplifier sa plateforme pour en faciliter la migration vers le Cloud en tant que telle, ou vers une solution tierce.
Commentaires
Enregistrer un commentaire