Ellipsys est l’éditeur d’un logiciel : {openAudit} -
{openAudit} est basé sur l'introspection fine et continue des Systèmes d'Information : stockage, processing, usages, ordonnancement.
{openAudit} permet :
1. De cartographier les systèmes dynamiquement à travers le data lineage
2. De simplifier les systèmes en identifiant les "branches mortes" dans les flux (tables, code, job ETL, dashboards...)
3. De migrer certaines technologies legacy vers le Cloud automatiquement.
Le data lineage pour Transformer un Système d'Information
Obtenir le lien
Facebook
X
Pinterest
E-mail
Autres applications
Ledata lineage
pour Transformer un Système d'Information :
Simplificationset
Migrations
automatisées
A l’heure de l’accélération de la transformation numérique, des mouvements massifs vers le Cloud, du déferlement du « as a Service », il paraît utile d’être en capacité de comprendre la façon dont les Systèmes d’Information fonctionnent pour se laisser une chance de les transformer en profondeur.
Quand ils sont encore largement "on premise", leur retro documentation est fastidieuse, faute de temps ou de compétences encore en place.
Ces systèmes legacy sont souvent impossibles à migrer vers le Cloud compte tenu des risques forts de régression.
Et quand ces Systèmes ont été migrés dans le Cloud, ils ont tendance à se complexifier de façon exponentielle (et à coûter de plus en plus cher).
Nous proposons d'en casser la complexité et d'en partager la compréhension en délivrant dynamiquement une cartographie basée sur le data lineage et les usages de l'information.
Nous proposons surtout des réponses pour opérer des simplifications massives et des migrations automatiséesvers le Cloud permettant par ailleurs de se séparer de technologies "legacy" souvent enkystées dans les entreprises :Oracle, Teradata, Cobol pour les bases de données par exemple, ou SAP BO et SAS pour les technologies de data visualisation.
_____
1 méthodologie
Un reverse engineering automatisé et exhaustif du Système d'Information avec {openAudit}.
{openAudit}, c’est l’association du data lineage technique et de l'analyse des usages de l'information.
Le data lineage technique pour connaître l’origine et le devenir de chaque information, de ses sources à ses usages. Ce data lineage s'appuie sur l'analyse granulaire et continue des flux (code procédural, ETL/ELT, ESB, transformations dans la couche de data visualisation…),
L’analyse des logs pour connaître les usages réels de chacune des données : qui y accède, quand, comment.
Cette cartographie est le reflet de l’exact réalité du Système d'Information à l’instant « t ».
Les analyses sont opérées en temps continu, au delta, et sans mobilisation des équipes. Même quand les systèmes sont hétérogènes, hybrides.
Quelques précisions :
{openAudit} analyse les vues ; les vues de vues, etc. ;
{openAudit}gère les procédures dynamiques en traitant parallèlement le run ;
{openAudit} fixe d’autres générateurs de ruptures dans le lineage : les transferts par FTP, les curseurs, les subqueries… qui sont gérés par divers mécanismes (reconnaissance structurelle, autres) ;
{openAudit} traite le SQL (ou ses dérivées) encapsulé dans les jobs ELT/ETL ;
{openAudit} traite la couche de data visualisation pour avoir un véritable bout en bout, et pour mettre en lumière toutes les règles de gestion souvent contenues au sein même de la couche de data visualisation.
...pour3 réponses majeures :
________
Cartographier les Systèmes d'Information pour en partager la compréhension
Simplifier les systèmes en identifiant ma matière morte
Migrer automatiquement les Systèmes (migrations Cloud..)
Cartographier
Le data lineage permet de connaître le cheminement de chaque information dans le Système de façon ultra granulaire. Ce data lineage est produit de bout en bout, du système opérationnel jusqu'à la cellule du dashboard, avec un intérêt certain :
Pour partager la compréhension d'un système à tous.
Pour agir en cas de problème sur une chaîne d'alimentation.
Pour identifier une expressions problématique dans un dashboard.
Pour identifier la dissémination de l'information dans le cadre du RGPD.
Le croisement du data lineage et de l’analyse des usages de l’information permet de détecter les "branches mortes" des systèmes. En moyenne, c’est 50 % qui peut être écarté via des décommissionnements de masse : tables, vues, code procédural, job ELT/ETL, dashboards, etc.
Pour baisser la complexité d'un système et donc la maintenance.
Pour baisser les coûts dans le Cloud en identifiant les flux inutiles et le processing / stockage qui y sont associés.
Les migrations vers le Cloud ne sont jamais simples. Elles sont même parfois impossibles : coûts rédhibitoires, risques trop fort de régressions. On finit par empiler les technologies et par vivre avec des technologies legacy dépassées.
{openAudit} permet de migrer automatiquement des technologies de stockage de données : Oracle, Teradata ou Cobol... vers GCP, Azure, ou PostGre.
{openAudit} permet aussi de migrer des technologies de data visualisation : SAP BO vers Power BI ou Looker par exemple.
La complexité des Systèmes d'Information n'est pas une fatalité, et ne doit plus être un obstacle.
Nous avons la conviction qu'en faisant émerger tous les sous-jacents techniques des systèmes de façon intelligible, ces systèmes peuvent très naturellement s'harmoniser dans le temps.
Cette compréhension fine permet par ailleurs d'automatiser ce qui constitue parmi les plus grands enjeux du moment :
La simplification massive des systèmes pour baisser la maintenance et les coûts, dans le Cloud en particulier ;
Et d'automatiser les migrations techniques, qui pour certaines deviennent des horizons inatteignables, du fait de leurs coûts et de la crainte de fortes régressions.
La Data Observabilité, Buzzword ou nécessité ? La qualité des données utilisées dans les opérations quotidiennes a un rôle prépondérant pour les entreprises. Une étude du Gartner de 2022 suggère que les "mauvaises données" coûtent aux organisations environ 12,9 millions de dollars par an. Le Data Quality Hub du gouvernement britannique estime que les organisations consacrent entre 10 % et 30 % de leurs revenus aux problèmes de qualité des données, ce qui peut représenter des centaines de millions de dollars pour des entreprises de premier plan. Dès 2016, IBM estimait que la mauvaise qualité des données coûtait aux entreprises américaines 3 100 milliards de dollars par an. ... Tout le monde souhaite s’appuyer sur des données intègres pour éviter des erreurs simples liées à des problèmes d’alimentation dans des flux, ou à des données mal organisées, répliquées, etc. Mais comment ? Les techniques d' "obse...
Migrer de SAP BO vers Power BI , Automatiquement, Au forfait Ellipsys a accompagné le Groupe ADEO / Leroy Merlin dans la simplification massive de sa plateforme SAP BO puis dans la migration du patrimoine utile vers Power BI (et Looker) en automatisant le processus, au forfait. Nous vous en partageons les principaux aspects. SAP BO : une feuille de route incertaine SAP Business Objet détiendrait plus de 5 % de part de marché sur le marché de la BI avec presque 30,000 clients dans le monde (6Sense). Or la plateforme navigue dans un flou certain : La version 4.2 atteindra la fin du support « priorité 1 » fin 2024. La version 4.3 devrait être prise en charge jusqu'à fin 2027, avec une maintenance standard se terminant fin 2025. SAP prévoit de publier la première version de SAP Business Objects BI 2025 au quatrième trimestre 2024. On n’en connaît pas très bien les contours. Mais ce qui est précisé, c’est que certains composants ...
BCBS 239 : L'enjeu de la fréquence et de l'exactitude du reporting de risque. La BCE a publié un guide en juillet 2023 pour repréciser ses attentes dans le cadre de BCBS 239. Elle prévoit de renforcer le dispositif de supervision en matière de qualité des données. L'objectif global de la norme BCBS 239 est de renforcer les capacités d'agrégation des données de risques des banques, et les pratiques internes de reporting de risques, améliorant ainsi les processus de gestion des risques et de prise de décision dans les banques. « La bonne information doit être à disposition pour les bonnes personnes et au bon moment ». La mise en œuvre de BCBS 239 n'est a priori pas simple. Pourquoi ? Malgré cette surveillance prudentielle accrue, la BCE n’a toujours pas constaté de progrès suffisants en 2023 : "le dispositif data quality et reporting risques ne reçoit pas encore le niveau d’attention approprié de la part des banques". Nous ...
Commentaires
Enregistrer un commentaire