Baisser les coûts du Cloud ! Identifier et supprimer les "branches mortes"

 

Baisser les coûts du Cloud !

 

 

Identifier et supprimer les "branches mortes"

Un rapport récent de Flexera (fin 2022) indique, ce pour la 7ème année consécutive, que l'optimisation de l'utilisation du Cloud demeure le principal sujet de préoccupation des CIO. 

 

62% des DSI français expliquent que le Cloud leur coûte plus cher que ce qui était budgété. Ce qui ne les empêche pas d'anticiper une nouvelle croissance des dépenses sur ces environnements. Et c’est sans fin.

 

On notera que si on fait abstraction des services managés qui varient fortement selon les clients, les principaux coûts du Cloud sont directement liés à la volumétrie et au processing : 

 

 

 

 ... Un coût mal mesuré : 

l'impact du manque d'intelligibilité

          des systèmes

 

Selon une étude Oracle, « le Dilemme de la Prise de Décision » de 2022, pour laquelle plus de 14 000 professionnels IT dans 17 pays ont été interrogés, près de huit répondants sur dix (78 %) estiment qu'ils n'ont jamais eu autant de données provenant de différentes sources disponibles pour étayer leurs décisions. Mais pour 86% des répondants, ce volume rend la prise de décision beaucoup trop compliquée. 

Ces difficultés à prendre des décisions entraînent des répercussions négatives pour 85 % des personnes interrogés : pics de stress (36%), des opportunités manquées (33%), ou des dépenses inutiles (29%). 

 

Quand on sait que près de  70 % de ce qui est stocké dans les bases de données ne sert pas (« Rethink Data Report » de Seagate, 2022), on voit qu'il y a de considérables marges financières ou organisationnelles à aller chercher. 

 

Et pourtant, relativement peu d’entreprises avancent sur de véritables projets d’optimisation continu. Probablement parce que la mécanique nécessite d'avoir une capacité d'introspection ultra fine de systèmes souvent tentaculaires. C'est là que nous nous positionnons : 

{openAudit} automatise la détection des "branches mortes" dans les systèmes complexes, calcul les coûts attenants, et rejoue sa partition en continu pour permettre des progrés continus. 

 

     Méthodologie 

1- Partir des données qui ne servent pas 

 

Autour des bases de données des systèmes d’information, gravitent les bases de données d’audit qui agglomèrent (entre autres) l’ensemble des usages qui sont fait des données d’un système. Et par opposition les données qui ne font l’objet d’aucun usage. {openAudit} les identifie en continue. 

2- Identifier les sources des données qui n'ont pas d'usage

 

Au départ des données inutilisées, i.e. de ces "impasses informationnelles", {openAudit} identifie en continu l’intégralité des « branches mortes » amont, en remontant automatiquement jusqu’aux sources opérationnelles. Ce grâce au data lineage multi technologique. 

Il s’agira de composants qui stockent la donnée (les tables, les fichiers, les dashboards). Il s’agira aussi de tout le code ou des jobs ETL qui permettent de processer la donnée dans le Système d’Information.

Data Lineage

3- Calculer les coûts des "branches mortes"

 

{openAudit} additionne automatiquement les coûts relatifs à ces "branches mortes" en mappant le data lineage et certains logs des bases de données d'audit des hyperscalers.

 

Conclusion

 

La sobriété est un terme à la mode. Pour d’excellentes raisons. Il doit s’appliquer aux Systèmes d’Information Cloud qui sont devenus insatiables, avec d’innombrables effets de bords.  

 

Nous sommes capables avec notre logiciel {openAudit} d’identifier la « matière morte » dans les systèmes, ce de façon continue. 

Cette matière morte peut être écartée pour que les systèmes restent les plus simples et cohérents possible. Et sans régression.

Ainsi, un de nos clients a supprimé plus de 500 datasets, représentant des milliers de tables, en moins d'une semaine. Sans aucun retour des utilisateurs ! 

 

Cette trajectoire permettra aussi de baisser la consommation énergétique et les GES.

 

Finalement, une indispensable spirale vertueuse.

Commentaires

Posts les plus consultés de ce blog

La Data Observabilité, Buzzword ou nécessité ?

BCBS 239 : L'enjeu de la fréquence et de l'exactitude du reporting de risque

Le data lineage, l’arme idéale pour la Data Loss Prevention ?