Le Cloud, un accélerateur du "data deluge", des solutions ?

 


 Le Cloud, un accélerateur du 

"data deluge", 

Existe-t-il des solutions ? 

Selon une enquête mondiale menée par Salesforce en 2022, 33 % des DSI ont déclaré qu'ils n'étaient pas en mesure de générer des informations à valeur ajoutée à partir de leurs données, et 30 % ont déclaré qu'ils étaient tout simplement submergés par le volume de données produites au sein de l’entreprise….

 

Les entreprises ingèrent plus de données que jamais auparavant en large partie grâce à l’infini scalabilité du Cloud.

L’idée est de les exploiter pour obtenir de nouveaux « business insights », pour personnaliser les expériences, ou encore pour répondre à des exigences réglementaires dont la plus connue est le GDPR. Les objets connectés sont aussi un formidable accélérateur de génération de données.

 

Mais dans de nombreux cas, ces volumétries finissent par être contre-productives, « noyant » la donnée réellement utile dans des téraoctets de données froides, obsolètes, redondantes.

Les équipes IT finissent par passer le plus clair de leur temps à introspecter les systèmes pour tenter de maîtriser leur patrimoine, et l’informatique ne fait plus que maintenir des systèmes dont les coutures lâchent les unes derrière les autres !

Et pour parler des sujets en vogue, les entreprises qui n'ont pas une bonne maîtrise de leurs données auront du mal à exploiter les possibilités de l'intelligence artificielle, y compris les modèles d'IA générative.

 

Par ailleurs l’essentiel des grandes entreprises, pour ne pas mettre tous leurs œufs dans le même panier, ont adopté des stratégies Multicloud. Mais lorsque les entreprises consolident ces données pour analyse, elles perdent souvent une grande partie de leurs informations contextuelles, à tel point qu'il est courant que 80 % de tout projet "data" soit consacré au simple nettoyage des données et à la re-création du contexte !

 

Le paysage logiciel complexe contribue également à cette difficulté : en moyenne, les entreprises disposent d'environ 120 applications Cloud !

 

Les DSI ont été entraînées bien malgré elles par le rythme accéléré de l'innovation et n'ont pas réfléchi stratégiquement à ses conséquences comme la gestion des données, ou les coûts du Cloud. 


Une solution pourrait consister simplement à collecter moins de données, car une grande partie de ces données restent « froides » ou ne sont jamais utilisées : on estime cette part à 50 % (Gartner).  

Un certain nombre d’entreprises commencent à trier en amont les données collectées pour éviter l’engorgement aval.

« Nous avons pratiquement arrêté d’introduire certaines données complètement froides. Lorsque nous réalisons que personne ne les utilise, nous fermons les tuyaux », a déclaré par exemple Shanti Lyer, DSI de DocuSign. 


 

De façon plus statistique :

  • 7 entreprises sur 10 ne savent pas exactement à quoi elles consacrent leur budget Cloud (Fortinet 2021).
  • 131 professionnels de l'informatique disent que les dépenses indues liées au Cloud pourrait représenter jusqu'à 47 % d'un budget Cloud (Stormforge 2022).

 

D'autres options ? 

 

Nous avons décidé de mettre en œuvre une approche outillée qui repose sur notre logiciel {openAudit} et qui peut permettre de solutionner une large partie de cette équation, sans « fermer les tuyaux » en amont, sans casser la richesse des systèmes. 


Comment ? 

  


1. En cartographiant les systèmes de façon automatisée, et en partageant cette connaissance à tous

 

Nous pensons que les équipes doivent avoir sous la main des outils leur permettant de comprendre en quelques clics comment chacune des données circule au sein du systèmes d’information ainsi que connaître tous les usages qui en sont faits. 

En somme, chaque donnée pourrait être diagnostiquée. C’est le "data lineage" technique. Ainsi, quand bien même le système d’information se complexifie, ces « cartes » automatisées permettraient de contrôler les flux, d’intervenir au bon endroit quand il y a une erreur ou un flux inopérant ou encore une formule impropre dans les couches hautes (dataviz). 

 

 



2. En identifiant la matière morte de façon dynamique pour simplifier les systèmes

Nous préconisons d’évincer cette « matière morte » de façon continue. En identifiant les données inutiles dans les couches métiers, puis toutes leurs sources via le data lineage, il nous est possible d'identifier et de mettre de côté toute ces matières qui créent de l'opacité inutilement. 

 

 

Conclusion


L’inflation informationnelle et tous ses corollaires n’est pas une fatalité. Nous pensons qu’un système d'information doit tout à la fois être maîtrisé par tous et ramené à l’essentiel pour permettre dans le temps de contrôler les coûts du Cloud, de ramener de l’intelligibilité, de la sobriété énergétique. 

La tâche est suffisamment ardue pour qu'il soit nécessaire de mettre en oeuvre des outils qui automatisent les processus pour accompagner ce cercle vertueux. C'est notre proposition à travers {openAudit}. 

 

 #datalineage #itdebt #finops #dataops 

www.ellipsys-lab.com

 


Commentaires

Posts les plus consultés de ce blog

La Data Observabilité, Buzzword ou nécessité ?

BCBS 239 : L'enjeu de la fréquence et de l'exactitude du reporting de risque

Le data lineage, l’arme idéale pour la Data Loss Prevention ?