Les différentes études sur la croissance des volumes de données montrent une évolution exponentielle. Parce qu’il est très facile de les créer. Mais les maîtriser s’avère plus problématique.
Les entreprises peuvent évidemment muscler leur gouvernance des données, ce qu’elles font généralement, même partiellement. De façon plus pragmatique, une stratégie similaire à celle déployée pour gérer la crise sanitaire paraît également pertinente pour gérer le problème de l’inflation de données.
Elle repose sur trois tactiques : d’abord, confiner les données, c’est-à-dire éviter de les dupliquer pour rien (par exemple dans le cloud) ou de les conserver trop longtemps, juste parce que l’on considère « que ça peut servir un jour ». Ensuite, établir un « data couvre-feu », certes difficile à faire respecter, en incitant à ne créer que les données essentielles.
Enfin, vacciner les données (voire les utilisateurs) contre la non-qualité, là aussi un vaste programme. Cette approche de recherche de la qualité des données repose également sur ce qui se pratique en matière sanitaire : tester, isoler et soigner. Tout comme on calcule le fameux RO du Covid-19, on pourrait également calculer celui de la non-qualité des données, sachant qu’une donnée de mauvaise qualité peut en contaminer d’autres, à mesure qu’elle progresse dans les transactions et les manipulations de fichiers. En dessous de 1, les DSI pourraient rester optimistes…