Alors que les prévisions d’IDC nous indiquent que l’on dépassera les 180 zettabytes de données créées en 2025, contre « seulement » 64 Zb en 2020, on observe un décrochage, déjà perceptible depuis quelques années, mais qui s’accélère : dans son ouvrage « Data Smog », paru en 1997, David Shenk nous prévenait déjà que l’on « produit de l’information plus rapidement qu’on ne peut la digérer ».
Deux études récentes nous confirment l’étendue des difficultés. La première (étude Fivetran) révèle que les responsables en data analytics perdent, en moyenne, 44 % de leur temps à construire et reconstruire des pipelines de données, qui relient les data lakes et data warehouses aux bases de données et aux applications. Souvent pour rien : « 71 % déclarent que les utilisateurs finaux prennent des décisions commerciales sur la base de données anciennes ou sujettes à erreur. »
La deuxième étude (Oracle Netsuite) a calculé que 97 % des salariés français sont submergés par les données. Plus précisément, 84 % des salariés français pensent disposer des données nécessaires à leur travail, mais seulement 3 % disent ne jamais être dépassés par la quantité de données à leur disposition. Le problème est que l’on ne sait pas identifier le réel point de bascule au-delà duquel les décisions stratégiques se trouveront paralysées par des « inondations de données ». Lutter contre les effets du « réchauffement numérique » va devenir aussi important que le combat contre le réchauffement climatique…