Longtemps réservées à la recherche scientifique et à quelques secteurs industriels précis, les applications de calcul intensif et de simulation numérique se démocratisent. Ces technologies de traitement distribué manipulent des volumes de données considérables, auxquelles il faut pouvoir accéder de manière fluide. Pour cette raison, le choix d’un système de stockage adapté est un paramètre important pour la réussite des projets. Les 10 idées pour convaincre votre patron d’investir.
1. Une croissance forte des données.
Tandis que les lois de Moore ne cessent de se vérifier avec la hausse continue de la puissance de calcul disponible, le phénomène plus récent du « big data » laisse entrevoir une croissance encore plus rapide au niveau des données. IDC estime ainsi que l’ensemble des éléments numériques atteindra une taille de 40 Zettaoctets d’ici 2020. La majorité de ces données seront par ailleurs non-structurées : fichiers vidéos, images, sons, documents…
2. De nouvelles perspectives.
Le big data et la disponibilité de puissances de calcul mettent aujourd’hui à la portée d’un très grand nombre de secteurs des capacités d’analyse prédictive, de calcul et de simulation auparavant inenvisageables. Il existe d’ores et déjà de multiples cas d’utilisation, et il faut s’attendre à ce que d’autres se développent dans les années à venir.
3. Une innovation technologique continue.
Avec les réseaux sociaux, les capteurs et les objets connectés, l’observation par satellite, de nouveaux gisements de données apparaissent chaque jour, dont beaucoup sont constitués de données non-structurées… En parallèle, le développement de technologies comme Hadoop mettent à la portée de tous des capacités d’analyse auparavant réservées à des secteurs bien spécifiques.
4. Une diversification des usages.
Les nouvelles possibilités du big data intéressent un public bien plus large que les métiers historiquement familiers du calcul intensif. Des secteurs comme le marketing, la publicité, la médecine, la distribution d’énergie, ou encore l’agro-alimentaire peuvent désormais envisager de bâtir des applications analytiques puissantes pour exploiter un capital de données croissant.
5. Des infrastructures de stockage soumises à rude épreuve.
Les infrastructures de stockage traditionnelles atteignent en effet vite leurs limites, ne permettent pas de faire face aux nouvelles exigences en termes de performance et de sécurité. Ceci s’avère d’autant plus vrai quand les infrastructures sont morcelées et hétérogènes, une situation connue de nombreuses entreprises où les systèmes se sont accumulés au fil du temps.
6. Les besoins de calcul intensif, élément de complexité.
Le passage à l’échelle du calcul intensif vient complexifier la donne en matière de stockage. Différents facteurs peuvent en effet devenir critiques avec la manipulation de très gros fichiers, surtout quand les applications doivent pouvoir y accéder instantanément et de manière fiable.
7. Faire évoluer le système de stockage pour mieux gérer les applications.
Le système de fichiers peut s’avérer bloquant : certains ont en effet des limites en termes de taille de fichiers ou sur la taille maximum des volumes qu’ils peuvent gérer. De même, la mise à jour logicielle et matérielle des systèmes intervient plus fréquemment avec la croissance des volumes de données à stocker. Si ces opérations sont trop complexes ou nécessitent la mise hors ligne des systèmes, cela peut entrainer des pertes de temps et des indisponibilités non souhaitées, dans un contexte de calcul intensif. Par ailleurs, la performance doit impérativement suivre, que ce soit pour l’accès, la recherche et le parcours des vastes ensembles de données stockées.
8. Faire évoluer le système de stockage pour mieux gérer la sécurité.
La reprise après incident peut s’avérer délicate. Pour assurer la conservation des données sensibles sur un site de secours, il faut en effet pouvoir les dupliquer et les rapatrier facilement, ce qui n’est pas si simple lorsque les fichiers pèsent plusieurs Teraoctets. La tolérance aux pannes nécessite également la mise en place d’infrastructures redondantes et résilientes. Enfin, la sauvegarde et la restauration de gros volumes de données peuvent nécessiter un temps excessif si les systèmes et les infrastructures ne sont pas conçus pour prendre en compte les montées en charge.
9. Un ROI significatif.
Selon une étude de Xerfi, la simulation numérique a permis de réduire la durée du cycle de conception des moteurs pour un constructeur d’hélicoptères, de 20 % les coûts des tests en soufflerie pour le développement d’un nouvel avion, et d’économiser 80 millions d’euros le prix d’un forage inutile grâce à une meilleure simulation, pour un grand groupe pétrolier.
10. Chiffre-clé à connaître.
Selon Xerfi, 97 % des entreprises industrielles utilisant le calcul intensif et la simulation ces technologies considèrent qu’elles jouent un rôle indispensable dans leur capacité d’innovation.