jeudi 5 janvier 2012

Etat du monde IT : Quelles tendances pour le stockage en 2012

Le 28 décembre 2011 (17:11) - par Christophe Bardy
  
L'année à venir devrait être porteuse de nombreuses évolutions dans le monde du stockage. Certaines liées au changement de la nature des données stockées par les entreprises, d'autres liées aux évolutions des technologies. Le MagIT fait le point sur cinq tendances qui devraient marquer l'année et revient sur l'actualité qui a marqué l'année écoulée.
Etat du monde IT : Quelles tendances pour le stockage en 2012
Le volume des données stockées dans les entreprises progresse inexorablement à un rythme d'environ 50 % par an. C'est donc un déluge de données qui s'abat sur les entreprises, un déluge qui influent en profondeur sur la façon dont les entreprises doivent penser leur stockage.
 symmetrix1
1990 : Le Symmetrix 1, pionnier des
baies de stockage modernes stockait
24 Go de données en 1990. Son
équivalent moderne, le Symmetrix
VMax peut stocker jusqu'à 2Po.
Quelques constats s'imposent. Il y a quelques années, la majorité des données des entreprises étaient stockées sous forme structurée (en clair dans des bases de données) et la problématique essentielle n'était pas tant de gérer l'accroissement des capacités, que de répondre au besoin de performance des applications traitant ces données, tout en garantissant leur intégrité. Ces besoins de protection et de performances ont contraint les grands constructeurs à des prouesses d'ingénierie et ont donné naissance à des baies comme les Symmetrix d'EMC, les VSP d'Hitachi, les DS8000 d'IBM ou les baies 3PAR d'HP. Ces systèmes sont extraordinairement coûteux, mais leurs utilisateurs s'accordent en général sur le fait qu'ils remplissent leur fonction.
Les besoins de stockage des données non structurées explosent
Sans conteste, le besoin de stocker de façon sûre et performante des jeux de données structurées critiques pour l'entreprise est toujours présent. Mais ce n'est plus le problème majeur. Les entreprises ont aujourd'hui deux autres défis majeurs. Le premier est de bâtir une couche de stockage flexible et performante adaptée aux besoins d'architectures de plus en plus virtualisées. Le second est de disposer d'une architecture de stockage à grande échelle, facilement évolutive et peu coûteuse, capable de stocker les importants volumes de données non structurées (e-mails, images, photos, vidéos, informations en provenance des réseaux sociaux et des outils collaboratifs,...) provenant d'applications internes à l'entreprise, comme d'applications (ou de fournisseurs de données) externes. Car ces données non structurées représentent déjà près de 80 % du volume de données des entreprises et devraient compter pour plus de 95 % d'ici 5 ans.
Comme rien n'est jamais simple dans le monde du stockage, ces changements dans les besoins des entreprises s'accompagnent d'une vraie révolution en matière de technologies. Depuis déjà plusieurs années les constructeurs abandonnent leurs architectures propriétaires pour se convertir à des architectures basées sur des puces x86 signées AMD ou Intel. De plus en plus, les baies de stockage ressemblent à des PC (ou à des clusters de PC) bourrés de disques et pilotés par des systèmes d'exploitation spécialisés.

Flash et convergence influent sur les architectures de stockage
 zeusssd
Un seul SSD ZeusIOPS XE délivre
jusqu'à 150 000 IOPS en accès aléatoire
et jusqu'à 500 Mo/sen transfert de
données en mode séquentiel
place au stockage Flash pour les applications les plus exigeantes en matière de performance. Peu à peu les architectures SMP massives cèdent du terrain aux architectures en cluster. La convergence vantée par les constructeurs se traduit aussi par un rapprochement des serveurs et du stockage. Le mainframe, si longtemps moqué (note de l'auteur : mea culpa, mea maxima culpa) redevient un modèle d'intégration. Car en plaçant les capacités de calcul au plus près des disques, un ordinateur convergent profite d'avantages uniques en matière de bande passante et de latence d'accès aux données. Et pour cause, au lieu d'accéder aux données via une interface externe "lente" (type Fibre Channel ou Ethernet), il le fait à la pleine puissance du bus PCI-express (pour autant que le support de stockage puisse suivre…).


Le cloud en embuscade
Enfin, il y le cloud et sa promesse de capacités de stockage infinies, à un coût défiant toute concurrence. La promesse, c'est vrai ressemble, à celle d'un bonimenteur de foire. Mais elle est largement vraie. Depuis vingt ans, les grands spécialistes du stockage vendent le Gigaoctet de données à un prix 10 à 20 fois supérieur à celui des disques durs (le prix disent-ils de l'ingénierie et de la R&D nécessaire à protéger ces données dans une baie de stockage). Sur le cloud, ce multiple est plus proche d'un facteur de 2 ou 3.

Certes, rares sont encore les entreprises prêtes à confier leurs données les plus critiques à un fournisseur de cloud public. Mais pour certaines données non critiques ? D'autant que vu le prix, il est possible de stocker sur deux cloud différents tout en restant moins cher qu'en stockant ses données en local.

Notons pour terminer que cette émergence du stockage en cloud s'accompagne de celle d'une nouvelle génération d'acteurs spécialisés dans les passerelles (plus ou moins intelligentes) vers le cloud. Ces appliances visent à tenter de gommer les principaux inconvénients du cloud en créant un étage de cache et d'intelligence local conçu pour palier la pauvreté fonctionnelle et la latence élevée du stockage en cloud. Ces équipements sont à première vue séduisants, à condition que le surcoût qu'ils engendrent ne rende pas le stockage en cloud plus coûteux que le stockage local…
Que faut-il donc attendre de 2012 ? ??D'un point de vue technologie, Le MagIT entrevoit cinq tendances phares pour l'année à venir : 
• L'explosion du stockage Flash
La première sera l'explosion de l'usage de la mémoire flash par les entreprises, une explosion qui devrait aussi être aidée par la pénurie conjoncturelle de disques durs causée par les innondation en Thaïlande (où se trouvait plusieurs usines de fabricants de disques et de composants).
Utilisée dans des baies SAN ou NAS en conjugaison avec des technologies de "tiering", la flash permet de doper les performances des baies de stockage tout en améliorant leur consommation énergétique. Un disque SSD permet en effet de délivrer les performances d'une quinzaine de disques SAS à 15 000 tr/mn. Utilisée dans les serveurs (sous forme de cache ou stockage local), elle permet aussi de doper les performances des serveurs.
On devrait aussi voire se multiplier les baies de stockage conçues spécifiquement pour tirer parti du stockage flash comme celles proposées par Kaminario (rendu par Dell), Nimbus, Pure Storage, RamSan ou Violin (revendu par HP et IBM). Ces baies font en effet sauter les verrous de performances qu'imposent les baies traditionnelles aux serveurs pour les applications hautement transactionnelles et leur prix élevé et souvent larguent compensé par les gains de performances, la réduction du nombre de serveurs et les économies d'énergies permises dans le Datacenter.
Il sera intéressant de voir quel impact ces nouvelles offres auront sur l'avenir des grandes baies de stockage hautes performances historiques pour lesquelles elles devraient être de redoutables concurrents. Certains constructeurs comme EMC ou Oracle ont d'ailleurs déjà annoncé leurs propres baies de stockage 100 % Flash et il est fort probable que les autres ne pourront attendre éternellement.

• L'adoption du stockage NAS et objet en cluster
La seconde sera la montée en puissance du stockage NAS et objet en cluster. Le stockage en cluster a fait ses preuves dans le monde du HPC avec des solutions comme Lustre ou GPFS. Désormais, il s'attaque au monde des entreprises afin de fournir une solution flexible et économique au problème de l'explosion du volume de données non structurées.
Tous les grands constructeurs ont aujourd'hui à leur catalogue une solution de stockage NAS en cluster à commencer par EMC avec Isilon. HP dispose de son côté d'IBrix, tandis que Dell s'appuie sur le Dell Scalable File System (hérité du rachat d'Exanet). Hitachi a racheté la solution NAS en cluster de BlueARC et dispose aussi de la technologie de ParaScale. IBM enfin, s'appuie sur sa solution SONAS dérivée de son système de gestion de fichier GPFS.
D'autres acteurs convoitent aussi ce marché avec notamment Red Hat (qui a racheté Gluster), Quantum (qui s'appuie sur son file System StorNext) ou Huawei (qui s'appuie sur le SAN File System de Symantec pour ses baies OceanSpace de la série N). À cette liste on peut aussi ajouter des start-ups comme Amplidata ou le français Scality, avec.
Et il faudra aussi surveiller de près l'émergence de solutions combinant Lustre et ZFS, un vieux rêve de Sun poursuivi par Oracle sur Solaris et par Whamcloud et les Lawrence Livermore National Laboratories sur Linux (après qu'Oracle a enterré le portage de ZFS sur Linux). Whamcloud entend d'ailleurs banaliser les solutions de cluster de stockage basées sur Lustre via son outil d'administration Chroma, dont l'objectif est de mettre la configuration de cluster de stockage Lustre à la portée " de tous".

Aucun commentaire:

Enregistrer un commentaire