Une synthèse proposée par Christophe Bardy sur le MagIT. Etat du monde IT : Quelles tendances pour le stockage en 2012
L'année à venir devrait être porteuse de nombreuses évolutions dans le monde du stockage. Certaines liées au changement de la nature des données stockées par les entreprises, d'autres liées aux évolutions des technologies. Le MagIT fait le point sur cinq tendances qui devraient marquer l'année et revient sur l'actualité qui a marqué l'année écoulée.
Le volume des données stockées dans les entreprises progresse inexorablement à un rythme d'environ 50 % par an. C'est donc un déluge de données qui s'abat sur les entreprises, un déluge qui influent en profondeur sur la façon dont les entreprises doivent penser leur stockage.??Quelques constats s'imposent. Il y a quelques années, la majorité des données des entreprises étaient stockées sous forme structurée (en clair dans des bases de données) et la problématique essentielle n'était pas tant de gérer l'accroissement des capacités, que de répondre au besoin de performance des applications traitant ces données, tout en garantissant leur intégrité. Ces besoins de protection et de performances ont contraint les grands constructeurs à des prouesses d'ingénierie et ont donné naissance à des baies comme les Symmetrix d'EMC, les VSP d'Hitachi, les DS8000 d'IBM ou les baies 3PAR d'HP. Ces systèmes sont extraordinairement coûteux, mais leurs utilisateurs s'accordent en général sur le fait qu'ils remplissent leur fonction??Sans conteste, le besoin de stocker de façon sûre et performante des jeux de données structurées critiques pour l'entreprise est toujours présent. Mais ce n'est plus le problème majeur. Les entreprises ont aujourd'hui deux autres défis majeurs. Le premier est de bâtir une couche de stockage flexible et performante adaptée aux besoins d'architectures de plus en plus virtualisées. Le second est de disposer d'une architecture de stockage à grande échelle, facilement évolutive et peu coûteuse, capable de stocker les importants volumes de données non structurées (e-mails, images, photos, vidéos, informations en provenance des réseaux sociaux et des outils collaboratifs,...) provenant d'applications internes à l'entreprise, comme d'applications (ou de fournisseurs de données) externes. Car ces données non structurées représentent déjà près de 80 % du volume de données des entreprises et devraient compter pour plus de 95 % d'ici 5 ans.???Comme rien n'est jamais simple dans le monde du stockage, ces changements dans les besoins des entreprises s'accompagnent d'une vraie révolution en matière de technologies. Depuis déjà plusieurs années les constructeurs abandonnent leurs architectures propriétaires pour se convertir à des architectures basées sur des puces x86 signées AMD ou Intel. De plus en plus, les baies de stockage ressemblent à des PC (ou à des clusters de PC) bourrés de disques et pilotés par des systèmes d'exploitation spécialisés.
Ensuite, les périphériques de stockage évoluent. Peu à peu, les disques durs font place au stockage Flash pour les applications les plus exigeantes en matière de performance. Peu à peu les architectures SMP massives cèdent du terrain aux architectures en cluster. La convergence vantée par les constructeurs se traduit aussi par un rapprochement des serveurs et du stockage. Le mainframe, si longtemps moqué (note de l'auteur : mea culpa, mea maxima culpa) redevient un modèle d'intégration. Car en plaçant les capacités de calcul au plus près des disques, un ordinateur convergent profite d'avantages uniques en matière de bande passante et de latence d'accès aux données. Et pour cause, au lieu d'accéder aux données via une interface externe "lente" (type Fibre Channel ou Ethernet), il le fait à la pleine puissance du bus PCI-express (pour autant que le support de stockage puisse suivre…).
Enfin, il y le cloud et sa promesse de capacités de stockage infinies, à un coût défiant toute concurrence. La promesse, c'est vrai ressemble, à celle d'un bonimenteur de foire. Mais elle est largement vraie. Depuis vingt ans, les grands spécialistes du stockage vendent le Gigaoctet de données à un prix 10 à 20 fois supérieur à celui des disques durs (le prix disent-ils de l'ingénierie et de la R&D nécessaire à protéger ces données dans une baie de stockage). Sur le cloud, ce multiple est plus proche d'un facteur de 2 ou 3.
Certes, rares sont encore les entreprises prêtes à confier leurs données les plus critiques à un fournisseur de cloud public. Mais pour certaines données non critiques ? D'autant que vu le prix, il est possible de stocker sur deux cloud différents tout en restant moins cher qu'en stockant ses données en local.
Notons pour terminer que cette émergence du stockage en cloud s'accompagne de celle d'une nouvelle génération d'acteurs spécialisés dans les passerelles (plus ou moins intelligentes) vers le cloud. Ces appliances visent à tenter de gommer les principaux inconvénients du cloud en créant un étage de cache et d'intelligence local conçu pour palier la pauvreté fonctionnelle et la latence élevée du stockage en cloud. Ces équipements sont à première vue séduisants, à condition que le surcoût qu'ils engendrent ne rende pas le stockage en cloud plus coûteux que le stockage local…
Que faut-il donc attendre de 2012 ? ??D'un point de vue technologie, Le MagIT entrevoit cinq tendances phares pour l'année à venir :
• L'explosion du stockage Flash
La première sera l'explosion de l'usage de la mémoire flash par les entreprises, une explosion qui devrait aussi être aidée par la pénurie conjoncturelle de disques durs causée par les innondation en Thaïlande (où se trouvait plusieurs usines de fabricants de disques et de composants).
Utilisée dans des baies SAN ou NAS en conjugaison avec des technologies de "tiering", la flash permet de doper les performances des baies de stockage tout en améliorant leur consommation énergétique. Un disque SSD permet en effet de délivrer les performances d'une quinzaine de disques SAS à 15 000 tr/mn. Utilisée dans les serveurs (sous forme de cache ou stockage local), elle permet aussi de doper les performances des serveurs.
On devrait aussi voire se multiplier les baies de stockage conçues spécifiquement pour tirer parti du stockage flash comme celles proposées par Kaminario (rendu par Dell), Nimbus, Pure Storage, RamSan ou Violin (revendu par HP et IBM). Ces baies font en effet sauter les verrous de performances qu'imposent les baies traditionnelles aux serveurs pour les applications hautement transactionnelles et leur prix élevé et souvent larguent compensé par les gains de performances, la réduction du nombre de serveurs et les économies d'énergies permises dans le Datacenter.
Il sera intéressant de voir quel impact ces nouvelles offres auront sur l'avenir des grandes baies de stockage hautes performances historiques pour lesquelles elles devraient être de redoutables concurrents. Certains constructeurs comme EMC ou Oracle ont d'ailleurs déjà annoncé leurs propres baies de stockage 100 % Flash et il est fort probable que les autres ne pourront attendre éternellement.
• L'adoption du stockage NAS et objet en cluster
La seconde sera la montée en puissance du stockage NAS et objet en cluster. Le stockage en cluster a fait ses preuves dans le monde du HPC avec des solutions comme Lustre ou GPFS. Désormais, il s'attaque au monde des entreprises afin de fournir une solution flexible et économique au problème de l'explosion du volume de données non structurées.
Tous les grands constructeurs ont aujourd'hui à leur catalogue une solution de stockage NAS en cluster à commencer par EMC avec Isilon. HP dispose de son côté d'IBrix, tandis que Dell s'appuie sur le Dell Scalable File System (hérité du rachat d'Exanet). Hitachi a racheté la solution NAS en cluster de BlueARC et dispose aussi de la technologie de ParaScale. IBM enfin, s'appuie sur sa solution SONAS dérivée de son système de gestion de fichier GPFS.
D'autres acteurs convoitent aussi ce marché avec notamment Red Hat (qui a racheté Gluster), Quantum (qui s'appuie sur son file System StorNext) ou Huawei (qui s'appuie sur le SAN File System de Symantec pour ses baies OceanSpace de la série N). À cette liste on peut aussi ajouter des start-ups comme Amplidata ou le français Scality, avec.
Et il faudra aussi surveiller de près l'émergence de solutions combinant Lustre et ZFS, un vieux rêve de Sun poursuivi par Oracle sur Solaris et par Whamcloud et les Lawrence Livermore National Laboratories sur Linux (après qu'Oracle a enterré le portage de ZFS sur Linux). Whamcloud entend d'ailleurs banaliser les solutions de cluster de stockage basées sur Lustre via son outil d'administration Chroma, dont l'objectif est de mettre la configuration de cluster de stockage Lustre à la portée " de tous".
• L'émergence des virtual Storage Appliances
La troisième tendance sera la montée en puissance des virtual Storage Appliances, en conjonction avec l'arrivée de nouvelles fonctions dans les hyperviseurs et leurs outils (comme la réplication basée sur l'hôte de VMware SRM 5). Depuis plusieurs années, des fournisseurs comme HP (avec Lefthand) ou le français Seanodes (avec Exanodes) proposent des solutions de stockage SAN partagées fonctionnant au-dessus de VMware ESX ou Hyper-V. Des acteurs comme DataCore, Nexenta font de même pour des solutions de stockage unifiées. Ils ont récemment été rejoints par VMware avec son appliance de stockage VSA.
Dans un futur plus ou moins proche, il est fort probable que des acteurs comme NetApp ou EMC, pourraient s'attaquer au marché d'entrée de gamme avec des appliances logicielles s'appuyant sur le code de leurs OS de stockage (d'ailleurs ces deux constructeurs proposent déjà de telles appliances à des fins de test ou de formation). De telles appliances seraient une conséquence logique de la convergence croissante des différents équipements d'infrastructure.
On pourrait ainsi imaginer un serveur virtualisé, doté de multiples CPU multicœurs, d'un grand nombre de disques et de cartes réseau faisant tourner un assortiment de VM, qui dédiées aux fonctions réseaux (type Vyatta), qui dédiées au stockage et qui dédiée aux fonctions de "calcul". Toute référence au mainframe est fortuite, avec toutefois une différence fondamentale : le prix…
Le cloud appliqué au stockage
La quatrième tendance sera le renforcement des offres de stockage en cloud. Dans le monde du cloud public, des acteurs comme Amazon, Microsoft, Nirvanix, GoGrid et RackSpace ont déjà une offre de stockage objet éprouvée et ils devraient être rejoints par de multiples acteurs en 2012, dont HP (avec un service de stockage basé sur OpenStack "Swift"). Autour de cet écosystème de fournisseurs de "capacité de stockage" en cloud, un large écosystème de fabricant d'appliances et de passerelles cloud devrait commencer à prospérer.
LeMagIT a déjà mentionné plusieurs sociétés prometteuses comme StorSimple et TwinStrata (iSCSI vers le cloud) et Panzura (NAS global). On peut aussi citer Ctera et Gladinet (CIFS vers le cloud), Riverbed (avec sa passerelle Whitewater), Hitachi (Hitachi Cloud Ingestor).
Une automatisation grandissante du stockage
Enfin la cinquième tendance sera l'automatisation croissante de la gestion du stockage afin de faire permettre la gestion de ressources de stockage de plus en plus conséquente par un nombre d'administrateurs limité. Déjà, certaines entreprises ont vu avec l'émergence des fonctions de "tiering" automatisé de données, les bénéfices de l'automatisation appliquée à une baie de stockage.
Avec l'adoption croissante des technologies cloud, cette automatisation va s'étendre à l'ensemble des ressources et fonctions de stockage. VMware a ouvert la voie en développant de façon agressive des interface de programmation pour gérer les ressources des baies de stockage dans ses API vStorage et vCloud. Mais c'est aujourd'hui toute l'industrie qui se préoccuppe d'automatisation, afin de permettre la gestion du stockage par des frameworks comme OpenStack ou par les grands outils d'orchestration de clouds.
Tous les grands constructeurs travaillent ainsi sur des API REST, mais comme à l'accoutumée ce sont les petits acteurs qui ont souvent avancé le plus vite, comme Coraid, Mezeo, Nexenta ou Scality. Il faut dire que ces acteurs ont une large partie de leurs clients dans le monde du cloud, un monde où l'automatisation de l'infrastructure est la règle.
Les autres évolutions à surveiller
Quelques autres tendances de fond de 2011 devraient aussi se poursuivre comme la migration progressive de la sauvegarde primaire vers le disque (avec son incontournable corollaire, la déduplication), la généralisation du "tiering" sur les baies de stockage, la montée en puissance d'Ethernet dans le monde du stockage (essentiellement liée à la popularité du NAS et d'iSCSI et bien moins à celle de FCoE).
Notons aussi que la crise devrait continuer à favoriser la croissance du marché d'entrée de gamme, où les géants du secteur ont intensifié leur bataille en 2011 (avec par exemple l'arrivée des VNXe d'EMC ou le renforcement de l'offre FAS 2000 et 3000). Reste que les géants du secteur devront y affronter des acteurs agressifs comme Drobo, OverLand, QNap ou NetGear, mais aussi des solutions d'intégrateurs basées sur des OS de stockage séduisants comme Nexenta (une solution s'appuyant sur ZFS distribuée en France par l'intégrateur Alyseo) ou DataCore San Symphony.
Aucun commentaire:
Enregistrer un commentaire