mardi 25 janvier 2011

Stockage : de nouveaux concepts qui sentent le réchauffé

J'ai lu avec attention aujourd'hui les articles de Christophe Bardy sur le MagIT faisant un point sur les technologies clés pour l'année 2011 et j'en arrive à la conclusion qu'il n'y a finalement rien de nouveau sous le soleil. Voyons de plus près.

Tout d'abord tout ce qui concerne le tiering automatique vous savez ce concept qui vise à déplacer les blocs de données les plus utilisés sur les disques les plus rapides : c'est vraiment l'art de mettre un pansement sur une jambe de bois. Expliquez-moi comment une baie de stockage saura quel est le fichier le plus importaht pour moi à l'instant ou je vous parle quand la méthode traditionnellement utilisée consiste à faire des analyses statistiques sur plusieurs heures : en gros c'est super, ma donnée sera sur le bon disque quand je n'en aurai plus besoin :( Ne parlons bien entendu pas de la consommation sur le backend de la baie d'autant plus vraie que par exemple sur un Compellent, le maître à penser en la matière, ce n'est qu'un faible volume de données qui est mis en mode data progression, jamais la totalité de la baie à moins de vouloir travailler à 150 IOPs comme votre PC de bureau. Le top du top, c'est quand même de voir le concept (mal transposé) utilisé avec une granularité inadéquate par les ténors du marché pour combler les lacunes de la conception antédiluvienne de leurs bécannes. Le seul que l'on puisse réellement remercier dans l'histoire c'est INTEL avec ses XEON 5600 qui offrent suffisamment de puissance....et dont le successeur arrive sous peu (Sandy Bridge). Aïe pour le retour sur investissement de dans 4ans, votre bécane est déjà morte-née.

Autre gros truc à la mode : la compression et la dédup. Ca c'est du lourd ! En fait, à peu près toutes les machines du marché ont du mal à faire une dédup sur du tier 1 sans impact notable sur l'accès aux données. On va donc vous vendre le fait que 80% de vos données seraient mortes et qu'on peut les dédupliquer à l'envie en toute quiétude, sauf que pour dédupliquer, votre contôleur de stockage devra bosser régulièrement plusieurs heures à 100% : il ne faut pas rêver, si ça marchait si bien, on ne vous filerait pas la license gratos. Je me demande juste à quoi ça sert quand on voit le prix dérisoire d'un disque SATA. Personnellement, je préfère qu'il passe en spin-off ou spin-down (arrêt ou baisse de la vitesse de rotation des plateaux) c'est nettement plus green. Ca tombe bien pour moi, Pillar l'apporte dans AXIOM One 5 avec les storage domains. Pour la vraie dédup qui marche, je fais confiance à Stornext de Quantum qui fait aussi accessoirement du 'vrai' HSM jusqu"à la bande si besoin est.

Et puis NFS, le soi-disant protocole fétiche pour le Cloud, alors-là on bat des records : vous avez déjà fait des montage NFS avec des liens WAN ?? Déjà en 1991, je trouvais que ça ramait sur un Sparc 1 sous SunOS 4 en Ethernet 10 Meg, appelez-moi con ! Ce que j'attends, c'est un VRAI nouveau protocole compatible browser internet que j'affublais du nom de CloudOS (j'aurais dû déposer le nom à l'INPI moi) en avril de l'année dernière, pas une ènieme mouture d'un truc vieux comme le monde. Youtube, ils ne font pas déjà dans la donnée destructurée et compressée ???? Ben oui, celui qui a la solution, c'est la couche 7 du modèle OSI, pas la couche 4 : c'est plus du côté de Microsoft, d'Oracle ou d'Apple que ça se passe.

Décidément, j'ai du mal à me faire intoxiquer par le marketing et "le best launch ever", probablement parce que je ne suis pas un lapin de 6 semaines mais un utilisateurs responsable des denniers qu'on lui confie à la recherche de vrais apports dans la vraie vie pour son entreprise.

Aucun commentaire: