L'an dernier, pour la première fois l'on a vu le nombre de machines virtuelles provisionnées dépasser celui des machines physiques. La vitualisation et VMware n'y sont pas étranger puisque celà devient une simple formalité que de déployer son template en quelques minutes à partir d'un OS et de ses drivers standardisés alimentant les pérphériques virtuels présentés par l'hyperviseur. Ceux qui n'ont pas connu la joie de l'installation d'une machine physique et des galères qui l'accompagne ne connaissent pas leur chance ! A présent, on passe à l'étape suivante : le gommage total de l'adhérence entre la machine et TOUS les périphériques physiques vus comme de simples commodités : le réseau et le stockage sont en ligne de mire.
Cisco a par exemple présenté son initiative de réseau convergent NEXUS mixant sur un seul câble LAN et SAN supportant les VXLANs permettant les vMotions - ou Live Migration si vous êtes de l'autre monde- agnostiques du point de vue configuration réseau, tandis que d'autres tels qu' EMC prépare le tiering total en ramenant le cache sous forme de disques flash dans le serveur amortissant l'alimentation des disques mécaniques de plusieurs baies de stockage en arrière plan, Oracle prépare lui sa nouvelle génération de baie convergée SAN/NAS Pillar pour Datacenter mutualisé supportant jusqu'à 18 Péta-octets dans une seule machine et puis il y en a même tels que Nutanix qui supprime carrément les baies de stockage disques ... L'intelligence du contrôleur devient une VM.
Pour autant, à l'heure où sortent les premières normes ISO sur l'Eco-efficience du datacenter, je m'étonne de ne pas trouver de normes au regard des capacités d'accueil et de fonctionnalités de ce dernier. Je m'explique : qu'attend-t-on pour donner des étiquettes aux différentes commodités et afficher clairement sur le portail de provisionnement de l'utilisateur le niveau de performance envisageable, son taux d'occupation et la charge actuellement supportée ? Par exemple le pool de stockage basse performance -SATA 5400- pourrait avoir la valeur total de 10000 avec une possibilité de réservation maximale pour mon usage de 100 et une latence acceptable. Celui à très haute performance -SSD SLC- aurait une valeur totale de 1 000 000 mais une réservation possible de 10 pour mon usage personnel et ainsi de suite pour tous les périphériques. Mis bout à bout, tous ces labels permettraient de donner une valeur totale pour un datacenter donné susceptible d'en connaître les capacités. Mieux, avec l'indication de la consommation des ressources mise à jour par exemple toutes les minutes, nous aurions des métriques normalisés de taux d'utilisation.
Mais bon, pour l'instant c'est un voeu pieux dans la mesure où il faudrait que tous les acteurs se mettent d'accord :) mais ce sera l'étape indispensable pour passer à l'âge de raison et à la vraie interopérabilité inter-Cloud.
Aucun commentaire:
Enregistrer un commentaire