Avec l'avènement de la virtualisation, du Cloud Computing et autres Big Datas, nous sommes à la fin du cycle, qui a vu naître le client serveur, l'éclatement de l'informatique, la généralisation des réseaux locaux, d'IP et de la profilération de données multimédia. Pourtant, quand est sorti fin 1990 le Systempro, premier serveur x86 équipé d'un contrôleur RAID 4, le discours des commerciaux de feu Compaq résonne encore à mes oreilles annonçant fièrement la naissance du downsizing autrement dit la disparition inéluctable du Mainframe propriétaire, onéreux mais aussi capable de gérer 75 000 terminaux répartis sur tous les continents. Le réseau d'alors s'appelait SNA et les baies de stockage étaient déjà de provenance EMC.
Vingt ans après à quoi assiste-t-on ? D'un côté la renaissance du Mainframe à la portée de toutes les entreprises, s'appuyant sur le couple x86 / virtualisation, de l'autre des méga datacenters type Google ou Amazon offrant services et hébergement à la demande, capables de répondre aux besoins de millions d'Internautes. Et puis, il y a l'entre deux, plus commun et pragmatique, ce que d'aucun connait sous le nom de Cloud Hybride mêlant à la fois applications internes et celles externalisées pour lequelles les aspects du réseau et de la sécurité restent les freins majeurs quasi incoutrounables. Au-delà du CISCO Nexus 1000v et de VXLan, on peut imaginer que les éditeurs de solutions de virtualisation cherchent à appliquer les mêmes recettes que celles qui ont prévalues aux ressources CPU/RAM pour n'en faire de simples commodités : aujourd'hui peu importe la provenance du serveur du moment que l'on peut en partager ces dernières. Voilà le pourquoi du rachat de spécialistes de logiciels réseaux par des éditeurs d'hyperviseurs.
Si on fait un peu de prospective de comptoir à court terme - digne d'une bonne vBeer- ma propre analyse est que l'on peut estimer que pour atteindre la pleine maturité, il faudra encore travailler sur les aspects réversibilité, "Live MigrvMotion" entre hyperviseurs hétérogènes, définir un test universel mesurant le niveau de fonctionnalités, de redondance et de performance disponibles pour un datacenter donné et surtout établir de nouveaux standards de composants serveurs, disques - soyons fou incluant nativement écriture en Y et gestion de la redondance locale,-, réseaux totalement banalisés dont l'intelligence deviendrait totalement émulée logiciellement et serait déportée au sein de la console de l'hyperviseur, bref du Software Defined and Driven Infrastructure. Dans un domaine connexe, regardez ce qui s'est passé pour les instruments de musique électronique d'aujourd'hui, les émulations logicielles proposent les mêmes fonctionnalités que leurs cousins physiques d'y il a 15 ans, sonnent aussi bien et sont pourtant plus pratiques à emmener sous le bras en voyage dans un notebook : le fairlight émulé sur l'iPad plus pratique et plus convivial n'a pas à rougir du point de vue son par rapport au meuble de 60kg des années 80 ...
Finalement, à l'instar de Google ou Oracle, quand VMware ou Microsoft proposeront (imposeront)-t-il leurs propres normes débarrassées de tout ce qui est inutile pour le physique ? A suivre ...
Finalement, à l'instar de Google ou Oracle, quand VMware ou Microsoft proposeront (imposeront)-t-il leurs propres normes débarrassées de tout ce qui est inutile pour le physique ? A suivre ...
Aucun commentaire:
Enregistrer un commentaire