Vu sur zdnet.fr - Serveurs & Stockage
Christophe Auffray, publié le 15 juin 2009Olivier Parcollet « Avec la consolidation, la consommation d’énergie a été divisée par quatre »
Etapes de la virtualisation de serveurs et du poste de travail, impact de l’environnement virtuel sur le stockage, la bande passante et l’administration au quotidien : l’architecte systèmes et réseaux partage son expérience.Quand avez-vous commencé à vous intéresser à la virtualisation ?Nous nous sommes penchés sur la virtualisation il y a bientôt sept ans en raison d'un problème de pérennité de notre plate-forme technique. Celle-ci, dont le cycle de renouvellement est long, de l'ordre de 10 à 15 ans, hébergeait des applications critiques fonctionnant sous Windows NT4.
Notre infrastructure était obsolète et il nous était impossible d'envisager de porter NT4 sur des serveurs récents. Réécrire les applications, lorsque c'était permis, aurait pris plusieurs mois, voire des années. La seule alternative était donc de trouver une solution nous permettant de nous affranchir de cette problématique matérielle.
Nous avons virtualisé une première application avec VMware Workstation, en dépit des recommandations de l'éditeur. Nous sommes ainsi passé d'un cluster NT4 peu performant à un système stable et qui bénéficiait directement de la puissance de processeurs de la nouvelle infrastructure matérielle.
Quelques mois plus tard, nous avons décidé d'appliquer la même recette, sous VMware Server cette fois, à tous nous serveurs dans le cadre de leur renouvellement.
Comment sont gérés les différents serveurs virtuels de la Setao ?Après le premier projet de virtualisation, nous disposions d'une trentaine de serveurs VMware, mais sans vision globale de ce qui se passait sur ces machines. Une application de supervision globale était nécessaire.
Nous avons alors étudié Virtual Center. Mais le coût nous paraissait prohibitif puisque pour seulement quelques milliers d'euros de plus nous pouvions accéder à une version supérieure de l'application de supervision : VMware ESX. C'est donc cette solution qui a été retenue. Les machines virtualisées, 63 au total, ont été importées dans ESX. L'opération s'est faite à distance en un week-end.
De combien de serveurs physiques et virtuels se compose désormais votre infrastructure ?70 serveurs virtuels sont actuellement en production. Ce total passera bientôt à une centaine. Quant aux serveurs physiques, ils sont passés de 30 à 3. L'infrastructure a été doublée pour des questions de continuité d'activité. En tout, nous comptons donc six serveurs bi-xeon répartis sur deux fermes de trois serveurs.
Une ferme est active, et l'autre est placée en stand by avec réplication sur un site de secours connecté en fibre optique, et situé à 19 kilomètres de notre salle informatique.
La virtualisation est-elle concrètement source d'économies ?L'avantage ne se fait pas au niveau du coût d'acquisition, quasiment équivalent à celui d'une architecture faite de serveurs physiques. Une entreprise ne doit pas penser qu'elle va y gagner sur le prix d'achat. La virtualisation n'est pas un investissement de court terme.
Le véritable atout se situe au niveau de l'administration, grâce notamment à un provisionning des serveurs à la demande. Provsionner un serveur supplémentaire réclamait auparavant entre un et deux jours. Récemment, j'ai déployé deux serveurs Linux en environ 15 minutes.
La performance est-elle altérée par la mise en place de la virtualisation ?Le système est totalement stable et quasiment indestructible dans notre configuration. Lorsqu'un serveur physique tombe, les machines virtuelles sont automatiquement migrées vers un autre serveur. Ainsi le service pour nos utilisateurs et nos clients est maintenu.
Quel autre gain avez-vous identifié ?Avec la consolidation de notre infrastructure, la consommation d'énergie de notre salle informatique a été divisée pratiquement par quatre. Outre la baisse du nombre de serveurs, c'est aussi la facture électrique liée à la climatisation qui a diminué. EDF a même cru à une panne et est venu changer le compteur.
Mais qui dit virtualisation dit aussi infrastructure de stockage performante et donc souvent un investissement supplémentaire ?En effet, et c'est une problématique qui est souvent négligée au début. En consolidant, on charge les serveurs jusqu'à une utilisation de 80% du CPU. Les machines arrivent à leurs limites physiques. Il en va de même pour le stockage, c'est-à-dire des I/O [Ndlr : entrées/sorties].
La virtualisation implique de multiples accès concurrents attaquant le même système de stockage. Avec de la sauvegarde, vous risquez un effondrement important des performances. Et si vous souhaitez dupliquer en synchrone synchrone vos données, vous doublez alors les requêtes à un instant T. C'est pourquoi d'ailleurs, il faut aussi disposer d'une bande passante importante.
Comment avez-vous répondu à cette problématique du stockage ?Initialement, la Setao s'appuyait sur un NAS pour le stockage. Nous avons décidé de traiter différemment ce domaine du système d'information en utilisant un outil de virtualisation du stockage : FalconStor NSS.
Le principe de cette application est de s'intercaler entre les serveurs et le stockage pour rendre ce dernier transparent. L'intérêt est de pouvoir utiliser plusieurs baies, de constructeurs différents, qui apparaîtront comme constituant un unique pool de ressources aux serveurs VMware. Vous pouvez ainsi, sans difficulté, faire de la réplication aussi bien en IP qu'en Fibre Channel. Autre avantage lors de la migration vers la nouvelle architecture de stockage : l'opération s'est faite sans interruption de service. Il a suffit de présenter aux serveurs les nouveaux LUN virtuels [Ndlr : des pointeur vers un espace de stockage]
Outre le stockage, d'autres éléments techniques sont-ils à prendre en compte ?
Il ne faut pas négliger le réseau qui doit être bien taillé. De façon comparable, il ne faut pas mégotter sur les cartes réseaux. A la Setao, chaque serveur physique bénéficie d'au moins trois cartes : une pour l'écriture, une pour le port console, et les dernières pour le fonctionnement réseau des machines virtuelles.
Autre aspect, le Fibre Channel. Par souci de garantir la continuité d'activité, nous avons opté pour des cartes comportant deux ports Fibre Channel, c'est-à-dire redondés.
La puissance des serveurs est-elle aussi un critère à ne pas négliger ?
Nos serveurs sont équipés de processeurs Bi quad-coeurs et de 32Go de RAM. Toutefois la puissance processeur importe relativement peu. Les performances sont avant tout fonction de la mémoire disponible.
Avez-vous également des chantiers en virtualisation d'applications et virtualisation du poste de travail ?Pour la virtualisation d'application, nous utilisons App-V de Microsoft. Ainsi des logiciels sont packagés, puis poussés vers les utilisateurs via un serveur de streaming, en lien avec Active Directory. Le principe est d'utiliser une application comme on le ferait d'un fichier MP3... légal et ce indépendamment du poste de travail.
Côté poste de travail, nous avons commencé cette année à déployer des clients légers Wyse associés à VMware View 3. Les tests ont été menés sur 10 postes, ceux qui rencontraient le plus d'ennuis en termes de stabilité. Nous avons ensuite étendu la virtualisation à 50 utilisateurs. Au fur et à mesure du renouvellement de notre parc, des clients Wyse seront installés, soit au total entre 250 et 300.
Quel est le coût d'un tel projet ?L'investissement, licences, 50 terminaux légers, trois serveurs en load-balancing et stockage compris est de 26 450 euros HT. Avec des clients lourds, le prix aurait été quasiment équivalent, de l'ordre de 25 000 euros.
Cette solution présente toutefois plusieurs avantages, notamment au niveau de la mise en place d'un poste de travail. Contre 1 à 2 jours avec un client lourd, il ne faut plus désormais qu'une dizaine de minutes. Nous avons désormais beaucoup plus le temps d'être à l'écoute des besoins de nos utilisateurs. De plus, en cas de défaillance d'un poste, les données ne sont pas perdues puisque la machine virtuelle s'exécute sur le serveur.
La réduction de la consommation d'énergie n'est pas non plus secondaire. Un client léger consomme en moyenne 14 Wh, contre près de 300 Wh pour un ordinateur classique.
Au niveau humain, quel est l'impact de la virtualisation ?Mes équipes réseaux ont changé de compétences. Ils ne se consacrent plus exclusivement à faire des tâches rébarbatives comme de la masterisation. Désormais, ils conçoivent des packages d'applications, ils provisionnent des images... Ils sont devenus responsables de pool de machines virtuelles.
La virtualisation a tiré vers le haut les équipes. C'est pourquoi, il faut que les DSI pensent désormais à réorganiser leurs collaborateurs, ce à quoi ils ne sont pas toujours préparés. Les techniciens doivent quant à eux aussi avoir conscience que leur métier va changer.