Avec l'apparition de la consolidation liée à la virtualisation, l'arrière de nos serveurs est devenu un véritable plat de spaghettis du fait du nombre de câbles nécessaires pour irriguer les machines virtuelles. L'usage de réseaux très hauts débits 10 giga Ethernet scindés au travers de VLANs puis l'initiative Cisco FCOE fédérant SAN et LAN sur un même câble 10 Base CX4 permit d'atténuer le phénomène. A présent que les périphériques notamment disques se sont adaptés pour offrir la bande passante nécessaire aptes à affronter les IO Storms de centaines de machines nous voici face à une double problématique : une nouvelle inflation de câbles qui menace et une augmentation du temps de réponse du fait du très important volume de données à traiter. Oracle a proposé il y a quelques temps ses engineered systems EXA associant au plus près logiciel et matériel tout en consolidant les licences d'utilisation. Pour autant, ses solutions software in-the-box ne s'appliquent que si vous utilisez les produits de l'éditeur. Que faire si vous utilisez d'autres produits ?
Ce qui fait la force des EXA-machines d'Oracle, c'est leur backend à base de technologie Infiniband. Qu'est-ce ? Infiniband n'est pas à proprement parler un réseau mais plutôt un bus parallèle externe à très haut débit un peu comme si vous étendiez le bus de communication PCI de votre carte mère à l'extérieur du boitier de votre serveur permettant d’écrire directement dans la mémoire du voisin. Cette technologie est le fruit de la fusion des recherches sur le projet Future I/O, développé par feu Compaq, IBM, Hewlett-Packard, et celles de Next Generation I/O (ngio), menées par Intel, Microsoft, et Sun Microsystems à la fin des années 90. Pour la petite histoire, INTEL ne croyant pas à l'avènement de cette technologie quittera les festivités, préférant travailler sur son propre bus maison : le bien connu bus PCI / PCI-Express ... Le coeur du bus Infiniband s'appuie sur un switch appelé directeur infiniband apte à véhiculer sur un même média les protocoles SAN (FCOE compris), LAN. Les cartes d'interface sont des Host Canal Adapter ou HCA offrant une connectivité à 10 Gbit/s (SDR, Single Data Rate), 20 Gbit/s (DDR, Double Data Rate) ou 40 Gbit/s (QDR, Quad Data Rate) mais avec une latence inférieure à 100 nanosecondes, la vitesse de fonctionnement de la mémoire RAM ! Ainsi, un serveur équipé d'une HCA bi-canal QDR bénéficie de 80 Gbit/s de bande passante pour l'ensemble de sa connectivité.
L’un des autres atouts de l’infiniband contrairement à FCOE, c’est d’autoriser deux sauts depuis le serveur jusqu’au target tout en faisant office de passerelle vers les autres médias traditionnels.La Fabric étant au centre de l’infrastructure, elle peut attribuer elle-même les World Wide Name (WWN), les Media Access Control (adresses MAC), ainsi que les adresses IP permettant ainsi une totale virtualisation au niveau hardware. Ce n’est donc peut-être pas tout-à-fait par hasard qu’Oracle a racheté l’un des chantres de cette technologie, j’ai nommé XSIGO. lui offrant une réponse crédible dans le domaine du Software Defined Datacenter/
2 commentaires:
J'ai fait l'architecture d'un environnement virtuel avec des Xsigo IO Director VP780. Ca marche du tonnerre!
Augmentation de la bande passante pour le trafic est-ouest, temps de latence très bas, virtualization des IOs FC et Ethernet, réduction de l'emprunte physique (câblage, portes, électricité...), QoS integre et gestion intelligente du trafic (trafic est-ouest a la vitesse de la carte IB), etc, etc...
J'ai un peu peur qu'Oracle se replie sur Xsigo et ne permette plus que l'achat couple...
Que dit la rumeur?
La rumeur dit que je vais tester la chose et que ça s'intégrerait bien le backend des solutions de stockage Oracle ...
Enregistrer un commentaire