dimanche 31 mai 2009
Telex : Susan Boyle perd en finale de Britain's got Talent
Le résultat en vidéo : http://www.leblogtvnews.com/article-32060914.html
samedi 30 mai 2009
Séance Culture 7 : le Korg 01/w
vendredi 29 mai 2009
Mise à jour du SI de la SETAO vers Cisco DCE
2eme conséquence : 2 Nexus 5K ont été achetés directement ailleurs ( livrés en 24h00 chrono !)
3eme conséquence : Ce fournisseur qui devait nous livrer une extension pour l'un de nos système Pillar, s'est vu retirer l'affaire
4eme conséquence : DS ne va pas lui faire que de la PUB
Phase1 : Installation de l'armoire Pillar
Branchement des PDUs aux onduleurs
- Cartons de briques de disques SATA Pillar Data de 6,5To ... DS en attends encore 9,
- Deux Cisco Nexus 5000 (10 Giga - FCOE inside).
La semaine prochaine, phase 2 :
- Mise en baie du slammer (switch fabric, on parle de Moteur sur un EMC VMax), du Pilot, des 3 briques de disques existantes et des deux serveurs frontaux : un Windows, un ESX supportant FC/FCOE/ISCSI. Le restant des briques sera installé à chaud. En déplaçant la QOS des volumes, la ventilation des données sur l'ensemble des disques de la baie sera automatique.
- Réception, si le engagements sont cette fois tenus, de deux 6513 VSS - SUP 720 G3 ...pour upgrader le backbone en 2 x 10 giga Ethernet de 24 Km.
Phase 3 Replacement de deux 6509 en 6513VSS et upgrade d'un 6509 vers VSS
Le remplacement des deux 6509 existants se déroulera en deux week-ends. Les configurations migrées de CATOS vers IOS sont prêtes. Un troisième commutateur 6509 sera mis à jour avec des cartes SUP 720-g3-VSS en cours de semaine.
Ensuite Phase 4 (dès que les négos licenses sont terminées):
- Installation Top of the rack du Nexus 5K de Saint-Jean de Braye et du 2960-48G pour le support du ISCSI et des liens Giga standards, du Nexus 5K de la Source et de son copain 2960-48G
- Migration de 6 serveurs vers vSphere, 3 à Saint Jean de Braye, 3 à Orléans la Source
- Mise en oevre du Distributed Switch
- Installation / et configuration du Cisco Nexus 1000v
Et voilà deux clouds internes full DCE, opérationnels et en production fin juin 2009 sous vSphere. C'est beau un SAN FC/FCOE/ISCSI de 19 & 24Km sans DWDM et lambdas....Affaire à suivre.
jeudi 28 mai 2009
Quel avenir pour Pillar Data Systems après le rachat de Sun ?
The register - By Chris Mellor Posted in Storage, 25th May 2009 11:58 GMT
http://www.theregister.co.uk/2009/05/25/pillar_data_oracle_ellison/
Analysis Oracle buying Sun Microsystems has caused people to wonder about the future of Pillar Data, Larry's other storage company.
Pillar Data is backed by Larry Ellison's personal investment vehicle, Tako Ventures, possibly to the tune of half a billion dollars.
Founded in 2001 the Silicon Valley-based firm has developed the Axiom storage line, guaranteeing 80 per cent utilisation, which is, it says, twice the industry average. Better utilisation means fewer storage systems. Axiom is also "application aware", which makes for much more efficient storage provisioning, according to Pillar.
Oracle has its own hardware ventures, notably the database machine developed in partnership with HP. And now it is buying Sun, which has its own significant storage offering.
So where does Pillar fit into Larry Ellison's scheme of things? Come the end of the recession, he can make a decent return on his investment by getting the company to IPO. Or, he could broker a deal one day to fold Pillar into Oracle.
This is the more intriguing possibility. And strategically, it makes sense. A view from inside Pillar is that the Oracle boss is personally funding Pillar to see if, among other things, if it is possible to build a storage offering that sidesteps third party storage vendors.
If Oracle owned the entire stack, the whole works from disk platters through to its own software then customers avoid the sometimes great expense of, say, an EMC or NetApp system capable of operating and storing the data needed.
So is Sun the answer? The answer in the Pillar camp is "no".
The Sun arrays
Sun's storage arrays include high-end USP-V HDS products that Sun resells to a different customer base from the mid-sized enterprises that tend to buy Pillar Axiom arrays.
Moving on to Sun's mid-range arrays, which contain technology inherited from StorageTek, the company bought by Sun for $4.1bn in 2005. These are based on products supplied by LSI or Dot Hill and are, loosely speaking, first generation SAN arrays, and not second generation iterations, as exemplified by 3PAR, Compellent and Pillar.
These StorageTek products are storage array platforms without the ability to offer application-specific quality of service or utilisation guarantees. Combine these limitations with the need to pay LSI and/or Dot Hill for the supplied enclosures and controllers, and the Axiom arrays look less costly and better suited to work in many Oracle customers' environments. So says the Pillar camp.
Now consider the Sun Open Stage 7000 products and the X4500 Thumper hybrid server/storage arrays, which are produced by Sun's system division. A Pillar aside is that it seems that whenever server guys build storage they always build servers.
The Sun 7000 business model, with its commodity hardware aspects, is good news in Oracle-land, but its open source software is not. Not to Oracle, any way. Neither is the bag-of-bits aspect of the 7000's software environment particularly attractive to many customers, according to the Pillar camp. Here are the software lego blocks; now build the storage array hardware and software system yourself. No thank you. I want to have an easier time implementing my storage array. (N.B. Note the reader comments that attack this characterisation of Sun's 7000 line.)
Combine that with the lack of any application-aware quality of service facilities and utilisation guarantees and the Pillar Axiom stacks up well against the Sun drive arrays. If Oracle bought Pillar then it's thought that the StorageTek drive arrays would quietly wither away, The high-end HDS ones kept, and the Sun X4500 and 7000 products also undergo withering with the Axiom surviving and prospering, perhaps with added Sun technology, such as ZFS.
The upshot is that Pillar is not threatened by the Oracle-Sun deal. But its future might be made clearer by it, with the Sun acquisition perhaps functioning as a catalyst to make developments happen regarding Pillar.
Nobody knows what's in Larry's mind, except Larry and his close colleagues, so this analysis is not informed by a close understanding of his intentions. Hopefully, it adds some insight into what could happen with Pillar in coming years. ®
Telex : Cisco California la suite ...
Affaire à suivre :)
Toujours dans l'actualité Cisco, la SETAO se prépare a déployer un MAN 10 Giga en lieu et place de son MAN Gigabit actuel agé de 10 ans (déjà!) Seront intégrées les technologies Nexus Physiques/Virtuelles s'appuyant sur VMware vSphere et des chassis commutateurs 6513 VSS (Virtual Switching) ... le tout avec des liaisons allant jusqu'à 24Km. Plus d'infos prochainement, quand votre ami DS aura oeuvré :) keep in touch !
lundi 25 mai 2009
Aujourd'hui, votre ami DS était en séminaire 'Les tendances actuelles de l'Informatique'
- les boomers', les rois du COBOL et du Main-Frame, ceux par qui tout est arrivé
- la 'génération X' ou celle du minitel et du ZX81, ceux qui ont démocratisé
- la 'génération Y" celle qui a interconnecté les systèmes entre eux
- les 'Digital Native', ceux pour qui le PC et le WEB 2.0 ont toujours existé !!!
Je vous fait grâce des pré-boomers, les hors-sujets. Et dire que DS se voyait 'X' option Geek.
Voici l'Agenda de votre ami DS pour le mois qui vient :
- Samedi 6 Juin, extension à 100To de l'un de ses SAN Pillar Data Systems
- Vendredi 12 juin, DS va présenter la virtualisation à un parterre de clients NCS au Touquet
- Mardi 16 juin, DS va animer en compagine de l'excellent David Dariouch un petit déjeuner ADIRC sur le stockage en environnement virtualisé
- Jeudi 18 juin DS co-animera avec Julien, VMware et EMC une soirée sur le Cloud Computing dans le cadre de l'ADIRC
- Mardi 23 juin, DS sera à Toulouse dans le démo-center de FalconStor pour affranchir quelques journalistes sur le PCA avec vSphere
- Jeudi 25 juin, DS co-animera avec son copain Julien, le VMUG chez Cisco France autour des thèmes vSphere, Cloud Computing, Nexus 7/5/2/1K et UCS
- le 18 Juillet .... GROOSSSSE SURPRISE !!!
dimanche 24 mai 2009
vendredi 22 mai 2009
Les enseignement de Klaus, la tempête des Landes, pour la continuité de service
jeudi 21 mai 2009
Telex : vSphere & Nexus 1000v disponibles en téléchargement
Celà fait presque un an que votre ami DS fréquente quotidiennement ces produits en tant que bêta testeur.
mardi 19 mai 2009
Le n'importe quoi de la semaine : 3Com se remet au switch de coeur de réseau
Disponible en deux versions, selon les exigences de performances ou de capacité : châssis à 8 emplacements offrant un débit hautes performances de 3 Tbits/s pour une capacité d’acheminement de 960 millions de paquets par seconde (pps) ou châssis à 18 emplacements offrant un débit hautes performances de 6,6 Tbits/s pour une capacité d’acheminement de 2,2 milliards de paquets par seconde (pps).
Une nouvelle économie révolutionnaire des centres informatiques obtenue grâce à l’association d’un rapport prix/performances jamais atteint et d’une densité de ports de 128 ports 10-Gigabits fonctionnant au débit de la liaison (512 en sur-souscription) et 864 ports Gigabit Ethernet fonctionnant au débit de la liaison.
Ne consomme que 80 W par port 10 Gigabit, soit une économie de plus 50 % par rapport aux produits concurrents, afin de répondre aux exigences du Green IT.
Assure la pérennité des investissements grâce à une conception de haute disponibilité prête pour les évolutions futures :
Évolution transparente vers le Gigabit Ethernet 40/100 et Fibre Channel sur Ethernet (FcoE) pour répondre aux exigences de demain
Une fabric virtuelle unique basée sur la technologie IRF brevetée par 3Com permet aux équipes informatiques de gérer des commutateurs dispersés comme s’ils se trouvaient au même endroit. Cohérence opérationnelle grâce à l’utilisation de Comware, un système d’exploitation de plates-formes commun piloté et à la gestion assurée par une plate-forme d’administration unifiée. Ces avantages sont disponibles dans tous les produits du portefeuille H3C."
dimanche 17 mai 2009
Séance culture 6 : l'Ensoniq TS 12
samedi 16 mai 2009
Compaq 486c : la machine à coudre du geek d'il y a 16 ans
Le setup du BIOS se faisait par disquettes ou par le biais d'une partition système sur le disque dur interne. Tout comme le bus MCA (fichiers .ADF), chaque carte était déclarée au travers d'un fichier qui permettait au système de s'autoconfigurer. C'était en quelque sorte un bus plug and play.
A noter que votre ami DS avait rempli l'ensemble des slots mémoire avec des barettes de 4Mo et que le processeur d'origine était passé de 66 à 75Mhz à l'aide d'un 486 DX3/75.
vendredi 15 mai 2009
Reza quitte VMware ...
C'était un peu la mémoire de l'éditeur de ce côté-ci de l'Atlantique.
DS45 : Blog vu pour la 10 000e fois aujourd'hui
mercredi 13 mai 2009
Cisco UCS : Six différentiateurs avec la concurrence
Vu sur Distributique
Avec son offre de serveurs lames UCS, Cisco a introduit de réelles innovations liées à l'évolutivité, la virtualisation, le réseau ou l'administration. IBM, HP ou Dell ne sont pas encore en mesure de répondre directement.
Chez HP, IBM et Dell, les châssis de lames intègrent une unité dédiée à l'administration et quelques emplacements pour des équipements réseaux SAN ou LAN mutualisés entre toutes les lames, dont le nombre culmine à 16. Au contraire, dans l'offre UCS (Unified Computing System) de Cisco, unité d'administration et équipements réseaux sont regroupés dans un châssis indépendant, l'UCS Manager, auquel se raccordent, selon la version (1U ou 2U), jusqu'à 20 ou 40 châssis (6 U) de lames. Ces châssis intègrent chacun 8 lames demi format ou 4 lames plein format. Cette architecture permet donc une mutualisation des entrées/sorties à l'échelle de 320 lames.
2. Un accès unifié aux SAN et au LAN
L'UCS Manager regroupe en outre la connectique SAN et LAN grâce à un ensemble de ports banalisés de type FCOE (Fiber Channel over Ethernet). "Cela permet une simplification du câblage ainsi qu'une réduction du nombre de boîtes et de la consommation électrique", affirme Jérôme Bouvet, responsable réseaux et sécurité chez SCC. Le tri entre LAN Ethernet et SAN (notamment pour aller vers les baies Fiber Channel existantes) est ensuite réalisé par l'UCS Manager ou par un équipement mixte externe (comme un Nexus 5000). La norme FCOE n'étant pas encore finalisée, Cisco a implémenté une pré-version. "Nous supporterons cette norme lorsqu'elle sera finalisée, c'est-à-dire fin 2009 au plus tôt", affirme Arnaud Jannin, chef de produits serveurs chez HP.
3. Une capacité mémoire cassant les limites d'Intel
"Lorsque l'on virtualise de nombreux serveurs, le goulet d'étranglement ne se situe plus au niveau de la puissance de traitement mais de la mémoire", affirme Lionel Cavallière , responsable marketing produits chez VMware. Or, la capacité des serveurs classiques est limitée à 96 ou 144 Go, par les processeurs Intel, y compris Nehalem. Dell, IBM et HP se limitent à ces valeurs.
"Nous avons développé un circuit spécifique qui permet de monter jusqu'à 384 Go sur les serveurs plein format", explique Bruno Dutriaux, ambassadeur UCS chez Cisco. Un bémol : l'hyperviseur n'est pas en mesure d'exploiter 384 Go. "L'offre vSphere 4 que nous avons lancée en avril fait passer à 255 Go la mémoire gérée, contre 64 Go auparavant", signale Lionel Cavallière.
4. Une conception tournée vers la virtualisation
Outre la capacité mémoire, les projets de virtualisation souffrent d'une autre contrainte majeure, estime Jérôme Bouvet : "On est limité par les corrélations entre machines virtuelles et serveurs physiques. Pour des raisons de sécurité et de qualité de service, les VM doivent en effet être physiquement regroupées par type". Pour échapper à cette contrainte, Cisco a développé un commutateur logiciel, le Nexus 1000V, intégré à l'hyperviseur. Les serveurs virtuels ne sont donc désormais liés qu'à des ports virtuels et non plus à des ports physiques. "Il devient ainsi possible de déplacer à loisir les machines virtuelles, avec les attributs de sécurité et de qualité de service spécifiques", affirme Jérôme Bouvet.
Pour l'instant, le Nexus 1000V n'est toutefois intégré qu'au nouvel hyperviseur de VMware (vSphere 4). "Nous ne pouvons pas réaliser une telle intégration sans la collaboration de l'éditeur. Pour Hyper-V, nous sommes en discussion avec Microsoft", précise Bruno Dutriaux . Parallèlement, la concurrence avance le fait que certaines applications ne seront pas virtualisées avant longtemps. Mais en réalité, les lames Cisco sont des serveurs x86 banalisés fonctionnant sous la plupart des OS, même si certains d'entre eux (comme Solaris et les distributions Linux) ne sont pas encore certifiés.
5. Un point d'administration unique
L'offre UCS comprend un point d'administration unique des serveurs, du SAN et du LAN, grâce à un ensemble d'API couvrant la gestion des lames et des commutateurs physiques ou virtuels. Ces API, basés sur XML, peuvent être exploités par des outils d'administration tiers (pour l'instant seulement BladeLogic de BMC). Mais Cisco fournit également sa propre interface utilisateur.
6. Vers une infrastructure parfaitement homogène ?
On a longtemps prôné la construction d'infrastructures hétérogènes mais censées être cohérentes, grâce à l'adoption de standards. Cette période serait-elle révolue ? C'est l'avis de Jérôme Bouvet qui estime que "le datacenter ne doit plus être un agglomérat de briques et de lego. Le marché demande des solutions complètes mono constructeur incluant les serveurs, le SAN, le LAN, les outils d'administration et un contrat de maintenance unique. L'offre de Cisco va dans ce sens". Mais cette opinion reste controversée, d'autant que la plupart des technologies mises en œuvre dans l'offre UCS sont ouvertes ou en voie de l'être.
Telex : Oracle continue ses emplettes ....
A propos de l'acquisition de Sun :
http://www.eweek.com/c/a/IT-Infrastructure/Anatomy-of-a-MultibillionDollar-IT-Acquisition-894207/
http://www.sec.gov/Archives/edgar/data/709519/000119312509107681/dprem14a.htm
mardi 12 mai 2009
A Orléans, la Setao entame la virtualisation de ses postes de travail
La Setao – société d’exploitation des transports de l’agglomération orléanaise – entame la migration près de 300 postes de travail lourds vers une solution associant terminaux légers Wyse et virtualisation avec VMware View 3 mais aussi… App-V. Une opération onéreuse mais qui ouvre à la voie à de nombreux gains.
Pour la Société d’Exploitation des Transports de l’Agglomération Orléanaise, la maîtrise de l’énergie est une priorité, selon son administrateur Systèmes et Réseaux, Olivier Parcollet, qui explique que l’entreprise est certifiée ISO 14001 : « notre ancien directeur voulait décliner notre approche green dans tous les domaines, et qu’on le prouve. » Du coup, même si la virtualisation des infrastructures informatiques, des serveurs aux postes de travail, ne permet que quelques « milliers d’euros » d’économie par an, elle est validée. Les politiques tarifaires ne sont d’ailleurs pas pour rien dans le fait que l’économie n’ait rien de spectaculaire. Car Olivier Parcollet se souvient de la réaction d’EDF après la virtualisation de ses serveurs : « EDF ne comprenait pas ; ils ont pensé à une panne de compteur et l’ont changé… »
Aujourd’hui, la Setao exploite deux fermes sous VMware Infrastructure 3.5 – lequel a permis le passage de 32 serveurs Dell 1425 à 3 serveurs bi-xeon par ferme, avec un capacité CPU libre par serveur pour assurer la redondance en cas de panne –, dont une sur un second site en réplication, à 19 km du premier, en synchronisation sur IP. Une infrastructure qui doit évoluer prochainement en Fibre Channel sur Ethernet (FCoE) avec passage du réseau à 10 Gbps. Un réseau de 24 km au total, avec 60 points d’accès dans toute l’agglomération orléanaise : « il offre des services à la Setao et à ses clients : vidéo surveillance ; supervision du trafic du tramway ; information en temps réel pour les usagers ; sonorisation des stations ; interconnexion des locaux de la Setao (5 sites principaux) », explique Olivier Parcollet.
Des gains opérationnels importants
Sur le terrain de la consommation électrique, tout d’abord : « un petit client Wyse consomme 14 Wh [et 600 Wh pour le serveur 50 postes], tandis qu’un PC peut monter à 300 Wh… » Mais aussi sur celui de la fiabilité : « lors un chantier, un malheureux coup de pioche peut couper une liaison ; l’utilisateur qui travaillait à ce moment-là sur un document ouvert sur le réseau va perdre ses données. » Ce qui n’est pas le cas si la machine virtuelle continue imperturbablement de s’exécuter sur un serveur. Même chose en cas de coupure électrique impromptue.
Le confort d’utilisation d’une machine immédiatement disponible dès la mise en route du poste de travail – « parce que la machine n’est qu’en sommeil sur le serveur » - n’est pas négligé non plus : « pour l’utilisateur final, ça boote en quelques secondes. » Présenté comme un « PC light », le terminal a été accepté sans peine : « on ne le voit plus, on n’y pense plus. » Pour un peu, ce serait même joli…
Et puis, « si un utilisateur me demande une application spécifique, disponible uniquement sous Linux, par exemple, je ne peux plus lui dire non ! »
A cela s’ajoutent des avantages d’administration : « 10 minutes pour préparer un client Wyse contre une à six heures pour un client lourd. […] Quand je dois remplacer un client léger, il part par coursier, dans un petit carton ; l’utilisateur le branche tout seul. » Impensable avec un PC classique – « on a bien essayé de faire des ghost [des images génériques prêtes à installer sur les clients lourds, NDLR], mais on s’est retrouvés à ne gérer que du spécifique… ». Et puis, pour les gros calculs, « il y a la puissance de calcul du serveur ; ça peut aller beaucoup beaucoup plus vite. » Pour Olivier Parcollet, avec cet effort de virtualisation, « il n’y a plus de déperdition de puissance CPU ou de mémoire vive qui passe l’essentiel de son temps à dormir. »
Mais il faut encore ajouter les bénéfices relatifs au plan de reprise de l’activité. « Toutes les VM des utilisateurs ne sont pas dupliquées, mais très rapides à reconstruire à partir de leurs modèles. » Une « légèreté » que peut se permette l’administrateur dans la mesure où, en plus de VMware View, il utilise App-V, de Microsoft, pour la virtualisation des applications. Du coup, ni les applications ni les données – hébergées sur les serveurs – ne risquent d’être perdues. Et là, Olivier Parcollet voit un avantage à la virtualisation en mode client/serveur : « l’intégration des postes de travail au PRA est impossible avec un hyperviseur bare métal. » Et puis, « si on nous demande de passer à Vista ou à Windows 7, il nous suffira de mettre à jour les images modèles des postes de travail ». Sans avoir à redéployer toutes les applications. La fonction des clones liés de VMware View 3 accélérera encore le processus.
Une technologie qui n'est pas applicable à tous...
Pourquoi App-V plutôt que ThinApp ? Malgré une architecture virtualisée s’appuyant massivement sur les outils VMware, Olivier Parcollet, administrateur Systèmes et Réseaux de la Setao, a retenu App-V, de Microsoft, de préférence au ThinApp de VMware, pour la virtualisation de ses applications : « parce qu’App-V présente un haut niveau d’intégration avec Active Directory. » Ce qui simplifie tant la gestion des déploiements que celle des licences. Et App-V ne serait pas plus gourmand que ThinApp en ressources CPU, selon les tests menés en interne à la Setao. Ce serait même l’inverse, à iso-utilisation : « c’est du factuel, on l’a testé. »
lundi 11 mai 2009
Pillar Data.Systems. rebondit avec disques SSD et nouveaux distributeurs
Pillar Data Systems, start-up rendue célèbre, notamment, par la personnalité de son investisseur - Larry Ellison -le patron d'Oracle - renoue avec le marché français et la communication dans les médias.
En cette fin avril 2009, la marque annonce coup sur coup :
- une offre SSD aggressive en termes de prix;
- des tests de performances SPC-1 supérieurs à la concurrence, avec son offre d'unité de stockage Axiom 600
- une nouvelle stratégie de distribution, de nouveaux partenaires;
Pillar avait irruption sur le marché il y a 3 ans en France avec une offre qui se voulait originale à l'époque car sur une plate-forme unique, elle proposait d'allier des stockage NAS et SAN Aujourdh'ui, la marque veut garder son image d'innovation en investissant dans la technogie SSD - mais sans être le premier, car EMC, entre autres, a déjà pris les devants, il y a plusieurs mois déjà. Concernant la technologie d'unités mémoire SSD (solid state disk), à base de mémoire 'flash', Pillar déclare "repousser les limites du stockage des données en termes de prix-performance". Son offre est définie comme une "solution de stockage haut de gamme pour étendre les fonctionnalités Application Aware". Elle s'intègre directement au système de stockage Pillar Axiom. Les nouveaux disques appelés 'SSD Bricks' permettent de réduire la consommation totale d’énergie de près de 85%. Par ailleurs, Pillar revendique que selon les résultats récemment publiés d’un banc d’essai SPC-1, son système Axiom occuperait le premier rang sur les critères de performances globales et de rapport prix/performances, faisant mieux que les solutions d’EMC, IBM et NetApp ("offres, comparables en termes de configuration et de gamme de prix"). "Des essais indépendants ont confirmé que Pillar était le système de stockage le plus efficace et le plus performant de sa catégorie. Nous nous appuyons maintenant sur notre technologie brevetée pour lancer une offre de SSD totalement inédite. » Pillar insiste sur le fait qu'il a travaillé à coupler son offre SSD avec un logiciel "capable de l’exploiter correctement". À l’heure actuelle, les SSD dédiés au stockage de niveau 0 dépendent la plupart du temps des compétences en gestion du propriétaire de l’application, par exemple un administrateur de base de données capable d’identifier les index ayant le plus d’impact sur les instances vitales de la base de données. Mais il s’agit là d’un processus qui reste largement manuel et donc vulnérable aux erreurs".
SGI est mort, vive SGI !
dimanche 10 mai 2009
Telex : Le mystère du gros SUN présent sur la vidéo lors du lancement de VMware vSphere est levé
... sacré Shad :). De son côté DS n'est pas en reste puisque le patron du Professionnal Services Pillar Data Systems france, membre éminent de la diaspora des ex-SGI, et SAV Français non officiel du même constructeur , va bientôt lui amener une sublissime Silicon Graphics INDIGO rien que pour assouvir l'un de ses fantasmes de Geek. Ca donne aussi quelques idées de vidéos à DS ça .....
Monster S2R Vee-Two : un S2R aux amphets
117 Ch à la roue arrière, pour 186Kg, jusque là, rien d'anormal. A la vue de ces chiffres certains diront : "ce doit être encore une de ces japonaise 600 4 cylindres capable de prendre 16 000 tours :)". A l'inverse si DS vous dit que ces chffres proviennent d'un moteur V2 twin 1000 2 soupapes par cylindre et refroidit par air Ducati, conçu il y a près de 40 ans ? Alors là, on atteint le nirvana de ce que l'on peut tirer d'un tel moulin ! En gros, avec 11,5 mkg de couple, dès que l'on tourne la poignée des gaz, le roadster lève généreusement le nez vers le ciel. Au démarrage, vous faites même la nique à une machine de moto GP et vous devenez le roi du start and go à tous les feux rouges !!! Alors ? c'est quoi la modif ce coup-ci ? Une bombonne de protoxyde d'azote (NOS) comme dans 'fast and furious' ? Un turbo ? un troisième cylindre ? Un truc à Bart ? Que nenni, c'est un compresseur Sprintex adapté sur la machine par les géniaux australiens de Vee-Two et ATG qui nous transforme le S2R en dragster. L'adaptation est si bien réalisée qu'il n'y a pas nécessité de supprimer le catalyseur -attitude pas green- ou reprogrammer l'injection. En revanche, un radiateur d'huile plus gros a été installé pour dissiper le surcroît de calories. Le compresseur a volontairement été limité à 11 500 t/min, ce qui génère une surpression de 0,44 bar. Le suplus de poids est de 8 kg, largement compensés par les sensations proposées. La cerise sur le gâteau, c'est que le kit va être vendu pour que vous puissiez vous-même procéder à l'amélioration des performances de votre "poussif S2R" contre 4K€. Par contre, au vu de la limitation des 100cv dans l'hexagone, ce Kit ne présentera que peut d'intérêt pour nous hélas !
jeudi 7 mai 2009
Quand EMC s'insipre de Pillar Data Systems pour créer son DMX V-MAX
Alors quel sont les intérêts pour EMC de sortir de la traditionnelle architecture monolithique au profit d'une modulaire ?
- le gain en terme de coût de fabrication car EMC va pouvoir vendre au prix des anciens DMX, des machines moins chers à fabriquer
- la scalabilité, la machine peut héberger dans sa configuration la plus puissante 2400 disques SATA, FC et/ou SSD dont les I/Os sont réparties sur l'ensemble des moteurs
- une administration unique et simplifiée
- un maximum de 16 ports FC 4gb/s, 8 ports FICON (pour Mainframe), 4 ports Giga Ethernet dédié à la réplication avec une autre baie, 8 ports Gigabits ISCSI pour une volumétrie totale de 2 Po.
- une évolution de la puissance simplifiée par 'simple' changement de moteur(s)
DS ne peut que remercier EMC d'avoir donné raison aux équipes Pillar Data Systems qui ont conçu l'architecture AXIOM il y a bientôt 8 ans, car EMC en a reprit l'architecture. Chez Pillar Data Systems, le 'moteur' se nomme 'Slammer', il est équipé de 2x2 processeurs AMD 64 bits avec 2 x 24 Go de cache et peut s'interconnecter avec 3 autres homologues en FC. La configuration maximale permet d'accueillir 830 disques pour une volumétrie de 2 Po. le nombre maximal de ports est de 16 ports FC et 16 port ISCSI. Le seul inconvénient est de ne pas permettre l'accès à un LUN depuis n'importe quel slammer, mais cette lacune sera comblée d'ici la fin de l'année. Par contre, un Pillar possède la fonction de classe de service physiquement déclinée sur le disque qui permet d'assurer une vraie QOS de bout en bout. Sachant que la surface d'écriture est 3,6 fois plus importante à l'extérieur qu'à l'intérieur d'un plateau, on peut accéder à 3,6 fois plus de données sans bouger les têtes, donc plus rapidement qu'en les bougeant pour accéder à d'autres parties du disque. Pillar a défini 4 zones de qualité de service (QOS) : 20% haute, en rouge sur le schema ; 40% moyenne, en jaune ; 20% basse, en vert ; 20% archive, en violet
Dans VMware ESX, il suffit de mapper les datastores avec la QOS appropriée dans les pools de ressources. A noter aussi que le stripping (la taille des blocs physiques utilisés) est de 1 Mo, gage de performances hors normes par rapport aux concurrents
Autre atout : chaque tiroir de disques, appelée brique, contient deux contrôleurs dédiés chargés de gérer les I/Os locales. Celà signifie que plus on ajoute de disques, plus la machine dispose de bande passante. Il n'existe donc aucun risque d''écroulement de cette dernière sur les slammers. Pour illustrer la chose, votre ami DS s'apprète à upgrader, dans une totale sérénité, l'une de ses baies de 16 à 70 To utiles ce qui signifie que les performance en I/Os vont passer de 3900 à 19500 avec des disques SATA !!!
En résumé, vous rêvez de la puissance d"un DMX pour votre Système d'Information, vous n'en avez pas les moyens ? Sachez que vous pouvez vous en procurer un équivalent avec QOS pour le prix d'un EMC CX/4 chez Pillar Data Systems, son nom ? AXIOM 600 ....
Quelques liens utles concernant Pillar Data :
http://ds45.blogspot.com/2010/07/netapp-metro-cluster-vs-pillar-data.html http://ds45.blogspot.com/2010/04/creation-dun-lun-pillar-avec.html
http://ds45.blogspot.com/2010/04/configurer-un-miroir-synchrone-de.html http://ds45.blogspot.com/2009/12/comment-placer-ses-donnees-oracle-sur.html
http://ds45.blogspot.com/2009/12/comment-beneficier-de-la-qos-pillar-en.html
http://ds45.blogspot.com/2009/10/spc-1-t-il-un-sens.html
http://ds45.blogspot.com/2009/09/pillar-ssd-customers-office.html
http://ds45.blogspot.com/2009/05/quand-emc-sinsipre-de-pillar-data.html
http://ds45.blogspot.com/2010/11/propos-votre-qos-san-elle-est-plutot.htmlhttp://ds45.blogspot.com/2011/02/comment-utiliser-la-qos-pillar-avec.html
http://ds45.blogspot.com/2010/10/qos-pillar-utilisation-du-cache.html
http://ds45.blogspot.com/2010/12/repartition-des-luns-dans-une-baie.html