dimanche 31 janvier 2010

3Par, un stockage conçu par des visionnaires



Après avoir évoqué Pillar Data Systems, Compellent ou l'IBM XIV il me semblait légitime de vous parler d'une autre vision novatrice du stockage, celle de 3Par, vous savez ces baies jaunes et noires au look qui ne passe pas inaperçu.

3Par a été crée en 1999 entre autre par des anciens de Sun qui avaient déjà la vision d'un stockage apte à répondre aux enjeux de l'entreprise tout en étant le plus efficace possible. Ce sera la naissance de "l'Utility Storage" un stockage Versatile pour le plus petit investissement initial possible. 3Par sera le premier à promouvoir le Thin Provisionning tant plébiscité de nos jours.

Du point de vue matériel, le produit se décline en 2 gammes : la classe F midrange (en concurrence de la gamme Clariion chez EMC) et la classe T plutôt high End (l'équivalent de la DMX chez EMC). La F supporte de 2 à 4 contrôleurs, jusqu'à 6 ports FC et 4 ports Ethernet ISCSI par contrôleur et 384 disques.




La T, elle, peut accueillir 8 contrôleurs supportant chacun 16 ports FC, 4 ports Ethernet ISCSI et un total de 1280 disques. En outre, les contrôleurs fonctionnent en mesh comme un cluster en dialoguant avec leurs homologues au travers d'un crossbar.




Cette architecture porte le doux nom de "Inspire Architecture". Il est à noter que si un contrôleur venait à tomber, le système ne désactiverait pas pour autant le cache et donc ne baisserait pas en performance contrairement à un Clariion par exemple. Dans le jargon 3Par, celà se nomme le "Persistent Cache".

Les contrôleurs embarquent chacun 12 Go de cache, intègrent un ASIC dit "Gen3" capable de dissocier sur des chemins différents les commandes SCSI des données lors d'une I/O, gage de performance.





Les enclosures de disques, reliés aux contrôleurs par deux ports FC 4, embarquent jusqu'à 40 unités installées verticalement et groupées 4 par 4 dans des tiroirs extractibles. Ils peuvent être de type FC 10k 15k ou SATA.




Le firmware pilotant l'ensemble s'appelle INSERV. Comme je vous l'ai précisé plus haut, il supporte nativement le thin provisionning mais aussi une fonction unique appelée "Wide Striping" ou tous les disques sont découpés sous forme de blocs d'une taille fixe de 256 Mo appelés "Chucklets". Grâce à celà et quel que soit leur type, tous les disques appartiennent à un seul et même pool. L'intérêt de la chose est de créer très rapidemennt un volume sans tout allouer (Thin Provisionning), de faire depuis peu du RAID Multi Parity indépendamment des disques physiques -ce que ne permet pas un Array traditionnel-, d'autoriser une reconstitution plus rapide des données en en cas de problème, ou encore de placer ses données sur les différents types de disques pour bénéficier de différentes classes de stockage en terme de performance. A titre d'exemple, un disque FC 15k de 150Go sera subdivisé en 600 morceaux de parts égales très rapides en accès contrairement au 2000 d'un disque SATA de 525 Go. Tous les chucklets sont référencés sur l'ensemble des contrôleurs à la manière des adresses MACs sur les switchs d'un réseau tandis que les caches de deux contrôleurs différents contiennent les datas les plus récemment accédées. Autre fonction intéressante, la détection de '0' (zones vierges) qui permet d'accélérer le formatage, la manipulation de LUN et le Thin Provisionning.

Toujours en s'appuyant sur les chuklets, Inserv implémente nativement la réplication synchrone et asynchrone avec agent certifié SRA pour VMware.




Bref, à l'instar de Compellent, 3par propose une solution de stockage extrêmement évolutive, performante, intégrant une "virtualisation physique" avec Thin provisionning. natif.

A l'inverse, on peut noter quelques lacunes hardware, notamment sur l'implémentation des câbles et fibres trop près des caches frontaux ou des tiroirs de 4 disques qui doivent être déconnectés pour procéder à un échange d'unité. La machine nécessite 4 alim 32A ... ce qui peut nécessiter une refonte partielle de l'électricité de votre datacenter. Contrairement à Pillar Data, une baie 3Par n'implémente pas de fonction NAS mais peut s'interfacer avec un Filer NetAPP ou une solution de Nas réparti Exanet. Et puis enfin, le bus PCI-x implémenté dans la machine et interdisant tout passage au FC8 ou au 10 Giga Ethernet à revoir !

jeudi 28 janvier 2010

vForum dans 8 jours ...

Nous serons avec Julien sur le vForum la semaine prochaine pour animer le stand du vmug.fr

Techdays dans 10 jours




J'assisterai avec une partie de mes équipes à l'une des journées. Bien qu'ayant collecté quelques information lors d'un récent séminaire sur la virtualisation, ce sera l'occasion de faire le point sur le futur de SCVMM, de Hyper V2 r2 et de App-V.

Oracle / Sun, analyse ...

Vu sur le MagIT : La vision d'Ellison après le rachat de Sun : Oracle en 2010 = IBM en 1960
Le 28 janvier 2010 (18:17) - par Reynald Fléchaux

La fusion enfin avalisée, Oracle cherche à rassurer les clients de Sun, en leur garantissant la poursuite des développements de leurs technologies. Et promet la fin de l'éclipse du constructeur californien. Le tout grâce à une stratégie clairement affirmée : fournir des systèmes intégrés de bout en bout... soit l'approche d'IBM il y a 50 ans, explique sans complexe Larry Ellison.
Exercice presque habituel hier pour Oracle : comme après chaque acquisition majeure (PeopleSoft, Siebel, BEA...), le boulimique éditeur s'emploie à rassurer la base installée qui bascule dans son giron. Cette fois, ce sont donc les clients de Sun qui ont eu droit à des messages apaisants. Objectif principal : tenter de mettre un terme aux migrations des entreprises vers les plates-formes de HP ou IBM, qui ne se sont pas privés d'exploiter les incertitudes entourant leur concurrent pour tenter de lui subtiliser quelques points de parts de marché au cours des trois derniers trimestres.

De facto, la durée ayant séparé l'annonce du rachat - en avril 2009 - et sa concrétisation ces jours derniers n'ont fait que renforcer les incertitudes entourant le constructeur californien, déjà malmené financièrement. Au cours de 2009, IBM affirme ainsi avoir convaincu plus de 300 entreprises d'abandonner les systèmes Unix de Sun pour ses plates-formes. HP fournit des chiffres similaires. Au troisième trimestre 2009, selon IDC, la part de marché de Sun dans les serveurs est tombée à 7,5 %, deux points de moins en un an.

Sun va "sortir" 1,5 Md$ de bénéfices dès la première année

Maintenant, il n'y a plus de raison de s'inquiéter du devenir de Sun, a martelé Oracle. En s'appuyant sur la force commerciale d'Oracle, Larry Ellison promet même un retour en grâce des produits issus de sa dernière acquisition, notamment des serveurs. Oracle prévoit ainsi que Sun dégagera 1,5 milliards de bénéfices au cours de l'année qui vient (le constructeur sera intégré dans les comptes de l'éditeur à partir de février). Ce qui ferait figure de retournement pour le moins spectaculaire : en septembre dernier, alors que Bruxelles bloquait la fusion en raison de son enquête sur l'avenir de MySQL, Larry Ellison avait estimé que Sun perdait 100 millions de dollars par mois.

Pour y parvenir, Oracle se positionne comme la société capable de livrer des solutions clefs en main, allant du matériel à l'applicatif, en passant par l'OS, la base de données ou le middleware. Le tout supporté par un seul fournisseur, supervisant tout le cycle de vie des solutions, de l'ingénierie au support. Une approche déjà expérimentée avec Exadata v2, réunissant pour des besoins en matière d'entrepôts de données une base 11g R2 et des systèmes Sun (la première mouture avait été conçue avec HP). "Notre vision pour 2010 est la même que celle d'IBM en 1960, a expliqué Larry Ellison. En maîtrisant toutes les pièces, je pense que nous pouvons délivrer des systèmes plus performants". Si aucune annonce n'a été faite hier, d'autres offres intégrées devraient rapidement apparaître au catalogue du constructeur.

Une difficulté d'intégration évaluée à 11, sur une échelle de 1 à 10

"Un éditeur reprenant avec succès un constructeur, ce serait, d'après moi, inédit", observe chez nos confrères de Computerworld Rob Enderle, un analyste indépendant qui a une longue expérience de l'industrie." Si je devais citer des entreprises capables de relever ce challenge, Oracle serait sur ma shortlist. Mais, sur une échelle de 1 à 10 - 10 étant le degré de difficulté maximal -, ce type d'opération obtiendrait la note de 11".

Pêle-mêle, comme ils l'avaient déjà fait auparavant, les dirigeants d'Oracle ont insisté sur leur volonté d'améliorer la technologie processeur UltraSparc T ou de miser sur l'OS Solaris. Et ont garanti que la base de données libre MySQL s'intégrait bien dans leur stratégie. Rappelons que c'est ce volet du rachat qui avait justifié le blocage de la fusion par la Commission européenne, l'éditeur ayant dû fournir des garanties avant d'obtenir le blanc-seing de Bruxelles. Oracle n'a toutefois pas détaillé les futurs plans de développement des principaux produits de Sun (notamment des gammes serveurs Sparc ou x86). Ni donné d'indications sur l'alliance conclue entre Sun et Fujitsu pour le développement des serveurs SMP Sparc Entreprise.

2eme annonce du jour : ce que compte faire Oracle

Vu sur Virtualization.info par Alessandro Perelli

After months of wait, today Oracle can finally disclose its roadmap to integrate the Sun product portfolio, acquired for $7.4 billion.

To introduce this all day online event the company prepared a long introductory video that shows the entire computing stack that the two giants now have in common. Each hardware piece has the new Sun|Oracle logo.

In these months several people suggested that Oracle may want to drop the Sun hardware business to focus on other parts, more in line with its current strategy.
The introductory video does everything but giving this idea. Quite the opposite, it seems to emphasizes the potential that Oracle now has in the hardware market, and the presence of three racks on stage is a further sign of the company commitment in this area.

The event starts with a tagline that tells everything: Software. Hardware. Complete.

mercredi 27 janvier 2010

1ere annonce du jour : l'IPAD



Apple fait fort en tout cas pour le prix. On nous avait annoncé un prix autour de 1000,00€ l'iPad sera finalement commercialisé à 499 dollars (sans 3G et 16 Go) et 829 dollars (3G et 64 Go).
Safari ne semble toujours pas prendre en charge le flash, y'a pas de WebCam nid'appareil photo (snif). Par contre la compatbilité avec les applis iPhone est assurée.

mardi 26 janvier 2010

Telex : Annonce NetAPP/Cisco/VMware

Annonce aujourd'hui d'un partenariat entre les trois protagonistes qui s'apparente plus à des configurations pré-validées pour le Cloud à base de stockages NFS/ISCSI sur du Nexus/UCS sous vSphere qu'à un partenariat façon Acadia. Demain, suite des annonces avec Oracle et Apple.

Résumé de la conférence CIO/ LMI - Virtualisation : du Poste de Travail au Datacenter

"Aujourd'hui, la virtualisation devient la règle et le physique l'exception ! " Si il y avait une phrase à retenir de cette journée, ce serait celle-là. Elle résume bien le chemin parcouru depuis ces quelques années ou nous avons entrepris d'évangéliser avec notre bâton de VMwariens.

Les enseignements :

- Si la virtualisation permet de réduire le socle d'adhérence entre le matériel et le logiciel, il subsiste encore et toujours le problème du licensing ou encore la réticence au support par certains éditeurs. On doit aussi noter encore une certaine difficulté à mettre en place le ChargeBack.

- La tendance inflationniste de VMs commence à pousser les DSI à utiliser massivement les produits de certains éditeurs privilégiés et donc à créer des adhérences sur les socles virtuels.

- La frontière des responsabilités a bougé notamment dans le domaine du LAN avec l'apparition des switchs virtuels et dans le SAN notamment pour le zoning.

- Du point de vue de la sécurité, on est à peu près au même niveau qu'avec les infrastructures physiques, audit à l'appui.

-Les retours d'expérience mettent en avant qu'il y a nécessité de mise en place d'une équipe sensibilisée voir spécialisée dans la virtualisation quand bien même les premiers projets ont été vécu comme une solution d'optimisation avec parfois mais pas toujours l'accord des MOEs/MOAs. -preuve que ça a marché :) -

Pause détente :

Ensuite, présentation du moment comique de la journée : l'accord Microsoft / Novell illustré par la montée sur scène bras-dessus bras dessous des représentants des deux éditeurs. Oui, vous avez bien lu ! Les équipes Windows & Linux travaillent ensemble dans un laboratoire commun à Cambridge dans le Massachusetts sur les sujets liés à la virtualisation. Mieux, Microsoft sait vendre et supporter du SuSE Linux.!!!

Plus sérieusement, n'est-ce pas l'illustation que Microsoft prend acte de la montée en puissance de Linux dans les entreprises ?

Table ronde sur la virtualisation des serveurs :

J'ai entendu un 1400,00€ par CPU pour la solution Citrix .... quand on dit que VMware est cher.

J'ai noté que la société Arkema utilise en central du VMware et dans ses sites distants de l'Hyper-V pour des raisons de coûts de licenses (merci Microsoft). L'un des autres avantages mis en avant était qu'expédier un serveur virtuel par réseau ou par Disque USB est plus facile pour passer la douane ..

Eccueil du Cloud :

Concernant le Cloud Computing, attention à la bande passante Wan consommée dans le cadre d'offres d'hébergement car celà peut se rélvéler bien plus onéreux que la location d'espace. Il faut impérativement privilégier l'implantation de serveurs qui ne dialoguent qu'ensemble.

Citrix :

De l'intervention Citrix j'ai retenu le concept The One : on créé une fois et déploie autant qu'on veut. Citrix répond à tous les problèmes du Cloud : Flexibilité, Mutualisation, Facturation, Pilotage Métier ...

Symantec :

Sortie de Netbackup v7 avec support des APIs vStorage mais pas d'intégration de DataRecovery.

... Intervention de RedHat, Atos, table ronde sur le poste de travail mais on ne peut pas être juge et parti hein ?

lundi 25 janvier 2010

programme de la semaine

Si la semaine va être chargée en annonces diverses et variées pour Oracle/Sun, NetAPP/Cisco/VMware, Apple et sa nouvelle tablette, elle ne le sera pas moins pour moi. Vous pourrez me retrouver demain à l'AUtomobile Club de France lors d'une table ronde organisée par IDC sur la vitualisation. En attendant, j'entame aujourd'hui la migration de mes outils de réplication IPSTOR (FalconStor) de la version 6.0 à la version 6.15. Ca devrait se passer sans trop de soucis et sans interruption de service grâce à l'aide de Storage vMotion.

dimanche 24 janvier 2010

Cisco est aussi fournisseur de routeur intersidéral

Après le switch HP Procurve dans l'ISS, voici le routeur embarqué dans un satellite telecom. Y'a pas intérêt à planter la mise à jour du firmware .... Je serai curieux de savoir sous quoi il tourne : IOS, NX-OS ou OS temps réel genre VXworks ?

Vu sur 01 Net - le 21/01/2010 à 16h42 par Renaud Bonnet

Un routeur IP Cisco orbite et fonctionne depuis fin novembre à 36 000 kilomètres de la terre, dans le ventre du satellite de communications Intelsat 14. Une première. Certes, l'équipementier avait déjà placé un de ses matériels dans l'espace en 2003, mais à des fins purement expérimentales. Cette fois-ci, il espère bien lancer un service commercial de routage spatial, probablement pas avant l'an prochain. Le routeur en question a l'intérêt d'étendre le réseau IP terrestre avec les communications par satellites. Aujourd'hui ces dernières reposent sur des technologies spécifiques. De plus, les satellites de communication existants se contentent le plus souvent de relayer passivement le signal qu'on leur envoie, l'intelligence se trouvant dans des stations de base. La présence d'un routeur à leur bord va modifier totalement cette architecture, le satellite devenant un nœud actif dans l'acheminement du trafic.

Séance Culture 16 : Le Korg Poly800, le 1er polyphonique du peuple.

Nous sommes en 1984. Korg décide de frapper fort : offrir un synthétiseur stéréo polyphonique 8 voix avec MIDI avec 64 mémoires et séquenceur 256 pas (s'il vous plait) pour 6000,00F de l'époque -on dirait 1000,00€ aujourd'hui- quand le ticket d'entrée pour quelque chose d'équivalent était situé au moins au double. Vous me direz que ce devait être un truc au rabais avec un bout d'oscillateur et diviseur d'octave, un petit filtre et une pauvre enveloppe ADSR ... Et bien que nenni. Cette machine est en fait une version portable du Poly61M et une petite fille du cultissime analogique Poly-6. On y trouve pèle -mèle 2 Oscillateurs contrôlés numériquement -DCO- fournissant un signal rectangle ou dent de scie, un LFO, un générateur de bruit, un VCF, et 3 ADBSSR ! Non, je ne suis pas dyslexique je dit bien un générateur d'enveloppe Attack, Decay, Break point, Sloop, Sustain Release et pas le classique ADSR, c'est une première mondiale qui permet d'atténuer puis faire rebondir la puissance du son. D'un point de vue ergonomique, la machine offre un clavier 4 octaves, peut-être alimentée par piles pour envison 2h30 d'autonomie, utilisée en bandoulière comme une guitare tout comme le Roland SH-101 ou le Moog Libération et ne pèse que 4kg. Les sons s'éditent à l'aide de boutons de sélection puis de paramètre un par un, la valeur étant visible sur l'afficheur LCD rouge.Au chapitre des sorties ou trouve notamment des jack 6,35 stéréo et des prises Midi in/ou/thru.
Les sons que peut produire la machine sont plutôt métalliques, secs ou alors planants. Si ils demeurent quelconque aujourd'hui, on peut les agrémenter d'un mutli-effet externe du genre Korg AX5 (effet pour guitare basse, oui je sais c'est tordu mais fallait y penser) complétant le chorus interne, donnant du coup du punch et un presque goût de Clavia Norlead II, la référence d'aoujourd'hui ! Il sortira 1 an et demi après une version Poly-800 II perdant le chorus mais gagnant un retard numérique (bof) et une version rack.
.
Alors qui a utilisé cette machine ? Et bien Orbital, JMJ, Depeche Mode entre autre. Concernant le son, je vous invite à écouter Hypnotic Tango de My Mine, dont les sons proviennent du Poly-61 et que l'on retrouve sur le Poly-800. A part la batterie électronique, TOUT provient des sons d'usine de la machine les castagnettes y compris, et pas du Juno-60 (bien incapable de sortir le son du solo et de faire du portamento, en même temps je m'en moque je l'ai aussi) ou du prophet V que l'on voit sur la vidéo, du groupe .... ah ben oui, ça calme un peu les esprits chargrins qui diraient ouais ... bof, le son est pas terrible. Personnellement, je m'en sert aussi comme clavier de contrôle pour mes expandeurs.


A noter qu'il existe aujourd'hui une version instrument virtuel VSTi du Poly-800 éditée par Synapse sous le nom Poly-850

Update : a noter qu'il existe aussi de rares versions avec les touches du clavier aux couleurs inversées.

jeudi 21 janvier 2010

Pillar Data annonce AxiomOne 4, les slammers v2 et le support de disques SATA 2To

Voici le communiqué publié hier :
Pillar Data Systems repousse à nouveau les limites de la performance : plus de performance et plus de valeur pour le secteur du stockage de données

Son nouveau système Axiom Slammer Series 2 améliore la performance de 50 % avec le doublement de la mémoire cache et de la puissance de traitement, et, ce, sans supplément de coût.

San José, Californie -- (BUSINESS WIRE) -- Pillar Data Systems place la barre toujours plus haut en matière de performance et d'efficacité du stockage, en aidant ses clients à tirer le meilleur ratio prix/performance en entrées/sorties par seconde (IOPS : Input/Output Operation per second) de leurs équipements de stockage existants. Les gestionnaires IT savent que la nécessité de démontrer clairement un retour sur l'investissement de stockage n'a jamais été aussi grande. Avec son annonce de ce jour, Pillar rend cela plus facile. Les améliorations importantes apportées au système de stockage Axiom 600TM avec cette nouvelle série Slammer Series 2 offrent au secteur une meilleure performance et davantage de valeur. Cette nouvelle série Slammer combinée à la quatrième génération du logiciel AxiomONETM de Pillar offre plus de souplesse et une meilleure protection de l'investissement avec le doublement de la mémoire cache et de la puissance de traitement, pour une augmentation globale de la performance de 50 %.

Slammer Series 2 tire parti de la gestion renommée de Pillar en matière de qualité de service (QoS) intégrée à la suite logicielle AxiomONE, permettant à ses clients de distinguer encore plus les flux d'entrées/sorties de l'application en promouvant ou en rétrogradant la QoS d'une unité logique ou d'un système de fichiers par Slammer et par type de lecteur. Parce que la nouvelle série Slammer Series 2 travaille conjointement avec la première génération de Slammers, les clients peuvent tirer parti de leur parc de stockage existant, assurant ainsi une protection optimale de leur investissement.

Avec de multiples applications fonctionnant dans un même environnement, comme le courriel, les bases de données, la sauvegarde et la lecture vidéo en flux continu, les clients disposent de plus d'options pour allouer leurs ressources de stockage à chaque type de données pour une performance et une efficacité maximale.

Simon Robinson, directeur de recherche pour le stockage de données, The 451 Group, a déclaré : « Les utilisateurs sont toujours en quête de moyens de concilier les besoins en performance avec les exigences de l'application. Ils ne devraient pas s'exposer à des évolutions massives ou coûteuses de l'intégralité de leur système lorsqu'ils s'engagent dans un nouveau projet ou lorsqu'ils changent simplement leurs priorités. Les avancées techniques comme le nouveau Slammer de Pillar offrent à la clientèle plus de souplesse pour la personnalisation de leur environnement de stockage afin de satisfaire leurs besoins individuels à tout moment. Grâce à cette meilleure personnalisation, il y a moins de gaspillage et plus d'efficacité. »
La demande augmente en matière de centres de données

La pression sur les gestionnaires IT continue à croître pour ce qui est de la consolidation d'applications multiples hébergées sur plusieurs infrastructures de centres de données. Déjà, les impératifs commerciaux requièrent l'amélioration de la performance des applications. Les nouvelles avancées d'Axiom permettent aux clients de protéger leurs investissements en leur offrant la possibilité de choisir la configuration optimale sur la base de leurs besoins commerciaux, et, en conséquence, de leurs besoins en terme d'applications.

Bob Maness, vice-président chargé du marketing mondial et des ventes de réseau pour Pillar Data Systems, commente : « La capacité de stockage, la mémoire cache et le processeur sont des ressources importantes d'un système de stockage et doivent être considérées en conséquence. Chez Pillar, nous innovons sans relâche afin que nos clients tirent parti d'une utilisation efficace d'Axiom et de la disponibilité de ces ressources. En améliorant la manière dont le stockage est pris en charge au niveau de ces fondamentaux, nous offrons à nos clients de meilleurs outils pour adapter le stockage aux exigences de leurs applications, et pour résoudre les problèmes avant qu'ils surviennent. »
Axiom Plateforme idéale pour le Cloud Computing
Le système Axiom de Pillar est une plateforme idéale pour les environnements Cloud Computing grâce à sa souplesse, à sa performance, à son évolutivité et à ses capacités uniques en matière de QoS. Tout comme Pillar l'a fait avec ses lecteurs SSD et SATA d'une capacité de 2 téraoctets, la société fait là encore son possible pour ouvrir sa nouvelle technologie de produit à un système sans interruption du service, offrant aux fournisseurs de services informatiques une nouvelle flexibilité dans le déploiement et la gestion du stockage afin de satisfaire les exigences diverses imposées par les utilisateurs et par les applications.
Dans un communiqué de presse séparé publié aujourd'hui, Eagle Business Solutions a annoncé avoir choisi Pillar Axiom comme plateforme de stockage pour soutenir son service d'hébergement Cloud Computing.
Richard Wood, directeur d'exploitation chez Eagle Business Solutions, déclare : « La capacité d'Axiom à délimiter facilement les ressources de stockage pour les applications individuelles nous a poussés à adopter ce standard pour notre nouveau service Cloud Computing. L'un des principaux défis à relever pour les fournisseurs de service Cloud Computing est la capacité à assurer le respect des engagements de service. Axiom, en gommant l'incertitude qui plane sur l'évolution de la capacité de stockage et sur la performance qui en résulte, nous permet de garantir à nos clients le même niveau d'efficacité du stockage que celui offert aux clients de Pillar. »
Slammer Series 2 en détail
Les contrôleurs de stockage Slammer sont des gestionnaires et transporteurs de données hautement performants et d'une grande fiabilité pour les systèmes de stockage de données Pillar Axiom. Chaque Slammer constitue un sous-système proposant un haut niveau de disponibilité. Ces composants sont parfaitement intégrés à la suite logicielle AxiomONE de Pillar, autorisant une gestion, une configuration et un pilotage intuitif du stockage.
Slammer Series 2 de Pillar peut se prévaloir d'une augmentation de 50 pour cent du ratio prix/performance en entrées/sorties par seconde (IOPS : Input/Output Operation per second), de même que :
• du doublement de la mémoire cache
• du doublement de la puissance du processeur
• d'un quadruplement des connexions en protocole CIFS
• d'un doublement du nombre d'unités logiques virtuelles
• d'une augmentation de 30 % de la performance du système de traitement
• de la prise en charge des lecteurs SATA 2TB à 7200 tours/minute
Les informations dévoilées aujourd'hui soulignent l'engagement de Pillar pour faire de l'efficacité du stockage une réalité. L'an dernier, Pillar lançait un Axiom compatible SSD qui continue aujourd'hui à offrir le meilleur ratio prix/performance en entrées/sorties par seconde (IOPS : Input/Output Operation per second) sur le marché du stockage, et permet une réduction de la consommation énergétique globale pouvant atteindre 85 pour cent. Pillar a également présenté son premier lecteur SATA 2TB professionnel qui augmente la capacité de stockage tout en utilisant moins d'espace et d'énergie.
La commercialisation des produits Axiom 600 Slammer Series 2 a commencé à la fin de l'année 2009, et ils sont désormais disponibles auprès de Pillar et de ses revendeurs agréés.

Oracle dévoile sa stratégie Cloud le 27 janvier prochain

Larry Ellison donnera une conférence mondiale en Webcast le 27 janvier prochain. Vous pouvez vous enregistrer pour la visualiser Ici Au vu du logo qui est mis en avant, on imagine que la Communauté Européenne a donné un accord de principe au rapprochement des deux entreprises.

Update : L'accord de la Comunauté Européenne semble se confirmer : à lire sur le MagIT

Telex : Success Story Agrica/Cisco/VMware

Une nouvelle success story pour la famille des produits Cisco Nexus physiques et virtuels, déployés par les équipes d'Agrica à lire Ici. Je rappelle à toute fins utiles que la DSI d'Agrica compte dans ses rangs mon très compétent ami Julien Mousqueton, guru francophone des technologies VMware, créateur du site forum-vmware.fr, co-animateur du User Group VMware France. Julien présentera (avec brio c'est évident) cette success story lors des Cisco Networkers qui se dérouleront à Barcelone du 25 au 28 janvier prochains.

mercredi 20 janvier 2010

Compellent : Native ILM Inside

L'annonce récente de FAST d'EMC et le lancement de la version 5.0 de Storage Center sont l'occasion pour moi de vous faire un petit point sur Compellent, le seul produit de stockage du marché à disposer d'un véritable ILM plus connu sous le nom Information Lifecycle Management (gestion du cycle de vie de la donnée) intégré.

Compellent a été fondée en 2002 à Minneapolis par des anciens de Xiotech, parti du postulat qu'en moyenne 80% des données sont inactives sur les stockage traditionnels tandis que 40 à 60% des espaces disques alloués ne sont pas utilisés.

Comment est architecturé le matériel ?

A l'instar de Pillar, il n'y a pas de notion de gamme : nous sommes face à un seul et même produit évolutif. Une baie Compellent intègre de un à deux Controller Storage Center (têtes) pouvant gérer 6 à 1008 disques (oui je sais, c'est précis). Ils sont interconnectés aux enclosures (tiroirs) de disques au travers de liens Fiber Channel 4 Gb/s. Ces derniers sont des SBOD -Switched Bunch of Disks- qui peuvent être mixtes Fiber Channel 10k/15k / SSD ou exclusivement SATA. La sortie d'un modèle full SAS est prévue dans le courant de l'année. Le Controller Storage Center peut contenir 20 ports FC, chacun pouvant piloter 5 enclosures SATA ou 7 enclosures FC. Les disques peuvent être ajoutés unitairement à chaud dans chaque enclosure en fonction des besoins attendus en terme de volumétrie.et/ou de performances..

Du point de vue logiciel :

Chez Compellent tout s'articule autour du concept de 'Dynamic Bloc Architecture' où les disques ne forment qu'un seul et même pool, le logiciel de la baie se chargeant de déplacer entre eux des blocs de données de 512 ko, 2 Mo ou 4Mo en fonction de plusieurs critères :

- date de création, date de modification,
- fréquence d'accès,
- type de disque niveau de RAID attendu RAID 5 pour la sécurité, RAID 10 pour la performance ...
- SLA minimum ou maximum attendu

Ainsi, par exemple, les blocs d'un fichier les plus fréquemment modifiés seront placés sur les disques les plus rapides tandis que les blocs les moins fréquemment modifiés seront placés sur les disques les moins performants. Ce mécanisme dynamique s'appelle 'Data Progression'. Les blocs de données étant destructurés, référencés au sein de métadatas et répartis sur l'ensemble du stockage, c'est le Storage Center qui les présente de manière cohérente en tant que LUNs.et TARGETs. Ce mode de fonctionnement autorise la réalisation de clones liés basés directement sur les blocs strippés.

L'ILM n'est donc pas une surcouche rajoutée ultérieurement mais une fonction native autour de laquelle a été construit l'ensemble de la solution.

La fonction 'Fast Track' placera les blocs les plus fréquemment utilisés sur les 20% de pistes les plus à l'extérieures du plateau des disques (comme la QOS High de Pillar).
Les snapshots se nomment ici 'Instant Replay', ils sont montables en lecture/écriture et surtout n'occupent pas d'espace disque dédié puisqu'ils font partie intégrante des métadatas.

'Initial Copy' permet de sortir les données -sous forme cryptée- d'une baie sur un disque externe USB en vue de les copier sur autre baie Compellent en mode non connecté, ceci facilitant la synchronisation initiale lors de la mise en place de réplications distantes.. En mode connecté, la réplication 1 pour N synchrone ou asynchrone est native et interfacée avec VMware SRM. Elle est pilotable depuis Entreprise Manager, une console unifiée à installer sur un poste Windows qui permet aussi de réaliser des rapports.
Un jeu de commande PowerShell est fourni et permet de manager la baie dans des scripts..
Phone Home autorise des remontées automatiques d'alertes chez le constructeur tandis que Secure Shell permet au support de prendre la main à distance en SSH sur la machine qui poserait problème.

Concernant les petits moins, je noterai que la solution Compellent n'adresse tout comme 3Par que le SAN -il n'y a pas de NAS- et le faible cache mémoire peut poser problème lorsqu'il y a une forte volatilité de données ou une réorganisation des blocs sur l'ensemble des disques par exemple lorsque l'on rajoute de la volumétrie. D'un point de vue commercial, si la solution est relativement connue aux Etats-Unis, on ne compte qu'une dizaine de solutions déployées en France.

Bon à savoir

La solution Compellent a été élue meilleure solution de stockage pour la virtualisation en 2008 lors du VMworld. Toutes les fonctionnalités sont intégrées en standard, il n'y a pas d'option. A volumétrie équivalente, le prix est sensiblement identique à celui d'une solution NetAPP FC.
Au final, tout comme 3Par ou Pillar Data, Compellent propose une autre vision du stockage réellement originale en rupture totale avec les solutions traditionnelles

Coup d'envoi du très haut débit pour tous

C'est une très bonne nouvelle que le gouvernement s'empare de ce dossier pour forcer un peu la main aux opérateurs.

Lu sur sur France info : François Fillon trace les lignes du très haut débitFrance Info - 18 janvier 2010 - Par Caroline Caldier

François Fillon avait donné rendez-vous à la presse ce lundi en banlieue parisienne dans les locaux de Dassault systèmes. Une visite officielle sur le thème du très haut débit et de l’économie numérique. Le premier ministre a conclu sa visite par la présentation des grandes lignes du futur "plan fibre" qui devrait contribuer au déploiement du très haut débit sur le territoire…
Ce plan a nécessité de longues négociations avec les opérateurs, en particulier France Télécom, ainsi qu’avec l’Autorité de régulation des communications et des postes (Arcep) pour définir le mode de déploiement de cette technologie. L’Arcep a donné son avis pour les zones très denses, autorisant plusieurs fibres par logement. En dehors de ces grandes villes particulièrement rentables pour les opérateurs, le Premier ministre a déclaré vouloir "mettre l’accent sur les zones moins denses et que les acteurs disposent avant l’été d’orientations claires sur les règles du jeu qui y prévaudront."

Le gouvernement laisse les opérateurs gérer l’installation de la fibre en ville. Le plan du gouvernement cible les zones moins peuplées pour éviter une ’’fracture territoriale’’. François Fillon (1'37")

Le plan du gouvernement ne concernera donc que les zones de moyenne et faible densités de population. "Nous allons mettre 2 milliards sur la table (…) Il y aura des appels à projets ouverts, région par région, pour bénéficier de prêts (…) La contrepartie attendue des opérateurs c’est un engagement en terme d’étendue, d’exhaustivité et de rapidité du déploiement, ainsi que de co-investissement", a précisé France Fillon.

Ce système d’appels à projets permet en théorie à tout opérateur de candidater. Ne risque-t-il pas de bénéficier qu’aux gros opérateurs ? Non, répond Nathalie Kosciusko-Morizet, secrétaire d’Etat à l’économie numérique (0'33")

François Fillon appelle les collectivités à co-financer ces projets. Pierre Ygrié de l’association lozérienne Les Webs du Gevaudan est sceptique (2'10")

Pour les zones où le déploiement de la fibre serait trop complexe, le Premier ministre a souligné l’appel à d’autres technologies comme l’internet mobile à très haut débit, ou le satellite. "Et puis il y a les technologies complémentaires ou de transition, dites de montée en débit, qui visent à tirer le meilleur parti de la boucle locale en cuivre existante", a ajouté François Fillon. Soit tenter de faire du neuf avec du vieux via la solution des NRA-ZO de France Télécom qui risquent de rapidement montrer leurs limites… Malgré tout pour Michel Lebon, spécialiste en réseaux et consultant télécoms ce plan de déploiement de la fibre pose de bonnes bases de travail.

Michel Lebon regrette tout de même le peu de place laissée aux petites entreprises face aux grands opérateurs (0'50")

De son côté, dans un communiqué publié ce matin, l’Association des villes et collectivités pour les communications électroniques et l’audiovisuel "regrette l’absence d’objectif chiffré en délai et en étendue de couverture de la fibre optique". L’Avicca "demande que les moyens financiers nécessaires soient débloqués à partir de 2011 pour assurer une péréquation et une couverture généralisée en dix ans"
Dernière annonce du gouvernement, "une offre sociale spécifique pour permettre aux foyers les plus modestes d’accéder à Internet dans des conditions attractives". Soit un abonnement internet et téléphone autour de 20 euros. Les opérateurs qui le "souhaitent" selon le Premier ministre pourraient proposer ce type d’offre. "On demande aux opérateurs de faire des propositions", indique la secrétaire d’Etat à l’économie numérique soulignant que le gouvernement leur met "une pression amicale".

Nathalie Kosciusko-Morizet explique l’origine de cette mesure (0'41")

Séminaire Virtualisation 'Du poste de travail au datacenter' le 26 janvier prochain

La virtualisation est la clé d'un système d'information performant. Elle apporte des avantages stratégiques de flexibilité et de capacité à monter en charge qu'il s'agisse d'optimiser des postes de travail ou des salles informatiques convergentes de nouvelle génération. Elle permet de réduire les coûts d'exploitation et d'accélérer le déploiement de nouvelles applications.

La rédaction de CIO et LemondeInformatique.fr vous proposent de débattre de ces thématiques
au cours de la conférence Virtualisation du poste de travail au datacenter,
le 26 janvier 2010 à l'Automobile Club de France

Programme

8h30 - Accueil – Petit déjeuner
  • 9h00 - L'état de l'art du marché et l'intérêt de la virtualisation pour les postes de travail et l'émergence des salles informatiques convergentes, le lien entre le Cloud et la virtualisation, les solutions disponibles pour 2010, par Sebastien Renard, Expert de Solucom
  • 9h20 - Les bénéfices de l’intéropérabilité entre Windows et linux dans le datacenter, par Gilles Lunzenfichter, Directeur marketing Linux & datacenter, Novell EMEA et Alfonso Castro, Directeur de la stratégie intéropérabilité, Microsoft France
  • 9h40 - Table ronde – Virtualisation des salles de serveurs
    Avec la participation de :
    Françoise Bariset , Responsable consultant, EDF
    Jérôme Danquigny , Responsable back-office et architecture serveurs Europe, Arkema
    Jean-Philippe Glab , Responsable Cellule Informatique, CROUS de Créteil
    Jérôme Jelocha , DSI, CMP Medica
  • 10h30 - Virtualisez votre infrastructure IT de bout en bout, tout en offrant à votre direction informatique le meilleur niveau de contrôle, de sécurité et d’économies, par Guillaume Le Tyrant, Responsable Marketing Produits, Citrix France
10h50 - Pause
  • 11h05 - Réduire les coûts et étendre le spectre de la virtualisation au sein de vos data centers, par Vincent Fréret - Solutions Architect - Red Hat
  • 11h25 - La virtualisation : impact sur les processus et l’outillage IT, par Bruno Buffenoir, Directeur HP Software France et Sylvain Coutant - Responsable Offre-Marketing et Business Support de Atos Origin
  • 11h45 - Table ronde – Virtualisation des postes de travail
    Avec la participation de :
    Jacques Bartel , Directeur du projet Iris, EDF
    Jean-Marc Bertrand , Manager IT, Arkema
    André Delesalle , Responsable Réseaux et Systèmes, H2A
    Marilynn Genieyz , Directrice Informatique et Télécoms, H2A
    Olivier Parcollet , DSI Adjoint, Semtao
    Amaury Tassin , Responsable de l'exploitation, Mairie de Drancy
12h35 - Cocktail déjeunatoire

mardi 19 janvier 2010

Rassurez-vous, dans le Cloud vous ne serez jamais seul

Le dessin du jour de François Cointe vu sur le MagIT.
J ' A D O R E !!!

Telex : Annonce NetAPP/Cisco/VMware en vue

A lire sur le blog de Kareen, Virtuanews, un rendez-vous a été fixé à la population le 26 janvier prochain pour une annonce importante. Sachant que les forces vives de Cisco et de VMware sont gentiment rapatriées sur les projets vBlocks (Acadia) -par exemple Mike Di Petrillo, Scott Lowe récemment débauché par EMC ou encore plus près de chez nous et chez Cisco Paul Dunon pour la partie Management, on peut imaginer que ça ne sera pas une autre co-entreprise. Ca sent plutôt la solution car le long distance vMotion je le sens plus simple avec un NAS ... Wait and see !

lundi 18 janvier 2010

ALUA pour les nuls ...


Vous pouvez aussi retrouver cet article sur Forum-vmware.fr, le site officiel du User Group VMware France.

Tout d'abord, je tiens à préciser que ALUA n'est pas une forme de salutation ayant cours en Polynésie, pas plus que l'acronyme improbable de 'Abstraction Largement et Uniformément Appliquée' ... Non. comme nous allons le voir ALUA ou Assymetric Logical Unit Access, est un mode d'accès au stockage disque implémenté dans notre cher vSphere. Toutefois, pour partir sur de bonnes bases, non que je mette en doute votre culture informatique, je me propose de vous faire quelques rappels.

Qu'est-ce que le RAID ?

Si c''est d'abord un groupe d'élite de la Police Nationale, RAID signifie aussi Rundondant Array of inexpensives disks ou grappe de disques redondants pas chers. Voici les types les plus couramment usités :
- RAID 0 = Aggregation de disques sans redondance mais offrant une haute performance
- RAID 1 = Mirroir de disques pour les écritures et les lectures.
- RAID 5 = Aggrégation de disques avec parité répartie sur l'ensemble des disques. Le bons compromis financier entre redondance et sécurité.
- RAID 6 = Aggrégation de disques avec paritée répartie sur un ou deux autres disques de la grappe. Le RAID 6 s'apparente à un mélange de RAID 1 et de RAID 5 et supporte plus d'un disque deffectueux.
- RAID DP = inspiré du RAID 6 à ceci près que les données de parité sont écrites sur deux disques fixes avec deux algorithmes différents. Ce type de RAID est utilisé sur les NAS Network Appliance.
- RAID 0+1 = Mirroir de grappes RAID 0

Qu'est-ce qu'un contrôleur ?

Si c'est un élément que l'on peut rencontrer fréquemment dans un wagon de la SNCF, basiquement, c'est aussi une carte électronique qui pilote un ensemble de disques physiques et qui les associe ensemble pour former une grappe RAID. Cette grappe RAID contient elle un ou plusieurs volumes logiques appelés ARRAYs (litéralement un étalage). On en déduit donc qu'un même plateau de disque peut contenir plusieurs morceaux d'ARRAY avec des niveaux de RAID différents : RAID 5 pour le premier ARRAY, RAID 6 pour le second ...

La baie de stockage dépendra ensuite d'un savant équillibre entre le nombre de disques que l'on appelle alors AXES, le nombre de cartes contrôleurs; la performance, la sécurité et le temps de reconstruction attendus : plus il y a d'axes, plus les performances seront importantes puisque chaque disque manipulera moins d'informations pour chaque opération de lecture ou d'écriture (I/O).

A l'inverse, l'ensemble des disques composant une gpappe partageront l'ensemble de la bande passante du contrôleur qui les pilote Vous me suivez ? Par exemple un contrôleur Fiber Channel 4 Gb/s disposera d'une bande passante de 500 Mo/s soit l'équivalent de 7 disques SATA II à 65 Mo/s accédés simultanément. L'accès est dit non blocant ou à vitesse nominale.

Depuis une quinzaine d'années, les contrôleurs sont traditionnellement installés dans une tête SAN ou NAS, en fait une carte mère de serveur faisant tourner un système d'exploitation. Chez EMC cet OS a pour doux nom FLARE (un lointain cousin de Windows Storage Server) tandis que chez NetAPP il s'appelle Data ONTAP et s'apparente plutôt à un unix BSD de type Solaris.Le système d'exploitation pilote donc l'ensemble de la baie est responsable de son fonctionnement et inclut des fonctions annexes matérielles et logicielles telles que le cache mémoire ou la réplication.On parle alors de stockage monolithique

Certains ne faisant pas comme tout le monde, il existe des exceptions appelés stockages modulaires comme l'Axiom Pillar Data l'IBM XIV ou l'EMC vMax dont les fonctions sont disséminées dans les différents éléments de la baie. par exemple, les contrôleurs sont inclus dans les tiroirs de disques, les faisant fonctionner de manière totalement non blocante.

Qu'est-ce qu'un LUN ?

Un array est partagés sur le réseau de stockage sous un numéro unique appelé LUN (Logical Unit Number).

Qu'est-ce qu'un initiateur ?

C'est le port d'une machine qui cherche à accéder à un LUN au travers du protocole ISCSI, Fiber Channel ou en FCoE.

Qu'est-ce qu'un Target/Port Group Target ?

C'est la combinaison du ou un des ports physiques et du descripteur (nom logique) sur lesquels on peut se connecter pour avoir accès à un LUN.
En Iscsi, le descripteur aura un format iSCSI qualified name ou iqn. par exemple : iqn.1998-01.com.vmware:ESX4-1db07213 ; alors qu'en FC il aura la forme d'un World Wide Name par exemple : 22:00:00:0b:08:45:18 -ce qui rappel un peu l'adresse Mac d'une carte réseau Ethernet-

(Oui, on y arrive enfin !)
La redondance des contrôleurs avec ALUA et la vie est plus simple ...


Aujourd'hui la majorité des baies de stockage intègre des contrôleurs redondants pour piloter les LUNs : EMC Clariion, Network Appliance, IBM DS & NS, HP EVA, Pillar Data Axiom, Dell Equalogic ... Cependant, bien que redondants et similaires en terme d'administration, les caractéristiques d'accès aux LUNs peuvent varier pour les ports de chaque contrôleur ; elles diffèrent notamment en terme de performances. A un instant T, l'un des contrôleurs disposera d'un accès plus rapide sur le LUN que l'autre, on parle de chemin optimisé. C'est ce mode d'accès asymétrique au LUN que l'on nomme ALUA (Asymmetric logical Unit Access).

Jusqu'à la version 3.5, de VMware ESX, le mode ALUA n'était pas supporté nativement dans l'hyperviseur. On ne pouvait paramétrer que le mode Chemin Fixe, le plus récent (Most Recently Used) ou l'alternance avec le Round Robin. les deux derniers modes étaient susceptibles de provoquer des accès non optimisés aux LUNs..Il y avait intérêt à mettre tout le monde d'accord sous peine de se voir infliger des messages de type 'LUN Non Optimal Acces Path" pouvant aller jusqu'au reboot du contrôleur concerné, infligeant quelques menus désagréments aux VMs du genre écran noir, machine figée, vmdk HS.... l'avalanche des utilisateurs concernés, dont vous venez visiblement de couper un bras, dans votre bureau étant un plus.

Seule la présence de plug-in annexe tel que EMC powerPath permettait de s'affranchir de ces soucis en mettant d'accord host ESX et stockage sur le chemin optimal à utiliser. La version VMware vSphere implémente nativement deux APIs appelées Storage Array Type Plugins ou SATP chargée du Failover et Path Selection Plug-in (PSP) accès à l'équillibre de charge entre les chemins qui permettent de s'affranchir de la gestion des chemins optimisés.

Vous pouvez accéder à ces APIs au travers du mode console de vSPhere :

Commande pour lister les règles SATP connues du serveur vSphere

[root@XXXX ~]# esxcli nmp satp listrules

Name Vendor Model Claim Options Description

VMW_SATP_ALUA_CX DGC tpgs_on CLARiiON array in ALUA mode
VMW_SATP_EVA HSV111 tpgs_off active/active EVA 5000 GL
VMW_SATP_EVA HSV200 tpgs_off active/active EVA 4000/6000 XL
VMW_SATP_EVA HSV210 tpgs_off active/active EVA 8000/8100 XL
VMW_SATP_ALUA NETAPP tpgs_on NetApp with ALUA
VMW_SATP_ALUA HP ^MSA2* tpgs_on HP MSA A/A with ALUA
VMW_SATP_ALUA Pillar tpgs_on active/active Ctl Pillar Axiom ALUA Support

* tpgs_on signifie que SATP ne sera activé que si le failover est activé pour l'ensemble des Ports
Group Target du stockage.

Commande pour lister les PSP :

[root@XXXX ~]# esxcli nmp psp list

Name Description
VMW_PSP_MRU Most Recently Used Path Selection
VMW_PSP_RR Round Robin Path Selection
VMW_PSP_FIXED Fixed Path Selection

Par exemple, pour Utiliser par défaut les chemins en Round Robin, il vous faudra taper la commande : esxcli nmp satp setdefaultpsp --psp="VMW_PSP_RR" --satp="VMW_SATP_ALUA"

On peut même mettre sa propre une règle pour un stockage non listé par défaut : esxcli nmp satp addrule --vendor="Overland" --claim-option="tpgs_on" --satp="VMW_SATP_ALUA" --description="Overland Snap Server 620"

Et voila, vous avez révisé ce qu'est un stockage, ce que sont SATP, PSP, ALUA et vous savez les utiliser. A présent, à vous de jouer !

dimanche 17 janvier 2010

Telex : plan social chez Hitachi Orléans

Lu sur le quotidien 'La République du Centre' le mercredi 13 janvier dernier.

"Un plan social chez Hitachi à Ardon, près d'Orléans - Publié le 12 janvier 2010 - 19:18
Les réunions d'informations se sont succédées mardi, au sein de l'usine Hitachi d'Ardon. Les salariés ont effet appris l'ouverture d'un plan social. Celui-ci concernait initialement 63,5 postes sur les 200 salariés que compte le site."

Au final ce serait finalement une vingtaine d'employés qui serait touchés par ce plan social.

Pour rappel, l'usine Hitachi d'Ardon fabrique des baies de stockage informatiques haut de gamme dont la réputation n'est plus à faire. Décidément la crise fait des ravages.

Le point faible de Hyper-V serait SCVMM

Vu sur Virtuanews - le 17/01/10 par K Frascaria

Après la suite d’articles (ici et ici) que j’ai écrit sur Xen la semaine dernière, reprenant notamment le “Xen est mort, Vive Xen” de Simon Crosby, j’ai reçu quelques témoignages (anonymes) de clients, en opposition de phase avec les chiffres qui circulent. Les analystes commencent en effet insinuer que Hyper-V prendrait la deuxième place du marché, derrière Xen. Or, ces témoins - qui visiblement ont déjà virtualisé avec vSphere- m’assurent préférer de loin XenServer à Hyper-V, s’ils avaient à changer de plate-forme. Selon eux, non seulement XenServer est très performant, mais la console d’administration et les fonctionnalités offertes par Citrix seraient bien meilleures que ce qu’offre aujourd’hui Microsoft. On le sait, la console SCVMM de Microsoft a encore beaucoup de lacunes. Le rachat d’Opalis par ce dernier devrait d’ailleurs peut-être venir combler certaines brèches. Et on le sait aussi, Xen est une plate-forme très utilisée dans les Cloud Publics, au grand dam de VMware d’ailleurs.

Vivement que de nouveaux chiffres ou témoignages officiels viennent corroborer tout cela.

Réflexion du dimanche à propos des pubs Windows Seven

Comme tout un chacun, vous êtes probablement tombé sur l'un de ces spots de pub pour Windows Seven avec ce slogan "c'était mon idée !". Je vous soumet là mon idée à moi sur le sujet : ne serait-ce pas un moyen de nous culpabiliser si nous n'adhérions pas à ce nouvel OS ? Je m'explique. Il est clair que Vista a été un échec cuisant pour l'éditeur de Redmon, faute à ces utilisateurs que nous sommes et qui n'ont rien compris au bien-fondé de ce produit. Alors, pourquoi ne pas nous culpabiliser par avance en nous rendant 'propriétaire intellectuel' de Seven ? C'est notre idée, c'est à nous, si nous n'adhérons (n'achetons) pas, nous nous renierons nous-même ! Mais bon, comme les voix du marketing sont impénétrables, je me trompe surement !

vendredi 15 janvier 2010

VMware Esxi : 1,2,3 Go !

VMware Go, la virtualisation pour les nuls

Par Karine Fossard, 01net - le 15/01/2010 à 17h38

Le logiciel automatise l’installation et la configuration de l’hyperviseur ESXi. C’est gratuit, et permet aux petites entreprises de mettre le pied à l’étrier sans se planter.

Cet outil n'est clairement pas pour les projets de virtualisation d'envergure, mais bien pour aider les petites entreprises à démarrer leur aventure virtuelle sans accroc. VMware Go, disponible depuis hier, ne vise que les PME de moins de 1 000 employés ou de 100 serveurs, qui n'auraient pas encore, pas manque de compétences internes ou de moyens, virtualisé leurs serveurs. VMware, avec cette offensive choc, fait face à un Microsoft très doué pour enrôler les PME, notamment avec son System Center Essentials Management Suite, dédié aux organisations de 50 à 1 250 postes de travail et moins de 30 serveurs.
VMware Go est en mode cloud : c'est un outil hébergé sur les serveurs de VMware. Au-delà du fait d'apporter plus de simplicité aux petites entreprises, l'outil permet aussi à l'éditeur, habitué aux grands comptes, de mieux avoir connaissance des habitudes de ce segment de clients de moyenne envergure. Annoncé en septembre dernier lors du VMworld 2009 à San Francisco, VMware Go était jusqu'alors en bêta. Selon son éditeur, 1 000 bêta-testeurs l'auraient évalué, avec la création d'environ 3 000 machines virtuelles.
Le concept est intéressant. D'abord, parce que VMware Go est gratuit. Ensuite, parce qu'il très facile à utiliser. « Tout est déjà prêt et extrêmement facile d'accès. Au travers du portail VMware, il suffit de donner quelques informations pour piloter le ou les ESXi présents dans l'entreprise », résume Olivier Parcollet, coadministrateur du forum des utilisateurs de VMware en France. Si VMware vise les petites structures avant tout, d'autres usages sont envisageables. « Cette solution est aussi très intéressante pour les petits bureaux distants sur lesquels on aurait déployé un serveur ESXi pour répondre aux besoins locaux, mais dont l'administration à distance via un lien VPN (Virtual Private Network) pourrait générer trop de trafic entre les deux sites », propose Olivier Parcollet.

Trois étapes et Go !

L'utilisation de VMware Go se fait en trois étapes, au travers d'un assistant d'installation qui s'occupe de tout. D'abord, le service vérifie la compatibilité du matériel, et installe une image ISO ESXi. Certains composants sont indispensables, comme Microsoft .Net, Powershell, vSphere Power CLI, une copie de VMware Converter. Seul impératif, le client doit avoir une machine Windows (XP SP3, Vista SP2 or 7 ). VMware Go aide ensuite les entreprises à créer les machines virtuelles, grâce à l'outil VMware Converter, ou en allant puiser dans la base d'appliances virtuelles disponibles sur la place de marché de VMware.

Enfin, VMware Go offre une interface de gestion centralisée permettant de surveiller les performances et l'état des ressources disponibles des machines virtuelles installées. Il sait aussi gérer les mises à jour et les patchs, notamment via le service de la société Shavlik (OEMisé par VMware, mais aussi par Microsoft Update !). Attention, les configurations définies ne fonctionnent pas en offline, la connexion Internet est indispensable. Selon VMware, la configuration est sauvegardée régulièrement.

Cyberguerre et Cloud : y'a pas un bug ?

La mondialisation a ses limites, preuve l'attaque dont ont fait l'objet plusieurs entreprises américaines, et peut-être celles d'autres pays, qui interpelle quand même quelque peu en cette période de cloudisation massive. Quid des autres entreprises en vue telles que Microsoft, Salesforce, Oracle, VMware ... ? Quid des entreprises françaises ? Il ne faut quand même pas rêver, l'intelligence économique ne date pas d'hier, alors craquer des sites fait parti du quotidien des pirates avec la participation involontaire des personnes visées grâce au mail ou au P2P gros pourfendeur de chevaux de troie. Ne parlons pas des backdoors ...

Je ne doute pas un seul instant que l'infrastructure réseau de Google soit digne de celle d'un casino, en tout cas pour le back-office, mais pourquoi ne pas soumettre aux même règles les données des utilisateurs comme les comptes Gmail ? L'un des trucs que nous utilisions sur les portails Internet -oui, j'ai commis des trucs glauques dans une ancienne vie- consistait à pratiquer une rupture de protocole entre le front et le back-office par exemple IP-IPX-IP ou de permettre des échanges de fichiers sur le SAN.

Si on reste 'on-line', après le pont filtrant pour le niveau 2, le firewall pour le niveau 3, le filtrage de ports, la commutation de niveau 4 et 7 (applicative), le filtrage dans les ports applicatifs via IDS et IPS que va-t-il donc falloir inventer ? Des APIs pour un Netview (console de gestion des exceptions du monde SNA) pour le monde open ? La ré-éducation de la couche 8 (lutilisateur) qui prend de bien mauvaises habitudes avec la banalisation de l'informatique à la maison ? Faut-il pratiquer le rejet massif d'aires BGP d'un pays sur Internet ? Politiquement incorrect, économiquement dangereux, socialement dénué de sens, ....

Non, la solution pourrait venir de l'Internet avec des connexions façon VPN point à multipoint - du Cloud privé quoi-, ou alors avec de la vérification de flux façon liste blanche Mail in Black le tout associé à des produits permettant d'appliquer dynamiquement des ACLs tels que le Cisco Nexus 1000v

En tout cas, la mise en Cloud de tout ou partie de ses datacenters soulève bien des questions et ne doit pas se faire au détriment de la sécurité, quand bien même on nous garantirait juré craché que tout va bien.

PS : quand je parle de couche, je me réfère au modèle OSI bien connu des hommes réseaux.

jeudi 14 janvier 2010

Après Acadia, Oracle/Sun voici Microsoft/HP

Comme je l'ai déjà écrit, vit-on les derniers jours du compatible PC au sens large ?

Si on regarde de près, il y a quand même quelque chose d'antinomique pour les éditeurs dans ces rapprochements :
- VMware reste compatible avec tout le monde mais sera-t-il plus intégré avec Cisco/EMC ?
- Microsoft tourne partout mais ne tournera-t-il quand même pas mieux sur HP/3com ?
- Oracle s'installe sur tout type de machine mais son mode de licensing est déjà moins cher sur Sun, sera-t-il "plus compatible" sur ces mêmes plate-formes ?

Les choix vont devenir cornéliens pour les reponsables IT. Il faudra bientôt choisir son monde propriétaire ... pardon ... pseudo ouvert avec des investissements et un TCO qui partirons immanquablement à la hausse.

Vu sur le MagIT - Le 14 janvier 2010 (10:27) - par Reynald Fléchaux

En réponse à l'offensive d'Oracle, HP et Microsoft s'associent pour rapprocher matériel et logiciel

Oracle + Sun ; Cisco + EMC. Face à ces offensives, HP et Microsoft tentent d'allumer un contre-feu en renforçant leur partenariat. Les deux géants promettent de bâtir des solutions prépackagées autour des applicatifs de Redmond, à commencer par Exchange et SQL Server. Et leur destin semble désormais très lié dans leur offensive dans le cloud computing.
La vision de Larry Ellison fait des émules. Alors que le patron d'Oracle explique à qui veut l'entendre que le rachat de Sun (toujours bloqué par l'enquête de la Commission européenne) vise à créer des offres tout intégrées, HP et Microsoft renforcent leur partenariat pour, précisément, bâtir des solutions prêtes à l'emploi incluant solutions applicatives et infrastructures. Les deux sociétés expliquent vouloir investir 250 millions de dollars sur le sujet dans les trois ans qui viennent afin de développer des appliances (serveurs spécialisés) rapidement opérationnels pour les entreprises. Le renforcement des liens entre les deux géants apparaît aussi comme une réponse à la création d'une co-entreprise entre Cisco et EMC, une offensive où Vmware, la filiale virtualisation du second, joue un rôle crucial. Rappelons qu'hier, cette dernière a aussi annoncé le rachat à Yahoo du serveur collaboratif Zimbra, renforçant par là même son offre applicative.

Une seule console d'administration pour Azure et le datacenter

"Cet accord ne vient pas en réaction à quoi que ce soit", jure toutefois Mark Hurd, le Pdg de HP, qui répondait aux questions de la presse hier lors d'une conférence téléphonique. Mark Hurd et Steve Ballmer, le patron de Microsoft, expliquent que les négociations entre les deux groupes sur ce partenariat renforcé, entamées en avril dernier, visent à travailler sur les nouvelles générations de datacenters et les nouveaux modèles applicatifs nés du cloud computing. Selon Steve Ballmer, le partenariat doit notamment déboucher sur la création d'un environnement d'administration unique, reliant les systèmes virtualisés du datacenter et le cloud public maison (Azure), et sur un "unique modèle applicatif dans ces deux univers".
Pour Mark Hurd, si le partenariat en question s'inscrit bien dans la continuité des relations entre les deux groupes, "il s'agit du plus haut niveau d'intégration jamais atteint entre nos équipes. L'objectif est réellement d'aligner notre R&D, nos services et notre marketing". HP promet également des équipes commerciales dédiées aux offres bâties avec Microsoft.
Si HP et Microsoft n'ont pas détaillé l'ensemble du porte-feuille de solutions qu'ils envisagent, ils promettent notamment des offres clef en main autour du serveur de mail Echange et de la base de données SQL Server (datawarehousing, offres de BI). "Ces environnements de gestion de données ou de messagerie se déploieront et s’administreront en un clic", assurent les deux sociétés. Autre bénéfice attendu, souligné par les dirigeants des deux géants : l'intégration de Insight Manager (outil de gestion des infrastructures serveurs et stockage de HP) et de System Center (l'offre d'administration de Microsoft).

Hyper-V + System Center + Business Technology Optimization

L'accent sera aussi mis sur l'automatisation et l'administration de ces environnements, Microsoft amenant dans la corbeille de mariée ses gammes Hyper-V (virtualisation) et System Center. Tandis que, de son côté, HP fournit son portefeuille d'outils de gestion de la production et des services (Business Technology Optimization), construite autour de ses solutions OpenView musclées par les rachats de Mercury et Peregrine. Objectif : fournir aux entreprises une "gestion unifiée pour automatiser le déploiement des applications et administrer leurs environnements, de l’infrastructure aux applications".
Au-delà de l'optimisation des performances des logiciels Microsoft sur les serveurs de HP, l'alliance promet également des solutions intégrant les dimensions stockage et réseau, sur la base du porte-feuille de produits du constructeur californien (renforcé par le récent rachat de 3Com). L'ensemble est accompagné d'offres de services, HP mettant en avant ses 11 000 personnes certifiées sur les technologies de Redmond.
Visant tant les grands datacenters que les PME, l'alliance HP-Microsoft doit livrer ses premières solutions immédiatement, et promet l'introduction régulière de nouveautés au cours des trois prochaines années.

mercredi 13 janvier 2010

Google Chrome anywhere @Paris

Alors que Google menace de quitter la Chine pour cause de piratage, Chrome s'affiche à grand renfort de panneaux 4x3 dans toute la capitale pour s'imposer.


Un des panneaux installés à la gare d'Austerlitz

Dans une station du métro parisien

Ne vous abîmez pas les yeux, voici le texte un brin moqueur

1814 calories absorbées lors de la dernière party
13 jours depuis mon dernier footing
1 homme dans le miroir qui aurait besoin d'un peu d'exercice
67 minutes à comparer des chaussures sur Planetjogging.com
4 vidéos de Mehdi Baala regardées sur Youtube
7 parcours repérés sur Google Maps
38 chansons sur ma playlist de jogging (y compris la BO de Rocky)
1 application My Tracks téléchargée sur min mobile Android
45 minutes de jogging (plus un peu de marche)
1 recherche pour "exercices d'étirement"

8 onglets ouverts
0 bug
1 navigateur

mardi 12 janvier 2010

Howto install and use VMware Data Recovery 1.1


I published few months ago some explanations on how to install the new vSphere utility Data Recovery. Data Recovery is a very usefull tool that permit you to save easily all VMs on a dedicated disk, Lun or a Windows CIFS share. Many people asked me questions about that. So this is an update and a step by step howto with the new version : Data Recovery 1.1.

To use Data Recovery, you need the Advanced, Entreprise or Entreprise Plus edition of vSphere, a vCenter, an AD and a correctly working DNS. Refer to your VMware representative for more information about licensing and price.


You may download it here. It may be useful to download Daemon Lite utility too. this tool allow you to mount an .ISO file as windows drive like D:.After mounting your fresh VMware Data Recovery ISO on your vCenter, you may run the plugin installer program.


Next

Next

Yes !!! For sure i agree, Next

Installation progress …

If it’s successful, close.

In vCenter, choose to deploy an OVF file from File Menu

Choose the DataRecovery OVF appliance from the .ISO previsously mounted

Next

Next

Choose your time zone

Click on finish button

vCenter will deploy the OVF into your vSphere farm. According your target disk speed, you may take a cup of tea.

At this point, we may imagine your Appliance was deployed without any problem. You are ready to start it.

If needed, add a Lun/vmdk or a RDM in your Datarecovery Appliance’s description to store your backup datas. Refer your VMware and your storage manuals to know how to configuring it.

Note you can’t access a console on this VM, just start it.

Come back home page of your vCenter and start VMware data Recovery

Enter your infrastructure credentials

Click on create a backup job

Select all the VMs you want to backup

If you mapped a vmdk or a RDM, you need to format and mount it.

Unfortunatly OK …




After formatting the new data volume it needs to be mount.
Choose your backup windows

Check your needs

Click on Finish the backup will start asap ….

And now, the great question : how to restore ?

Select the virtual Machine you need to recover
Select what you want to restore

Click on restore

… and the job starts. It’s very easy. I hope this post was useful, enjoy !