lundi 29 août 2011

dimanche 28 août 2011

Telex : le vmug.fr représenté par Julien au VMworld 2011 à Las Vegas

A l'heure où j'écris ces lignes, mon ami et co-animateur du User Group VMware français, Julien, est dans l'avion à destination de Los Angeles puis Las Vegas pour couvrir le VMworld. Vous pourrez le suivre sur twitter à l'adresse @JMousqueton et sur http://www.vmug.fr/. Merci à Wyse pour l'avoir invité.

jeudi 25 août 2011

Dell met à son tour à jour une partie de son stockage

Vu sur le MagIT par mon ami Valery Marchive le 25 août 2011

Dell rafraîchit sa gamme EqualLogic

Dell vient de présenter de nouveaux systèmes SAN iSCSI de sa gamme EqualLogic. L’occasion aussi de revenir sur les projets du constructeur en matière de stockage.
Dell vient de présenter les systèmes SAN iSCSI EqualLogic PS4100 et PS6100, qui succèdent respectivement aux PS4000 et PS6000. Ces nouveaux systèmes se distinguent notamment par le support des disques SAS 2,5 pouces et des SSD à mémoire MLC.

Proposé en version 2U et 4U, le PS6100 peut supporter jusqu’à 72 To par baie pour un total de 1,2 Po de capacité sur une grappe de 16 systèmes. Dans sa version 2U, il peut embarquer 24 disques 2,5 pouces et 21,6 To, contre 24 disques 3,5 pouces et 72 To pour la version 4U. Quelque soit la version, le PS6100 est doté de 4 ports Gigabit et d’un porte d’administration.

Le PS4100 n’est disponible qu’en format 2U mais supporte soit 24 disques 2,5 pouces et 21,6 To de capacité, soit 12 disques 3,5 pouces et 36 To de capacité. Le PS4100 ne supporte pas les SSD; c’est une spécificité des PS6100. Il embarque deux ports Gigabit en plus d’un port d’administration dédié.

Surtout, ces deux familles supportent la version 5.1 du firmware EqualLogic, présenté en juin. A la clé : un équilibrage de charge amélioré - le constructeur parle de gains de performances pouvant atteindre un facteur trois avec un volume de données migrées minimum de 15 Mo -, de capacités de Data Center Bridging (DCB) - mais uniquement sur Ethernet.

Parallèlement, Dell annonce le lancement effectif de sa baie EqualLogic FS7500, annoncée en juin. Cette dernière, qui s'intègre de façon transparente avec un pool de serveurs Equallogic permet de fournir des services NAS en mode NFS et CIFS, en plus des services de stockage en mode bloc sous iSCSI délivrés par les baies EqualLogic. Un FS7500 peut proposer de multiples volumes NAS (chacun limité à un maximum de 510 To). Et l'administration de la passerelle FS7500 est totalement intégré à la console d'administration EqualLogic du firmware version 5.1.

La technologie Dell Scalable File System, sur laquelle repose le FS7500, arrivera sur les baies Compellent d’ici la fin de l’année, nous a confirmé John Everett, directeur EMEA de l’activité stockage de Dell, lors d’un entretien téléphonique. L’occasion aussi de nous confirmer qu’il s’est fait une priorité d’intégrer sa technologie de compression et de déduplication Ocarina à ses solutions de sauvegarde avant de l’étendre au reste de son offre. Pour les baies EqualLogic, il faudra ainsi attendre 2012. John Everett confirme en outre que Dell travaille avec Commvault et Symantec pour permettre aux données dédupliquées avec Ocarina d’être sauvegardées sans étape de réhydratation visible par l’utilisateur [l’opération qui consiste à retourner des données dédupliquées à leur état initial, NDLR] : «nous travaillons avec nos partenaires pour rendre le processus transparent.» Il ne s’agit pas de supprimer la réhydratation - «les fichiers de méta-données sont différents» - mais de la rendre invisible à l’usage, selon John Everett.

La virtualisation à l’honneur

Mais Dell n’a pas oublié la virtualisation. La version 5.1 du firmware EqualLogic intègre le support de vSphere de VMware, pour le Thin Provisioning. Ce qui doit permettre notamment d’accélérer les délais de restauration. Plus loin, et pour vSphere 5, Dell prévoit, d’ici la fin de l’année, de proposer des outils d’intégration avec les API de VMware pour ses baies EqualLogic. Pour ses baies Compellent, il mise sur des solutions d’automatisation de migration et de reprise d’activité pour environnements virtuels.

vSphere 5 téléchargeable cette semaine

Comme nous l'indique le portail de licensing VMware, il faudra attendre la fin de semaine pour avoir accès aux numéros de série autorisant le téléchargement.


L'histoire des superordinateurs en images

Vu sur hpcwire.com





mercredi 24 août 2011

Première mise à jour de 3Par chez HP

NdB : Espérons que le contrôleurs embarquerons du PCI-Express cette fois. Je note aussi qu'il s'agit d'une mis à jour du haut de gamme, pas de l'ensemble des produits. A voir aussi cet outil de migration de données fort utile pour se séparer des vieillissantes EVA.

Vu sur le MagIT - Stockage: nouvelle baie et fédération de stockage chez HP 3PAR
Le 24 août 2011 (10:38) - par Searchstorage.com

HP vient de mettre à jour son offre de stockage 3PAR, acquise il y a un an pour 2,35 Md$. Le groupe a en parallèle lancé un logiciel de fédération de stockage, HP Peer Motion, pour assurer le déplacement de données entre systèmes de manière non disruptive.

Le nouveau système de stockage HP 3PAR P10000 inclut les modèles V400 et V800 qui viennent remplacer la classe T dans le haut de gamme de l’offre 3PAR. Le V800 peut supporter jusqu’à 1 920 disques et 1,6 Po de capacité brute - soit deux fois les capacités de l’actuel T800. Les modèles V400 et V800 supportent nativement Fibre Channel, ATA et les SSD; le support des disques SAS 2,5 pouces est prévu pour 2012.

Sean Kinney, directeur du marketing des produits de stockage chez HP, décrit Peer Motion comme «la gestion distribuée de volumes au travers de systèmes hétérogènes, en s’appuyant sur des communications pair-à-pair. Il permet le déplacement des données entre systèmes de stockage et fonctionne avec n’importe quel système 3PAR ».

HP Peer Motion s’apparente ainsi à une réponse au lancement de Vplex par EMC, l’an passé. Cette année, EMC lui a ajouté la capacité de répliquer de manière asynchrone les données applicatives sur de longues distances - plusieurs milliers de kilomètres - entre deux centres de calcul. HP ne propose pas, pour l’heure, de possibilités équivalentes.

Mais Peer Motion permet à une entreprise de faire migrer ses données depuis des baies de stockage anciennes vers de nouveaux systèmes, avant retrait de la production et sans indisponibilité, à l’échelle métropolitaine. Le logiciel de HP permet aussi de mettre en place un Thin Provisioning fédéré : les données applicatives sont déplacées sur d’autres systèmes lorsqu’une baie est pleine.

Kinney explique que la plateforme de SAN iSCSI de HP, LefHand, supporte déjà la fédération de stockage avec son logiciel SANiQ. Peer Motion est donc une application distincte, dédiée à la gamme P10000 de 3PAR.

L’analyste John Webster, du cabinet Evaluator Group, estime que ce type de fonction deviendra rapidement un «must» pour les baies de stockage d’entreprise, bien que seuls HP et EMC le proposent actuellement. «La fédération de stockage vous permet de déplacer vos applications sans interruption de service. C’est quelque chose que l’on fait pour automatiser son plan de reprise de l’activité, mais une multinationale peut également l’envisager pour déplacer ses applications suivant les périodes d’activités de ses différentes filiales à travers le monde.»

Les dirigeant de HP voient dans 3PAR leur plateforme de stockage fer de lance, adressant tous les segments du marché, depuis le milieu de gamme jusqu’à l’entreprise. Le groupe continue certes de proposer ses systèmes d’entreprise XP9000 basés sur des technologies Hitachi, ainsi que ses systèmes de milieu de gamme EVA. Mais le chiffre d’affaires réalisé par HP avec ses offres 3PAR a doublé au cours de l’année passée, alors même que 3PAR était encore une entité indépendante. Alors même que, globalement, le chiffre d’affaires de HP dans le stockage n’a progressé que de 8 % en rythme annuel, au dernier trimestre. Il apparaît clairement que le futur de l’offre de stockage HP se construit autour de 3PAR.

Le tout récent VMAXe d’EMC, version miniaturisée du Symmetrix VMAX, s’apparente d’ailleurs clairement à une réponse aux baies 3PAR de HP et XIV d’IBM. Webster s’attend de son côté à ce que HP mette un terme à ses gammes XP9000 et EVA, pour mieux se concentrer sur son offre 3PAR : «3PAR enregistre une croissance annuelle de 100% et il me semble que la guerre soit ouverte contre EMC et NetApp », estime-t-il.

Kinney a indiqué que HP a également fait de 3PAR l’une des pièces maîtresses de ses services et ses offres packagées, tels que les récentes offres VirtualSystem et CloudSystem. Il a ajouté que HP continuera de proposer les systèmes 3PAR de classe T durant environ un an, et poursuivra le développement de son offre de milieu de gamme, la classe F.

Par Dave Raffo, directeur senior de l’actualité de SearchStorage.com

mardi 23 août 2011

Double Sided, le premier album des orléanais Wild Dawn dans les bacs



Qui a dit que c'était bof côté musique à Orléans ? Eh oui, depuis le temps que Greg nous en parlait, entre deux dépannages d'ordi, lui et sa bande de copains l'ont sorti de leurs guitares, de leur batterie sauvage et de leurs trippes. Ce CD, c'est du lourd, de l'excellent pour tous ceux qui aiment le son qui arrache. La preuve, je l'écoute en boucle dans la voiture tant que Flocon; mon rocker de coon, ne me le pique pas. Vous pouvez vous procurez le CD à la FNAC et mieux les écouter sur scène puisqu'ils sont en tournée jusqu'à la fin de l'année.

Fin de l'ADSL illimité, fin de non recevoir d'Eric Besson

Je mettais les pieds dans le plat samedi dernier suite à l'article paru dans owni.fr. Le gouvernement, par la voix d'Eric Besson ministre chargé de l'économie numérique, n'a pas tardé à réagir.

Publié sur journaldunet.com 22/08/2011, 12h34

Eric Besson s'oppose au plafonnement de l'Internet illimité

Le Ministre chargé de l'économie numérique a rejeté la possibilité d'un plafonnement des offres Internet illimité que les opérateurs étudient. Eric Besson, le ministre chargé de l'économie numérique, a rejeté ce dimanche 21 août tout éventuel plafonnement des offres Internet illimité, et a précisé que le gouvernement travaillerait à encader l'utilisation du terme "illimité" par les opérateurs pour protéger les consommateurs. Le Ministre a également indiqué que "le gouvernement travaille bien au contraire au développement du très haut débit fixe et mobile sur l'ensemble du territoire et pour l'ensemble des Français".

Regroupant les principaux fournisseurs d'accès à Internet (FAI), la Fédération française des télécoms (FFT) envisagerait d'appliquer des plafonds aux forfaits Internet illimité, comme l'indiquait la semaine dernière le site Owni, en publiant un document de travail. Ce dernier suggérait l'instauration de nouveaux forfaits, comportant des mentions liées à un "débit IP maximum " et un "plafond de consommation". Ce projet de la FFT serait une réponse à la consultation engagée par l'Arcep sur la neutralité des réseaux, mais ne concerne pas Free et Numéricable qui ne sont pas membres du lobby.

La FFT est toutefois revenue sur les informations révélées par Owni, indiquant que l'étude citée visait uniquement les "net-goinfres", à savoir les gros consommateurs. Yves le Moël, directeur général de la Fédération française des télécoms a précisé ce matin dans une interview au Figaro que les opérateurs pourraient plafonner le volume mensuel de ces abonnés ou réduire leur débit.

dimanche 21 août 2011

Macro d'un Myrtil


Si il est un sujet très difficile à shooter en macro c'est bien le papillon. Il vous voit arriver à 2m. Le truc : en planquant quelques dizaines de minutes à proximité de leur lieu de repas favoris, on arrive à passer inaperçu; la preuve.











Mais où vont-ils chercher ça ?


samedi 20 août 2011

Forfaits Internet : après le Deep Packet Inspection, voici venir sur nos lignes ADSL le traffic shaping.

A croire que février et son augmentation d’abonnement sont déjà un lointain souvenir : ne voici pas que pendant nos congés d'été nos chers FAIs Orange, SFR et Bouygues Télécom regroupés au sein de ls Fédération Française des Télécoms (FFT) imaginent pouvoir contourner la crise en rackettant de nouveau les abonnés sur le fixe illimité. Ils étudieraient un savant et juteux découpage des offres pour plafonner le volume et le débit en fonction de la dîme perçue. Dans les faits,, les forfaits se présenteraient sous la forme d'un quota en fonction des différents types d'utilisation : peer-to-peer,ToIP (téléphonie sur Internet), VOD, VPN ...

Quand je pense qu'ici dans le Loiret, c'est le Conseil Général qui a dû mettre en place l'infrastructure haut débit (réseau fibre Medi@lys) pour que ces gens daignent fournir un l'ADSL digne de ce nom parce que l' investissement était soi-disant trop lourds. Par ces temps de crise ou tout le monde doit se serrer la ceinture ce n'est pas très citoyen. Pire, je ne vois pas là de la saine concurrence dans le marché des télécoms mais bien de l'entente. Ça serait intéressant qu'un Google loue et propose à son tour du Medi@lys non ?

Internet est un outil de développement économique et social formidable. La France serait un pays développé sauf que pendant ce temps à Hong Kong on surf à 100 meg/s sur son téléphone mobile, cherchez l'erreur.

Nexentastor 3.1.1, mais que reste-t-il aux grands ?

La sortie de NexentaStor 3.1.1 frappe un grand coup avec l'intégration des fameuses VMware‟s vStorage API for Array Integration (VAAI) d'ESXi 5.0 chargées de faire de l'offload pour le stockage. Bien entendu, si vous utilisez l'appliance Nexenta en VM sur un serveur non dédié, l'intérêt sera plus limité puisque la CPU du serveur sera de toute façon mise à contribution.

Reprise de la release note au sujet de VAAI :

-SCSI Write Same: When creating a new virtual disk VMware must write‟s zeros to every block location on the disk. This is done to ensure no residual data exists on the
disk which could be read by the new VM. Without Write Same support the server‟s CPU must write each individual block which consumes a lot of CPU cycles. With the Write Same command VMware can direct the storage array to perform this function, offloading it from the CPU and thereby saving CPU cycles for other operations. This is supported in ESX/ESXi 5.0 and later.

- SCSI ATS: Without ATS support, when VMware clones a VM it must lock the entire LUN to prevent changes to the VM while it is being cloned. However, locking the entire LUN affects all other VM‟s that are using the same LUN. With ATS support VMware is able to instruct the array to lock only the specific region on the LUN being cloned. This allows other operations affecting other parts of the LUN to continue unaffected. This is supported in ESX/ESXi 5.0 and later.

- SCSI Block Copy: Without Block Copy support, cloning a VM requires the server CPU to read and write each block of the VM consuming a lot of server CPU cycles. With Block Copy support VMware is able to instruct the array to perform a block copy of a region on the LUN corresponding to a VM. This offloads the task from the server‟s CPU thereby saving CPU cycles for other operations. This is supported in ESX/ESXi 5.0 and later.

- SCSI Unmap: Provides the ability to return freed blocks in a zvol back to a pool. Previously the pool would only grow. This enables ESX to destroy a VM and return the freed storage back to the zvol. ESX 5.0 and later support this functionality.

Toutes ces fonctionnalités sont reprises dans la version gratuites limitée à "seulement" 18To Comme quoi il est bon de stocker ses VMs dans le girafon.

HP se cherche

Tremblement de terre dans le monde de l'IT : le numéro 1 mondial, HP, étudie la possibilité de quitter la vente de PC pour se recentrer sur le logiciel à l'instar il y a quelques années d'IBM qui fit de même avec la cession à LEONOVO. On pourrait imaginer que cela ne concernerait que les ventes de PC utilisateurs, dont le chiffre décroît face à l'émergence des tablettes tactiles et autres smartphones ... Que nenni. Les tablettes maison à base de WebOS (ex-Palm) semblent impactées, de même que les serveurs Proliant issus eux du rachat de Compaq, serveurs, vous savez la ressource nécessaire pour faire tourner de l'applicatif dans le datacenter. La stratégie, passant par le comptes pertes massives semble vouloir faire un 180° pour s'orienter vers le tout logiciel à image du rachat en simultané encore à grand renfort de 10 Md$ d'Autonomy, société axée sur le buzz du moment le Big Data. A qui le tour ? La division des réseaux ? Celle du stockage ? Quoiqu'il en soit, pendant que les clients qui se sont fourvoyés en basant leur stratégie d'achat matériel sur le tout HP doivent être dépités, chez Dell on doit se frotter les mains.

jeudi 18 août 2011

FanFan attend bien un heureux évènement



Nous avons la confirmation radiographique que l'une de nos femelles Maine Coon black smoke est gestante. Notre étalon Elliot à encore bien assuré. La chatterie Katoochat devrait donc accueillir autour du 10 septembre des chatons mâles black smoke comme maman et des femelles torties (tricolores) avec le roux issu de papa.


Un exemple de chat blanche et tortie en la personne de ma petite européenne Fantasia


Autre exemple : FLANELLE de Petite Léopoldine, Maine Coon bleu crème et tortie de l'élevage des Fées de Philaë

Est-ce les prémices d'iRobots ou d'Ai ?

Vu sur ITespresso.fr par Jacques Franc de Ferrièrele le 18 août 2011 à 19:07

Synapse : une puce IBM qui imite le cerveau humain

Après trois ans de recherche, IBM révèle deux prototypes de "puces cognitives" opérationnelles. Un projet financé par l'US Army et mené en collaboration avec de grandes universités américaines.

L’avenir de l’homme, c’est vraiment l’ordinateur. IBM veut à nouveau le démontrer via Synapse.

Ce 18 août, Big Blue a révélé le résultat de ses recherches sur une architecture de puce électronique « conçue pour imiter les capacités du cerveau humain pour percevoir, agir et comprendre. » Elle apprend de ses expériences, fait les associations nécessaires, vérifie ses hypothèses et se souvient des résultats, ce qui lui permet de s’adapter seule aux nouvelles situations. Comme un cerveau biologique.

Baptisées « neurosynaptic computing chips » , les puces issues de cette architecture « Systems of Neuromorphic Adaptive Plastic Scalable Electronics » (Synapse) devraient permettre d’utiliser « plusieurs ordres de grandeurs d’énergie et de place de moins que les ordinateurs actuels » , selon le communiqué d’IBM.

« Ceci est une initiative majeure pour dépasser le paradigme de von Neumann qui a plané sur les architectures électroniques depuis plus d’un demi-siècle » , se réjouit Dharmendra Modha, le directeur du projet SyNAPSE pour IBM Research.

L’architecture du mathématicien John von Neumann (en savoir plus sur sa page Wikipedia) est le modèle de référence pour les micro-processeurs actuels mais elle atteindrait ses limites. La nouvelle architecture d’IBM permettrait de « n’avoir aucun programme déterminé, une mémoire intégrée au processeur, et imite le traitement de l’information fait par le cerveau : orienté vers les évènements, distribué et parallèle » , précise IBM. Après trois ans de recherche, IBM et des universités américaines, financées par la DARPA (Defense Advanced Research Projects Agency, ont abouti à deux prototypes fonctionnels de puces pour l’informatique cognitive. Ils sont dépourvus d’éléments biologiques et se basent sur des circuits électroniques inspirés des neurobiologies. Elles se composent de mémoire intégrée répliquant les synapses, d’unités de calcul imitant les neurones et de mécanismes de communication copiant les axones.
Les prototypes ont tous deux 256 neurones électroniques. Le premier a aussi 262 144 « synapses programmables » et le second 65 536 « synapses d’apprentissage. » Ils ont prouvé leur compétence dans certaines applications réputées difficiles pour les ordinateurs mais intuitives aux humains, comme « la navigation, la vision des machine, la reconnaissance des formes, la mémoire associative et la classification. » Ce succès ouvre la porte à la phase 2 de la recherche, et à un financement supplémentaire de 21 millions de dollars de la DARPA. L’objectif à long terme d’IBM est de produire un système électronique composé de 10 milliards de neurones et de cent mille milliards (1014) de synapses, « consommant à peine un Kilowatt de puissance et occupant un volume inférieur à deux litres. »

Heureusement pour la survie de notre espèce, c’est encore loin de l’échelle d’un cerveau humain. Ce dernier possède plus de 100 milliards de neurones reliés entre eux par un million de milliards (1015) de connections synaptiques. Le tout est concentré dans un volume moyen de 1,2 litre, et consommerait un peu plus de 20 Watts. Il ne reste plus qu’à se préparer au possible éveil à la conscience des ordinateurs, et à la guerre entre l’humanité et les machines intelligentes, qui suivra telle que prédite par Hollywood dans Terminator ou Matrix.

mercredi 17 août 2011

Les mobiles Motorola rachetés par Google

Vu sur cnetfrance.fr : Google s'offre les mobiles Motorola pour 12.5 milliards de dollars

Déterminé à mettre la main sur les milliers de brevets pour mobiles du fabricant américain, Google a mis la main au porte-feuille, devenant du même coup fabricant de produits high-tech. Une première pour la société.

Déterminé à mettre la main sur les milliers de brevets pour mobiles du fabricant américain, Google a mis la main au porte-feuille, devenant du même coup fabricant de produits high-tech. Une première pour la société. Coup de théâtre sur le marché des smartphones avec le rachat de Motorola Mobility par Google. 12,5 milliards de dollars (8,7 milliards d?euros environ) payés cash pour s'offrir le numéro 8 mondial du secteur des téléphones mobiles. Un rachat qui permet à Google de mettre la main sur une immense palette de brevets (plus de 15 000) qui protègeront Android !

Car ce qu'il faut retenir, c'est que désormais Google est en mesure de se mesurer à Apple avec un système d'exploitation, des services associés et donc les moyens de fabriquer ses propres smartphones. Une stratégie qui vient couper l'herbe sous le pied du tandem Microsoft-Nokia.

Toutefois, et pour rassurer un secteur plutôt abasourdi par la nouvelle, le géant de Mountain View a bien précisé qu'il comptait toujours intégrer Android dans des smartphones Samsung, Sony Ericsson ou encore HTC. Sur son blog, Google ne cache pas que ce rachat est un moyen de mettre fin aux plaintes d'Apple et de Microsoft contre les partenaires d'Android.


Le dessin de François Cointe sur le MagIT

Qu'est-ce qui fait la nique à des motos hypersportives ?

Regardez la vidéo ci-dessous :



Réponse : la moto électrique du team Swigz avec 194 ch et ses 40 mkg plus fréquents sur un gros diesel à 4 roues que sur une moto. La vitesse de pointe atteinte ici est de 314 km/h. Bon ben là, d'accord, je veux bien lâchez mon twin thermique.

dimanche 14 août 2011

Vacances pluvieuses = vacances studieuses

Ce n'est pas parce que le temps est pourri que l'on va se laisser abattre. Comme déjà indiqué ici, les congés d'été sont mis à contribution pour la préparation du tout nouveau DuneStudio. Donc, phase I : renfort des lambourdes, isolation acoustique avec du phaltex et mise en place d'un plancher OSB. Suivront l'isolation de la toiture, des murs et la pose du BA13 (placo).


mercredi 10 août 2011

M-Disc, le DVD qui supporte un millénaire

NdB : Au moins, je sais comment éviter le drame de la perte des photos de famille consciencieusement numérisée surtout dans le Cloud.

Vu sur 01Net par Eric le Bourlout : M-Disc : le support de stockage fait pour durer 1 000 ans

Une start-up va bientôt lancer, avec l'aide de LG, de nouveaux supports optiques conçus pour stocker vos données très, très longtemps.

Ce n’est pas un secret : les disques de données gravés « à la maison » n’ont pas une durée de vie exceptionnelle, et il est fréquent de se retrouver avec un CD-R ou DVD-R illisible au bout de quelque temps, même s’il a été parfaitement conservé.

Un DVD et un M-Disc en coupe. Sur la droite, on remarque que les « pits » sont gravés « comme dans la pierre », aime à expliquer Millenniata. Millenniata, une petite start-up américaine, alliée au géant coréen LG, pense avoir une solution à cet épineux problème de stockage : un nouveau format de disque optique, baptisé M-Disc, conçu pour durer très, très longtemps.

Un M-Disc est au premier abord très proche d’un DVD traditionnel : il a la même capacité que celle d’un simple couche (4,7 Go) et est lisible sur n’importe quel lecteur DVD. Mais il est en réalité conçu de façon très différente et nécessite, pour être brûlé, un laser bien plus puissant que celui des graveurs classiques. En effet, sur une galette enregistrable ordinaire, les données sont enregistrées grâce au laser sur une couche de colorant organique qui a tendance à se dégrader avec le temps, ce qui fait disparaître les données. Les données stockées sur un M-Disc sont quant à elles véritablement « gravées sur des matériaux inorganiques, qui ne peuvent être écrasés, effacés ou corrompus par des processus naturels, selon le site de Millenniata. Le puissant laser d’un graveur de M-Disc altère physiquement la couche d’enregistrement et en créant de véritables trous » dans le disque. Résultat : une galette qui, une fois gravée, devrait être lisible, selon les concepteurs, durant au moins 1 000 ans.



Reste que cette technologie a plusieurs défauts. D’abord, les M-Disc ne sont évidemment pas réinscriptibles. Une fois que le support a été gravé, il n’est plus possible de le modifier. D’autre part, à l’heure du Blu-ray et des disques durs de 3 To, l’espace de stockage proposé (4,7 Go) paraît mince face aux technologies concurrentes, il est vrai, moins fiables. Milleniata indique cependant que sa technologie pourra à l’avenir supporter des densités de gravure plus importantes. Enfin, détail important : le prix ! Car il faudra non seulement se payer le lecteur graveur spécifique de LG (également compatible avec les Blu-ray et DVD) mais aussi les précieuses galettes, qui seront commercialisées, selon ComputerWorld, aux alentours de 3 dollars (environ 2,10 euros) par disque.

Pour prouver la solidité de son support, Milleniata a posté une vidéo amusante qui montre un M-Disc sortir indemne d’un bain dans de l’azote liquide puis dans une eau à 80 °…

mardi 9 août 2011

Fourmi Macro








Petit à petit, j'améliore la technique ... On commence à distinguer pas mal de détails. Le modèle ne fait que quelques millimètres de long.

jeudi 4 août 2011

VMware revient partiellement sur son nouveau mode de licensing

NdB : Il ne faut trop tirer sur la corde ....

Vu sur le MagIT : Le 04 août 2011 (11:18) - par Christophe Bardy

VMware rétropédale sur le nouveau modèle de licence de vSphere 5

Face à la grogne des utilisateurs, VMware vient d'annoncer qu'il a considérablement assoupli le schéma de licence "à la capacité mémoire" annoncé à l'origine pour vSphere 5. A quelques semaines du lancement du logiciel, l'éditeur s'épargne ainsi un conflit ouvert avec ses clients. Reste désormais à savoir si le mal n'est pas déjà fait...
Face à la bronca des entreprises utilisatrices, il n’aura pas fallu plus d’un mois à VMware pour revoir sa grille tarifaire de licence pour vSphere 5. Ce qui semblait si logique à l’éditeur lors de l’annonce de la nouvelle version de sa plate-forme de virtualisation, et donc nous soulignions le coût potentiel pour les entreprises en conclusion de notre article sur le lancement de vSphere 5, ne semble soudain plus aussi intelligent.

Un schéma de licence qui pouvait rendre vSphere 5 hors de prix
Cherchant sans doute à tirer un profit maximum de sa position dominante mais aussi à compenser les effets pervers de la loi de Moore sur ses revenus, l’éditeur avait profité de l'annonce de vSphere 5 pour introduire un nouveau schéma de facturation incluant un plafond de mémoire par licence. À l’heure où Intel et AMD annoncent des serveurs capables de supporter 1 ou 2 To de mémoire, VMware avait jugé bon de limiter sa licence à 48 Go de mémoire par socket pour sa version la plus avancée et à 8 Go pour la mouture gratuite d’ESXi.
Dans la pratique, cela voulait dire que pour un serveur quadri-socket avec 512 Go de mémoire alloué aux VM, la facture pouvait devenir salée : dans le cas extrême, il fallait souscrire 11 licences VMware vSphere Entreprise plus pour cette machine, soit une facture de 62 900 $ pour trois ans. À comparer aux 34 000 $ facturés par Dell pour un serveur quadri socket Opteron à 48 cœurs PowerEdge 815 configuré avec 512 Go de RAM et deux ports CNA 10 Gigabit. En fait, l'évaluation exacte de l'impact du nouveau modèle de licence était plus complexe à évaluer que prévu puisque la comptabilisation de la mémoire consommée est réalisée à l’échelle d’un pool de serveurs et qu’un serveur gourmand en RAM peut emprunter la capacité mémoire non utilisé des licences de ses voisins. Dans certains scénarios, mixant des VM gourmandes en mémoire et des VM plus traditionnelles, il était donc possible de limiter la casse.

Rappelons à toutes fins utiles que VMware est le seul à avoir réfléchi à un modèle de facturation à la mémoire. Citrix facture son hyperviseur XenServer le plus simplement du monde, c'est à dire par serveur, et une licence Platinum coûte 5 000 $ - un prix qui, en outre, inclut nombre de services facturés en sus par VMware, comme les outils de lab management ou le portail de self-service. Oracle Oracle offre gratuitement Oracle VM ( et facture le support par serveur) tandis que Microsoft facture Windows Server 2008 R2 DataCenter au Socket (une version qui inclut un nombre illimité de VM sous Hyper-V).

Une politique tarifaire qui a accéléré la recherche d'une seconde source chez nombre de clients
Le moins que l’on puisse dire est que la réaction initiale des utilisateurs aux propositions tarifaires concotées par l'éditeur a été "vigoureuse", notamment dans les grands comptes. Ces derniers ont en effet tendance de plus en plus à consolider leurs environnements sur des plates-formes serveurs musclées embarquant beaucoup de mémoire. Au point que certains ont profité de l’écart de VMware pour officialiser l’adoption d’un second hyperviseur dans leur infrastructure afin d'éviter d'être pieds et poings liés à un unique fournisseur. Principal argument entendu : « on n’a pas passé 15 ans à batailler avec Microsoft pour recommencer avec VMware ». Bref, même si VMware rétropédale aujourd'hui, le mal est sans doute déjà fait chez certains clients.
Des limitations mémoire considérablement assouplies
C'est Bogomil Balkansky, le vice-président en charge du marketing produit de VMware, qui, dans un billet de blog, a dévoilé hier le changement de cap de l'éditeur. Les limitations mémoire existent toujours, mais elles ont été considérablement assouplies. L’édition gratuite ESXi voit ainsi son plafond mémoire passer de 8 à 32 Go. L’édition standard de vSphere 5 passe de 24 à 32 Go par socket, tandis que les éditions entreprise et entreprise plus, passent respectivement à 64 Go et 96 Go, soit le double des plafonds précédents (l’équivalent d’une baisse de prix de 50 % pour les utilisateurs les plus concernés).
Plus important encore, VMware indique que dans son nouveau schéma, il ne comptabilisera plus la mémoire utilisée par une VM au-delà de 96 Go, ce qui fait qu’on peut très bien mettre en service une VM avec 512 Go de RAM sans devoir se ruiner (elle ne comptera « que » pour 96 Go). Dans la pratique, cela veut dire que le schéma de licence n’est plus un obstacle à la virtualisation de grosses bases de données ou d’applications gourmandes en mémoire.

Enfin, le calcul de la mémoire consommée à l’échelle d’un pool de serveur ne se fera plus instantanément, comme prévu à l'origine, mais sur une base annuelle. vCenter fera la moyenne d’usage de RAM sur 12 mois, ce qui permettra aux entreprises ayant des pics de consommation mémoire de ne payer que pour leur usage moyen et non pas de passer au tiroir-caisse en fonction de leur utilisation crête.

Conseils d’implémentation d'un stockage sur Ethernet

En cette période de vacances, ce petit post vise à vous faire réviser les quelques conseils pour l'implémentation d'un stockage Ethernet afin de l'utiliser dans vSphere. En espérant qu'il vous soit utile, bonne lecture. PS pour mes ouailles : je vous interroge en rentrant :)

Le stockage sur Ethernet existe depuis de nombreuses années sous la forme de Network Attached Storage ou NAS. Bien que sa facilité d’implémentation soit plébiscitée, les performances étaient incompatibles avec des environnements de production à forte charge. Aujourd’hui le protocole ISCSI, l’avènement des technologies 10/40 Giga Ethernet ainsi que le récent Fiber Channel over Ethernet (FCoE) permettent d’envisager le déploiement d’environnements critiques sur ce type de plateforme.



Convergent Network Adapter FCOE 10 Giga vs
carte Tcp Offload Engine (TOE) ISCSI

Le design du LAN

Il est essentiel de maîtriser la scalabilité, la redondance du réseau Ethernet afin de limiter la latence. S’appuyer sur une infrastructure supportant les Jumbo Frame, autorisant le Multipathing voir l’agrégation de liens et le Rapid Spanning Tree est aussi un pré-requis. Dans le cas de réseau Ethernet traditionnel, on peut recommander l’utilisation de réseau de type Virtual Fabric (any to any) prôné par Juniper tandis que dans celle de l’utilisation d’un réseau convergent de type FCoE (Fiber Channel et Ethernet sur un même média) on s’orientera sur une architecture Cisco à base de Nexus physiques et virtuels, le tout permettant de limiter le nombre de sauts donc la latence, tout l’inverse du collapse backbone (intelligence au centre, distribution au capillaire).

Abuser des VLANs

Par nature, le réseau Ethernet est un réseau de type broadcast avec gestion des collisions. Au début des années 90, la multiplication des périphériques par simple interconnexion des segments réseaux générèrent des congestions qu’il fallut éradiquer. A l’époque, seule la mise en place de routeurs permettait de séparer les domaines de broadcast mais avec un temps de latence plus important lié au traitement de niveau protocolaire. L’avènement du commutateur en mode cut through permis d’éradiquer le problème en ne lisant que le début des trames Ethernet afin d’extraire uniquement les adresses IP, les associer aux ports physiques concernés et ne mettre en relation lors de la communication que les ports source/destination concernés. Ainsi on segmentait avec une latence amoindrie.

La fin des années 90 vit de nouveau une prolifération importante des périphériques réseaux et de nouveau une saturation liée au traitement par la CPU des commutateurs réseaux et une nouvelle augmentation de la latence. Le concept du VLAN, d’abord local au commutateur, puis commun à l’ensemble des équipements du réseau autorisa de nouveau la séparation en domaines de brodacast disctincts, permettant ainsi de maîtriser le nombre d’équipements sur un même segment Ethernet et donc de diminuer le traitement CPU associé sur chaque commutateur. A cette époque, certains commutateurs dit de niveau 3 se virent doté d’une fonctionnalité de routage intégrée évitant ainsi les allers et retours de trames vers un routeur au centre du réseau. Ces pratiques ont toujours cours aujourd’hui.

Ainsi, lors de l’implémentation d’un stockage Ethernet au sein d’un réseau, il est judicieux de profiter des VLANs certes pour séparer les trafics dans un but de sécurité mais aussi pour diminuer les temps de réponse en limitant le nombre de machines susceptibles de l’utiliser. De même, en cas d’utilisation du protocole ISCSI, il est essentiel de dédier un VLAN spécifique à ce type de flux très bavard.

CAT6513VSS#sh run int giga 4/19

Current configuration : 115 bytes

interface GigabitEthernet4/19
description *** Acces vlan ISCSI ***
switchport
switchport access vlan 218

CAT6513VSS#sh vlan
../..
218 ISCSI active Gi4/19, Gi5/9, Gi5/11, Gi5/12


Maîtriser Spanning Tree

Le réseau Ethernet à un fonctionnement en mode hiérarchique qui s’appuie sur Spanning tree (STP), protocole permettant d’établir une topologie du réseau sans boucle au travers de trames spéciales appelées BPDUs (Bridge Protocol data Units). Grâce à se mécanisme, un bridge (switch) est désigné root et connaît l’ensemble des chemins les plus courts depuis tous les équipements du réseau pour venir jusqu’à lui. Du point de vue design, il est préférable que le commutateur root soit le plus au ‘centre’ du réseau et que ce soit une machine puissante : il serait dommage que le spanning-tree root soit un commutateur bas de gamme Netgear alors que l’on dispose d’un catalyst high-end Cisco 6513VSS sur le réseau. Dans la mesure ou les commutateurs disposent de cette fonctionnalité, activer le protocol PVST+ (Per Vlan Spanning-Tree) afin de créer une instance spanning –tree par VLAN, accélérant ainsi la convergence du réseau notamment en cas de changement fréquent sur les VLANs.

CAT6513VSS#(config)Spanning-tree mode rapid-pvst
CAT6513VSS#sh spanning-tree

VLAN0218
Spanning tree enabled protocol ieee
Root ID Priority 32768
Address 0002.7d74.e400
Cost 4100
Port 900 (TenGigabitEthernet8/4)
Hello Time 2 sec Max Age 20 sec Forward Delay 15 sec

Bridge ID Priority 32769 (priority 32768 sys-id-ext 1)
Address 0025.84d9.3680
Hello Time 2 sec Max Age 20 sec Forward Delay 15 sec
Aging Time 300

Interface Role Sts Cost Prio.Nbr Type
------------------- ---- --- --------- -------- --------------------------------
Te7/4 Desg FWD 4096 128.772 P2p
Te8/4 Root FWD 8128 128.900 P2p
Gi9/1 Desg FWD 4 128.1025 P2p
Gi9/2 Desg FWD 4 128.1026 P2p
Gi9/3 Desg FWD 4 128.1027 P2p
Gi9/5 Desg FWD 4 128.1029 P2p
Gi9/7 Desg FWD 4 128.1031 P2p
Gi10/1 Desg FWD 4 128.1153 P2p
Gi10/2 Desg FWD 4 128.1154 P2p
Gi10/4 Desg FWD 4 128.1156 P2p
Gi10/5 Desg FWD 4 128.1157 P2p
....

Utiliser les Jumbo Frames

Par défaut, la trame Ethernet fait 1518 octets, on parle de Maximum Transmission Unit (MTU), composée de 1500 octets de données, de 18 d’entête et de checksum. Lorsque cette même trame passe sur un lien 802.1q, elle fait 1522 octets du fait de l’adjonction du Tag du VLAN auquel elle appartient. Il est possible depuis quelques années d’utiliser des trames Ethernet dites jumbo, des trames ayant une taille de 9k soit l’équivalent de 6 trames Ethernet traditionnelles. Dans la mesure où le réseau le supporte, le fait d’activer le jumbo frames sur le stockage permet d’augmenter drastiquement la bande passante.

CAT6513VSS#sh run int giga 9/6

Current configuration : 120 bytes
!
interface GigabitEthernet9/5
switchport
switchport mode trunk
flowcontrol send on
mtu 9216
end

Dans la console vSphere :

esxcfg-vswitch -m 9000 vSwitch[x]
esxcfg-vmknic –a –i 192.168.x.x –n 255.255.255.0 –m 9000 –p [Nom]

~ # esxcfg-vmknic -l

Interface Port Group/DVPort IP Family IP Address netmask Broadcast MAC Address MTU TSO MSS Enabled Type
vmk0 Management Network IPv4 10.X.X.X 255.255.255.0 10.X.X.255 b8:ac:6f:13:76:9d 9000 65535 true STATIC
vmk1 VMkernel IPv4 10.X.X.X 255.255.255.0 10.X.X.255 00:50:56:79:29:1e 9000 65535 true STATIC
vmk2 ISCSI-1 IPv4 192.168.X.X 255.255.255.0 192.168.X.255 00:50:56:75:25:33 9000 65535 true STATIC

A noter que sur des commutateurs workgroup Cisco, on utilisera la commande « system mtu jumbo 9000 » ou la commande globale "system jumbomtu 9000" sur le Catalyst 6000.

Le Trunk 802.1q

Si le VLAN permet de séparer les trafics, l’agrégation de liens permet de doper la bande passante. En même temps, le nombre de ports sur un NAS n’est pas extensible à l’infini et le nombre de VLAN sur un réseau peut être important. La norme 802.1q vise à faire passer sur un même lien l’ensemble des VLANs : on parle de VLAN tagging. En utilisant un simple lien 10 Gigabit Ethernet, on bénéficie à la fois d’une grande bande passante et d’un accès à l’ensemble des VLANs.

CAT6513VSS#sh run interface port-channel 1
Building configuration...

Current configuration : 81 bytes
!
interface Port-channel1
switchport
switchport trunk encapsulation dot1q
end



Agréger les liens Ethernet

Mutualiser les liens est une autre méthode pour augmenter la bande passante. La norme 802 .3ad permet de faire de faire de l’agrégation de liens en réalisant du load balancing sur les adresses MACs source et destination, les adresses IP source et destination ou selon la méthode l’un puis l’autre communément appelée ‘Round-Robin’. Dans tous les cas, il est nécessaire de mettre en adéquation à la fois la configuration des ports du NAS et celle du commutateur auquel il est connecté. La configuration peut-être statique ou dynamique en s’appuyant sur le standard Link Aggregation Control Protocol (LACP), cette dernière permettant accessoirement d’éviter aussi une perte du flux de données et supporte une connexion multi châssis (au travers de plusieurs commutateurs différents).

CAT6513VSS#sh run interface port-channel 1

Current configuration : 81 bytes
!
interface Port-channel1
switchport
switchport trunk encapsulation dot1q
end

…/…

CAT6513VSS#sh run int giga 9/7

Current configuration : 97 bytes
!
interface GigabitEthernet9/7
switchport
flowcontrol send off
channel-group 1 mode auto
end


Utiliser des chemins redondants

Afin de prévenir toute interruption de service liée à un problème sur un commutateur réseau, il est recommandé de redonder les chemins réseaux. Le NAS devra être connecté à minima sur deux commutateurs réseaux disctincts voir sur deux cartes ligne différentes d’un même chassis réseau. Il ne faudra pas oublier dans vSphere de déclarer deux vMkernel disctincts rattachés à un même vSwitch et à deux vmnics elles-mêmes connectées aux deux commutateurs sus-cités afin de véhiculer les flux réseaux.


N’affecter à chaque vMkernel qu’une seule carte (vmnic) en précisant bien le load-balancing. IP-Hash.

Utiliser les éventuelles capacités Tcp Offload Engine de vos cartes Ethernet ISCSI

~ # esxcli swiscsi vmnic list -d vmhba34
~ # esxcli swiscsi vmnic list -d vmhba35
~ # esxcfg-vmknic -l

Interface Port Group/DVPort IP Family IP Address netmask Broadcast MAC Address MTU TSO MSS Enabled Type
vmk0 Management Network IPv4 10.X.X.X 255.255.255.0 10.X.X.255 b8:ac:6f:13:76:9d 9000 65535 true STATIC
vmk1 VMkernel IPv4 10.X.X.X 255.255.255.0 10.X.X.255 00:50:56:79:29:1e 9000 65535 true STATIC
vmk2 ISCSI-1 IPv4 192.168.X.X 255.255.255.0 192.168.X.255 00:50:56:75:25:33 9000 65535 true STATIC
vmk3 ISCSI-2 IPv4 192.168.X.X 255.255.255.0 192.168.X.255 00:50:56:77:84:0d 9000 65535 true STATIC

~ # esxcli swiscsi nic add -n vmk2 -d vmhba34
~ # esxcli swiscsi nic add -n vmk3 -d vmhba35

~ # esxcli swiscsi vmnic list -d vmhba35
vmnic3
vmnic name: vmnic3
mac address: b8:ac:6f:13:76:a3
mac address settable: NO
maximum transfer rate: 1000
current transfer rate: 1000
maximum frame size: 9000

~ # esxcli swiscsi vmnic list -d vmhba34
vmnic2
vmnic name: vmnic2
mac address: b8:ac:6f:13:76:a1
mac address settable: NO
maximum transfer rate: 1000
current transfer rate: 1000
maximum frame size: 9000




Il faudra veiller à bien mapper l'initiateur (l'ESX) matériel mais aussi logiciel dans votre stockage sans quoi votre volume ne sera pas vu par votre hôte ESXi.

Activer flow control

La fonction flow control permet prévenir une saturation réseau de la machine cible en pilotant le flot de données transmit par la source. Le bon compromis est d’activer le flow control à la fois sur le NAS et sur les switchs réseaux l’émission à « on » et la réception à « off »

CAT6513VSS#sh run int giga 9/6

Current configuration : 120 bytes
!
interface GigabitEthernet9/6
switchport
switchport mode trunk
flowcontrol send on
flowcontrol receive off
channel-group 1 mode auto
end

Profiter du Multipathing offert par ALUA

Design des DATASTOREs

De manière générale, je recommande de créer des DATASTOREs avec une taille maximale de 500~600Go contenant au maximum 10 VM. On veillera à n’utiliser au maximum que 80% de la volumétrie, le restant étant dévolu à l’éventuel swap ou aux snapshots.

A l’inverse, Il n’est pas du tout recommandé de créer un DATASTORE éclaté sur plusieurs LUNs, car cela est source de contention d’I/Os sur le contrôleur et expose l’administrateur à un risque de perte accrue du fait de la multiplication des sources de pannes : un LUN perdu = tout le Datastore perdu.

Au passage, si on souhaite utiliser le boot from SAN pour les hosts ESX, il faut proscrire l’utilisation de datastores NFS car cela n’est pas supporté. En revanche, c’est possible via ISCSI.

A propos du Thin Provisionning

Lorsque l’on crée un volume, il est préférable de le provisionner en mode thick plutôt qu’en mode Thin. En effet, le mode thin va fragmenter le volume sur l’ensemble de l’aggrégat faisant ainsi baisser sa performance au fur et à mesure de son utilisation du fait de sa fragmentation. A l’inverse, on peut utiliser le mode thin au sein des VMs. De manière générale, lorsque l’on fait du Thin provisionning, on le fait soit au niveau volume, soit au niveau VM, jamais sur les deux.

La déduplication

Pour les RDM hautement volatiles, il est préférable d’éviter la déduplication du fait de l’inévitable réhydratation nécessaire à réaliser régulièrement sur les données du volume engendrant de fait une charge CPU importante. A l’inverse, un volume peu souvent utilisé est un bon candidat à cette fonctionnalité. Sur les stockages tels que les machines NetApp on peut recommander d’activer la fonction FAS data déduplication qui va permettre d’économiser drastiquement de l’espace disque lors du déploiement d’une VM depuis un Template. En utilisant cette fonctionnalité, l’intégralité des VMDKs ne sont pas copiés mais générés à partir d’un snapshot peu consommateur de disque.

L'auto-tiering

Pour les ceussent qui n'ont pas la chance de disposer comme moi d'un pool de même type de disque (SATA, SSD, FC ou SAS) déclinable en différents SLA (QOS Pillar), la grande mode du moment est de positionner plus ou moins dynamiquement (process d'optimisation lancé sous une heure pour un Equalogic à deux mois sur un Storwize v7000) les blocs de données les plus consultés sur les disques les plus rapides. En cas de grande volatilité des données, cela peut engendrer un certain engorgement du backend. Moralité, mettre en "data progression" ce qui ne bougera quasiment jamais : sauvegardes, archives, templates ...

Recommandation spécifique pour ISCSI

La fonctionnalité Storage I/O Control (SIOC) pour le SAN introduite dans vSphere 4 permet de prioriser l’accès à certains volumes lors de périodes de contention en fixant la latence attendue. Par défaut la valeur est fixée à 30ms.

Bonne expérimentation et portez-vous bien.

lundi 1 août 2011

MS/PC-DOS à 30 ans

QDOS, oui c'est comme celà que s'appelait à sa naissance le mythique système d'exploitation MS-DOS qui peupla nos PC pendant de nombreuses années. Ce système ne fût pas créé par Microsoft à la demande d'IBM pour le futur IBM-PC, mais négocié à Seattle Computer Product et un certain Tim Paterson. Ce dernier, l'auteur de l'OS, s'était en fait très largement inspiré de CP/M de Digital Research qui se refusait à l'époque à le porter sur x86. A sa sortie, le système d'exploitation PC-DOS n'était pas exempt de défauts et les 300 bugs référencés alors furent corrigés par IBM himself qui du coup fera que PC-DOS est "copyrighté" à la fois de Microsoft et d'IBM. A plusieurs reprises on tentera de s'en affranchir, d'abord à la fin de années 80 avec OS/2, le grand père de Windows NT, puis avec les versions successives de Windows jusqu'en 2001 avec la sortie de XP qui le tuera une bonne fois pour toute.Les dernières versions full texte que je connaisse sont MS-DOS 6.22 et PC-DOS 7.0. CP/M lui, ne reviendra jamais dans la course malgré quelques tentatives sur les machines Amstrad à la fin des années 80.