jeudi 30 juin 2011

Avec Pillar Data, Oracle se met à iso SAN avec la concurrence

Vu sur le MagIT : Avec Pillar Data Systems, Oracle se met à la hauteur de Dell et HP - Le 30 juin 2011 (17:41) - par Cyrille Chausson

Oracle a annoncé le rachat de Pillar Data Systems et de ses baies de stockage Axiom pour compléter son offre et enrayer la chute de ses ventes sur le secteur. Largement financée par Larry Ellison, Pillar devrait permettre à Oracle de batailler avec les baies VNX d'EMC, les FAS de Netapp, les baies 3Par d'HP et avec les baies Compellent Storage Center de Dell.


Mark Hurd présente les enjeux du stockage lors du storage update strategy

Avec 9 mois de décalage sur HP et Dell, Oracle se relance dans la bataille du stockage SAN milieu de gamme. La firme de Redwood Shores a annoncé hier le rachat de Pillar Data Systems une société fondée en 2001 par Mike Workman et dont la particularité est d'être financée par Larry Ellison (il détient 80 % du capital), le sémillant patron d'Oracle.??L'acquisition se fera au travers d'un montage original qui ne prévoit aucun paiement immédiat de la part d'Oracle. Ce dernier ne versera du cash aux actionnaires de Pillar qu'à partir de 2014, et encore à la condition expresse que les activités de la société dépassent ses pertes entre 2011 et 2014. Un arrangement particulier qui, on le comprend, doit atténuer toute idée de conflit d'intérêt pour le président d'Oracle et aussi principal actionnaire de Pillar.


John Fowler décrivant l'ensemble des segments
qu'adresse aujourd'hui l'offre stockage d'Oracle

Pillar Data Systems est notamment connu pour ses baies de stockage SAN milieu de gamme pour x86 (Axiom), qui sont des concurrentes directes des VNX d'EMC ou encore des Compellent Storage Center chez Dell et autres baies 3Par chez HP. Les baies Axiom sont des baies modulaires bâties autour de deux composants principaux : les contrôleurs Slammers qui gèrent les entrées/sorties vers les serveurs et les tiroirs de stockage Brick proposés en version Flash, Fibre Channel et SATA. À ces deux composants principaux s'ajoute éventuellement une brique NAS qui fait des baies Pillar des baies unifiées capables à la fois de proposer des services en mode bloc (FC et iSCSI) et en mode fichiers.


Phil Bullinger explique pourquoi le choix Pillar Data et rien d'autre

Les baies Pillar n'ont rien à envier à leurs concurrentes en matière de fonctionnalités avec notamment le support du thin provisionning, des fonctions de réplication avancées et surtout une gestion fine de la qualité de service. Elles embarquent aussi des fonctions avancées de tiering automatique de données, qui positionnent automatiquement les données sur la bonne classe de disque en fonction du type de services et de contraintes applicatives.

Pillar Data Systems revendique aujourd'hui près de 600 clients dans le monde, dont une partie non négligeable en Europe, où les ventes ont régulièrement progressé au cours des dernières années.

Une offre qui viendra épauler les appliances de stockage ZFS Storage

En mettant la main sur Pillar, Oracle entend compléter son offre de stockage, qui souffrait d'un manque évident sur le milieu haut de gamme depuis la rupture avec Hitachi. Le portefeuille stockage d'Oracle se limitait en effet jusqu'alors aux systèmes ZFS Storage développés par Sun autour de ZFS et aux baies d'entrée-milieu de gamme StorageTek (provenant d'un accord OEM avec Engenio, récemment acquis par NetApp).

Pillar de son côté devrait bénéficier de la puissance commerciale d'Oracle qui pourrait lui permettre de percer dans nombre de comptes pour lesquels la petite taille de la société était jusqu'alors un obstacle. Le rachat devrait aussi rassurer des clients souvent séduits par les performances et les capacités des baies Pillar mais aussi inquiets du devenir de la société. En fait, comme Compellent avec Dell, Pillar voit certainement en Oracle la puissance commerciale qui lui a fait défaut jusqu'alors. En septembre 2010, Mike Workman, interrogé par LeMagIT, avait expliqué être "ouvert à toute proposition". À l’époque des rumeurs citaient Oracle comme potentiellement intéressé. La boucle est désormais bouclée.


La conférence storage update strategy du 30 juin

mercredi 29 juin 2011

Réaction d'un client sur le rachat de Pillar par Oracle

Vu sur Stockagenews : Larry Ellison rappatrie Pillar - 29 juin 2011


La nouvelle était attendue et prévue depuis quelques mois déjà. Pillar Data Systems - fournisseur des baies de stockage SAN Axiom - rejoint Oracle.

Fondée par Mike Workman, Pillar était financée depuis 2001 par Tako Ventures, le bras capitalistique de Larry Ellison, PDG d’Oracle.

Voici la réaction à chaud d’Olivier Parcollet, architecte des infrastructures de communication de Setao, au sein du groupe VeoliaTransdev, l’un des 600 clients de Pillar : “Au même titre que les nombreux utilisateurs de solutions Pillar et Oracle, je suis extrêmement satisfait de ce rapprochement qui pérennise nos investissements”, dit-il.

Nouvelles infrastructures de données

Vis-à-vis des migrations d’infrastructures IT, il précise : “A l’heure du Cloud computing, moment où l’utilisateur va piloter l’IT depuis ses applications, l’acquisition de la baie Axiom fait sens car elle est unique dans son approche orientée applicatifs et dans son évolutivité. Pillar s’intègre d’ores et déjà parfaitement au sein d’une offre logicielle telle que celle d’Oracle”.

Néanmoins, il s’interroge légitimement sur un point : “A présent que l’éditeur à acquis des serveurs (Sun) et une baie de stockage hautes performances, à quand un acteur réseau dans son portefeuille ?”

Les résultats 2010 d’Oracle (CA : 26,82 milliards de dollars en hausse de 15%, bénéfice net de 6,14 milliards de dollars, en hausse de 10 %) et sa réserve de liquidités lui permettent toutes les audaces à ce niveau. Plusieurs start-ups se disent prêtes à bousculer Cisco en aplatissant l’infrastructure réseau et en simplifiant la gestion des datacenters. En outre, au 29 juin 2011, Pillar Data doit à Larry Ellison et à ses associés le remboursement d’un prêt d’un montant total avoisinant les 544 millions de dollars.

Stockage piloté par profils applicatifs

Le datacenter est en pleine restructuration actuellement. Les briques regroupées par Larry Ellison dessinent déjà son nouveau pilotage, par profils applicatifs. Pillar apporte une technologie d’automatisation, de tiering automatique selon laquelle plusieurs niveaux de services de stockage (SSD, FC, SATA, stockage en nuage…) fournissent plusieurs chemins d’accès aux données, plus ou moins rapides. Selon leur importance pour l’entreprise, leur fréquence d’utilisation et leurs contraintes d’archivage, les données sont ainsi aiguillées vers un ou plusieurs supports distincts, sans surconsommation des disques les plus coûteux et sans intervention humaine.

Par effet de bord, l’acquisition de Pillar par Oracle devrait redéfinir les accords OEM (noués par Sun initialement) avec Hitachi Data Systems et LSI. Quant au rapprochement des deux réseaux de distribution, il va consolider les services délivrés aux clients dans une vingtaine de pays où les baies Pillar sont déjà commercialisées.






Pillar Data racheté par Oracle

Update :



Cliquez sur l'image pour lire le post de Mike Workman



NDR : Bon, et bien ça ne sera pas NetApp ni EMC ...

Oracle buying Ellison-backed Pillar Data
Fills SAN hole in storage line-up

By Chris Mellor - Posted in Storage, 29th June 2011 13:28 GMT

Oracle is buying CEO Larry Ellison's privately-funded Pillar Data Systems storage company.

Pillar was founded in 2001 by Mike Workman, its CEO, and funded by Ellison's own investment vehicle, Tako Ventures. It has devised, built and is selling its Axiom storage arrays, ones using a 3-box design, with storage Bricks, up to 8 controlling Slammers and a managing Pilot.

The system offers different levels of storage service, with an innovative concept of using fast access tracks of disk drives for the most active data and the other, slower-to-access tracks for less active data. This has evolved into application profiles.

Multiple levels of storage service and workloads can be provided by a single Axiom from its SSD, Fibre Channel and SATA disk drive tiers.

Pillar has nearly 600 customers with 1,500 Axiom arrays in some 24 countries, and is headquartered in San Jose, not too far from Oracle's Redwood Shores HQ.

Oracle's storage line is effectively divided between externally-attached ZFS-using arrays, directly-attached flash and drive storage for its Exalogic and Exadata (database) server systems, and the StreamLine tape libraries. The company says Pillar will complement this with its block-access SAN arrays.

In effect Pillar is being bought by Oracle to replace the LSI and HDS arrays which Oracle previously OEM'd though its Sun acquisition. Pillar will now have its systems sold through the Oracle channel, and we can expect the absorption of Pillar's channel into the Oracle one.

Oracle says that, with Pillar, it can:

Deliver to customers a complete line of storage products that runs Oracle software faster and more efficiently than traditional storage products. Customers can optimise the value of their Oracle applications, database, middleware and operating system software by running on Oracle's storage solutions.
Oracle says that "Pillar storage products are extremely efficient with 80 per cent utilisation at performance, approximately twice the industry average." The Axiom offers Oracle Database columnar compression, has a drive rebuild time up to 60 per cent faster than an EMC CLARiiON (VNX), and along with its application profiles, larger number of controllers and better quality of service is "better than EMC for SAN block I/O."

PIllar's Axiom has a NAS head feature and that might migrate to a ZFS technology.

An Oracle letter to Oracle (and Pillar) partners states: "The proposed transaction is subject to customary closing conditions and is expected to close in July 2011. Until the transaction closes, each company will continue to operate independently, and it is business as usual."

Pillar is majority-owned by Ellison. The Oracle SEC 8K filing says: "As of June 29, 2011, Pillar Data owed Mr. Ellison and his affiliates a total principal loan amount plus interest of approximately $544 million for amounts borrowed by Pillar Data."

Oracle says that:

The evaluation and negotiation of the transaction was led by an independent committee of Oracle’s Board of Directors. The transaction is structured as a 100 per cent earn-out with no up-front payment. Oracle does not expect that the amount of the earn-out or its potential impact will be material to Oracle’s results of operations or financial position.
The 8K filing says: "The Earn-Out will be calculated based on a 3x multiple of certain future revenues of Pillar Data which will be reduced for certain future costs and other losses of Pillar Data" and "there is no duty for Oracle or the Independence Committee to ensure the Earn-Out will result in a payment to any Pillar Data stockholders and option holders, including Mr. Ellison."

An earn-out means there is no upfront fee to be paid. It could be that Ellison and other Pillar investors will make a loss on their Pillar stock. There could also be a recognition here than an IPO was simply not feasible for Pillar.

With this acquisition Pillar joins 3PAR and Compellent as the third innovative SAN storage company acquired by mainstream storage vendors and brings to a close the recent era of major spinning disk drive array innovation. Now the innovation focus is shifting to all-flash storage for the hottest data and cloud storage for bulk data. ®

Vu que ce soir je suis généreux, voici un récapitulatif des liens de mon blog concernant Pillar :

http://ds45.blogspot.com/2008/10/une-jolie-nouvelle-vient-de-tomber-sur.html
http://ds45.blogspot.com/2008/10/le-pre-nol-est-en-avance-cette-anne.html
http://ds45.blogspot.com/2008/10/premire-baie-pillar-oprationnelle.html
http://ds45.blogspot.com/2009/05/quand-emc-sinsipre-de-pillar-data.html
http://ds45.blogspot.com/2009/05/mise-jour-du-si-de-la-setao-phase-1.html
http://ds45.blogspot.com/2009/06/install-baie-pillar-data-suite.html
http://ds45.blogspot.com/2009/07/mediter-piloter-cest-pouvoir-prevoir.html
http://ds45.blogspot.com/2009/08/evolution-10-giga-apres-le-san-le-lan.html
http://ds45.blogspot.com/2009/09/pillar-ssd-customers-office.html
http://ds45.blogspot.com/2009/10/pillar-data-le-stockage-pour-la.html
http://ds45.blogspot.com/2009/10/premiers-resultats-des-vms-oracle-sur.html
http://ds45.blogspot.com/2009/10/transportation-networking-company.html
http://ds45.blogspot.com/2009/10/support-du-multipathing-pour-pillar.html
http://ds45.blogspot.com/2009/10/case-study-pillar-setao.html
http://ds45.blogspot.com/2009/11/petite-synthese-comparative-sur-le.html
http://ds45.blogspot.com/2009/12/comment-beneficier-de-la-qos-pillar-en.html
http://ds45.blogspot.com/2009/12/comment-placer-ses-donnees-oracle-sur.html
http://ds45.blogspot.com/2009/12/genetec-omnicast-sur-un-stockage-pillar.html
http://ds45.blogspot.com/2010/01/alua-pour-les-nuls.html
http://ds45.blogspot.com/2010/04/architecture-ibm-xiv-petite-mise-au.html
http://ds45.blogspot.com/2010/04/finalement-quel-est-linteret-dutiliser.html
http://ds45.blogspot.com/2010/04/creation-dun-lun-pillar-avec.html
http://ds45.blogspot.com/2010/05/choisir-son-stockage-unifie-pour-le.html
http://ds45.blogspot.com/2010/06/bench-exchange-sur-les-offres-stockage.html
http://ds45.blogspot.com/2010/08/pillar-storage-array-lun-replication.html

http://ds45.blogspot.com/2010/10/qos-pillar-utilisation-du-cache.html
http://ds45.blogspot.com/2010/11/provisionning-view-45-avec-du-ssd.html
http://ds45.blogspot.com/2010/12/repartition-des-luns-dans-une-baie.html
http://ds45.blogspot.com/2010/12/case-study-apport-du-ssd-dans-le-san.html
http://ds45.blogspot.com/2011/02/vivez-vous-prisonnier-dune-matrice.html
http://ds45.blogspot.com/2011/02/comment-utiliser-la-qos-pillar-avec.html
http://ds45.blogspot.com/2011/03/pillar-data-systems-reussit-son-pari.html
http://ds45.blogspot.com/2011/04/question-design-il-y-stockage-et.html
http://ds45.blogspot.com/2011/06/quand-trop-de-cache-dans-le-stockage.html
http://ds45.blogspot.com/2011/06/encore-un-award-pour-pillar.html
http://ds45.blogspot.com/2011/06/un-mois-avec-daxiom-one-r5.html

Ce matin, rencontre à la CCI d'Orléans sur l'IT éco-responsable

Dans le cadre d'un groupe de travail sensibilisé à la sécurité et l'environnement j'ai été convié ce matin à une présentation ayant pour thème les EcoTics. Cette réunion était animée par Tristan Labaume de GreenVision et Jean Guyard de la société orléannaise Evernity sociétés toutes deux spécialisées dans l'accompagnement au changement éco-responsable de l'IT.

J'ai noté quelques chiffres pour prendre la mesure du problème :

- Une croissance démographique passant de 1 à 6 milliards d'individus en 200 ans
- Une raréfaction des matières premières, nous en consommons 7 fois plus en moins d'un siècle
- Un réchauffement climatique avec une volonté de diviser par 4 les GES (gaz à effet de serre)
- Une consommation supérieure à ce que peut nous fournir la planète : à ce rythme, il faudra les ressources d'une terre et demi en 2040
- Entre 40 et 50 millions de tonnes de déchets électroniques générés par an dont 80% ne sont pas recyclables
- Usilisation de métaux précieux et rares, source de conflits, épuisés pour la majorité en 2040

Pour fabriquer un PC dont la durée de vie est passée de 7 ans en 1997 à 2 ans et demi aujourd'hui, il faut 1500 litres d'eau, 240 Kg d'énergie fossile, 22 Kg de produits chimiques. L'ensemble des PC utilisés dans le monde génère 3% de gaz à effet de serre soit autant que le secteur de l'aviation. En France, l'ensemble du parc PC utilisateur représente 11 Tw/h de consommation électrique.

Un datacenter Google consomme 100Mw/h soit l'équivalent d'une ville de 270 000 habitants ... il en existe 40 représentant un total de 2,5 millions de serveurs. Les baies de stockage représentent 12% de la facture énergétique mais ont la plus grande croissance avec +30%/an du fait de l'explosion des données (ne vous demandez donc pas pourquoi j'ai choisi Pillar Data Systems, la seule baie de stockage green et pas repeinte en vert)

Il est donc urgent de procéder à une Analyse du Cycle de Vie des Tics (ACV) pour passer d'un mode berceau/tombe à un mode berceau/berceau cadre dans lequel une entreprise éco responsable ne signifie pas qu'elle va changer de métier mais qu'elle va agir différemment en élargissant sa vision. Dans la mesure ou cette démarche incontournable elle va vite devenir un atout concurrentiel.

La majorité de la quinzaine d'entreprises présentes à tout juste commencé une démarche orientée green en sensibilisant les utilisateurs dans ses usages courants : mise en veille de ses équipements, limitation des impressions et en recto-verso ...

Personnellement, outre le fait que nous avons entammé une démarche green depuis bientôt cinq ans notamment pour l'IT, j'ai souligné le fait que l'on mettait beaucoup trop en avant les carences d'utilisation du matériel sans se préoccuper qu'il reste tout à faire côté optimisation logicielle.

Un très intéressant guide réalisé par le WWf nous a été remis à l'issue du meeting.


mardi 28 juin 2011

Passage d'un orage cette nuit

Entre 4 et 5h00 du matin, je n'ai pu résister à immortaliser quelques éclairs






dimanche 26 juin 2011

Syrphe ceinturé sous tous les angles

Un belle journée de canicule avec plein de lumière, propice dès le matin à faire quelques macros





Le même sous différents points de vue de plus en plus rapprochés

Un autre pris sur un lys.
Toujours Nikon D300s + Nikkor 105 mm macro à main levée

vendredi 24 juin 2011

Un mois avec Axiom One R5

Au même titre que quelques clients privilégiés, j'ai eu le bonheur de pouvoir déployer le firmware Axiom R5 présenté en détail lors du dernier Customer Summit à San Diego.

Mes premières impressions sont plus que positives en ce sens que la viellissante interface html a été totalement réécrite en Java mais sans être pour autant déroutante : toutes les fonctionnalités habituelles ont été reprises de l'ancienne interface évitant ainsi de perdre l'utilisateur habituel d'Axiom One R4. Petite nouveauté appréciable, la fonction reporting, customisable à souhait, est à présent directement accessible dans l'interface, ZE GUI comme ils disent. La création d'un LUN se résume à présent uniquement au choix de la QOS et à donner la taille désirée.

Le tant attendu plug-in vCenter est aussi de la partie, permettant de créer et présenter des LUNs aux groupes d'ESX/ESXi (y compris la futur prochaine version de notre hyperviseur préféré) ou de gérer la QOS applicative.

LA CERISE SUR LE GATEAU : les perfs. Après avoir harcelé l'engineering, j'ai pu apprendre qu'ils avaient réécrit les routines de gestion du cache permettant ainsi de tirer deux fois plus d'IOPs qu'avec l'ancienne version de firmware et croyez-mois, ça décoiffe ! :)




L'interface Monitor

Le plug-in dans vCenter 4.1

En résumé, si Pillar c'était déjà bien avant, maintenant c'est carrément de la balle : CONTENT :)

jeudi 23 juin 2011

Encore un Award pour Pillar ...

Vu sur SNSEurope : Pillar wins Best Cloud Storage Solution at Cloud Computing World Series Awards. Pillar Data Systems has won the ‘Best Cloud Storage Solution Award’ at the 2011 Cloud Computing World Series Awards. Judged by an independent panel of industry experts, the awards were presented to attending winners at the 3rd annual Cloud Computing World Forum on the 21st June at Olympia, London.


Pillar nominated a recent project with Virgin Games for the awards, focusing on the benefits seen from its Pillar Axiom storage system.

Nico Van Der Westhuizen, Head of Technical at Virgin Games explained: “We’re a 24/7 business, so we needed a storage solution that was both scalable and had very high availability. Performance and redundancy were our key drivers in procuring any new hardware. Certainly no purchasing decision would be taken without the guarantee of those two factors. We looked at a number of options, but the Pillar Axiom was the one piece of kit we saw that not only ticked all the boxes but was also cost effective.”

The Application-Aware™ Pillar Axiom® storage system offers a unified SAN/NAS platform that combines innovative performance characteristics and the unprecedented ability to enable administrators to assign storage resources (capacity, CPU, and cache) based on business requirements or conditions to provide a consistent Quality of Service (QoS).

Recognising that business priorities and needs change over time, Pillar enables LUNs or file systems to be promoted or demoted non-disruptively as an application storage group to increase or decrease performance and priority of the application to meet the changing needs of the business.

Virgin Games now runs its entire player facing infrastructure on the Pillar Axiom. This includes SQL databases, back-up, and a growing VMware infrastructure, which supports the player management systems and web sites. The Pillar Axiom’s ability to prioritise different storage service levels or tiers to help guarantee performance levels is one of the key benefits Van Der Westhuizen has realised since deploying the solution.

Jonathan Hebbes, Regional Director, NEMEA at Pillar Data Systems commented: “Pillar Data is taking great leaps to work with customers to provide a reliable cloud storage infrastucture and winning this award shows that what we are doing is working. We are delighted that our USP focusing on Quality of Service and driving maximum storage efficiency has been recognised in this space.”

mercredi 22 juin 2011

Le gestionnaire de disque Windows 2K8 r2 a du mal à calculer ...

En faisant un anodin ajout de disque dans un Windows 2008r2 SP1, je me suis aperçu d'un bugounnet un peu déroutant ... Démonstration :



Je souhaite présenter un aggrégat de 3 disques de 1 To en tant qu'un seul volume de 3To GPT

Je sélectionne mes disques mais je ne peux point indiquer une taille de volume désirée au-delà de 1 to

Bêtement je refais tout sans rien changer, donc je suis censé créer un volume de 1To

Windows m'informe que je vais créer un volume de 3To

La preuve !

mardi 21 juin 2011

Macro du soir ...

Quelques insectes surpris dans le jardin ce soir





Toujours Nikon D300s+Nikkor Macro

La censure cherche à s'accentuer

Vu sur 01net par Guillaume Deleurence le 20/06/11 à 16h29 : Un projet de décret pour le blocage de contenus Web très critiqué

Le nouveau Conseil national du numérique tance vertement, dans un avis, un projet de décret qui autoriserait l'administration à bloquer et à filtrer des sites, sans aval judiciaire. Explications.

Il y a quelques jours, PC Inpact révélait un projet de décret d'application de l'article 18 de la loi pour la confiance dans l'économie numérique (LCEN) de 2004. Le texte, qui concerne le commerce électronique, prévoit que l'autorité administrative puisse, dans certains cas (grave atteinte au maintien de l'ordre, à la protection des mineurs, à la santé publique, etc.) prendre des mesures « restreignant, au cas par cas, le libre exercice » de l'activité d'un grand nombre d'acteurs (voir la liste fournie par l'article 14).

Selon nos confrères, le décret donne à plusieurs ministères ainsi qu'à l'Agence nationale de la sécurité des systèmes d’information (Anssi) le pouvoir d'ordonner à l'éditeur du site, à son hébergeur et, si besoin, aux fournisseurs d'accès à Internet de faire cesser le trouble. Il s'agit donc de permettre à l'autorité administrative de bloquer ou de filtrer un site sans passer par un juge.
Le 12 juin 2011, le tout nouveau Conseil national du numérique (CNN) a été saisi pour avis par Eric Besson, ministre chargé de l'Economie numérique. Cet avis, très critique, est publié aujourd'hui par PC Inpact.

Un décret jugé trop vague

Le CNN, qui regrette le peu de temps dont il a disposé pour examiner le texte (il devait rendre son avis le 17 juin), formule plusieurs demandes, qui soulignent, en creux, les défauts de ce décret. Le Conseil demande d'abord que le décret soit notifié à la Commission européenne, comme l'impose une directive de l'Union pour les sujets ayant trait à Internet.

Autre recommandation, en forme de pique : que le gouvernement clarifie le champ d'application du décret, jugé trop vague. Par exemple, il prévoit que les autorités puissent mettre « en demeure les éditeurs de site de faire cesser ou de prévenir cette atteinte [au maintien de l'ordre] dans un délai qu’elle fixe ». Or, quel est cet « éditeur de site » qui ne fait l'objet d'aucune définition législative ni réglementaire ? L'article 18 englobe en effet des acteurs aussi divers que les sites de commerce électronique, les moteurs de recherche, les comparateurs de prix, les sites d'information, etc.

Le CNN demande donc « que les mesures prévues ne visent que l’auteur du contenu et en aucun cas, en leur qualité d’acteurs du commerce électronique, les intermédiaires susceptibles d’avoir indexé ou référencé ledit contenu ». Il insiste par ailleurs sur le principe de subsidiarité et demande que l'administration ne puisse envoyer, sous prétexte d'urgence, des injonctions aux hébergeurs ou aux FAI, par exemple, sans avoir d'abord cherché à intervenir auprès de l'auteur du contenu.
« Surenchère autour du blocage »

Plus grave, le CNN estime que le décret n'est pas conforme au droit, en ce qui concerne les injonctions auprès des hébergeurs et des fournisseurs d'accès à Internet. Il fustige la partie du texte qui permet à l'administration d'adresser directement des injonctions aux FAI, sans recours préalable à un juge. Sur ce point, le CNN recommande au gouvernement de revoir sa copie.
Le Conseil parle même de « surenchère autour du blocage », sachant que la « France dispose d’ores et déjà de nombreuses dispositions permettant d’ordonner un blocage de l’accès [à un site] » par voie judiciaire. Il argue que « l’autorité publique ne peut être en mesure d’obtenir le blocage d’un contenu sur Internet que par voie judiciaire » et après débat contradictoire. Et pour le CNN, si un tel blocage sans contrôle prélable d'un juge devait voir le jour, il devrait être institué par voie législative et non par décret.

Reste à savoir désormais ce que le gouvernement retiendra de ces quatorze pages sans concession. Vu les points soulevés, on imagine mal que le décret reste en l'état, au risque de se faire retoquer par le Conseil constitutionnel. Le CNN souligne en effet, dans son avis, que le pouvoir de blocage confié à plusieurs autorités, ainsi que la trop large liste des contenus, se révéleraient incompatibles « avec la jurisprudence de l'institution »... En mars 2011, le Conseil avait certes validé les dispositions de la Loppsi 2 sur le filtrage de sites pédopornographiques sans aval judiciaire. Mais il avait jugé qu'elles étaient offraient un bon équilibre « entre la sauvegarde de l'ordre public et la liberté de communication », d'autant que ce filtrage peut être contesté devant la justice.

« Une dérive inquiétante », selon la Quadrature du Net
La révélation de ce projet de décret avait aussi fait violemment réagir la Quadrature du Net. Dans un communiqué, celle-ci évoque un texte qui « vise à donner au gouvernement un pouvoir de censure sur tous les sites et contenus du Net qui serait totalement disproportionné. Il s'agit là d'une violation flagrante du principe de séparation des pouvoirs, portant gravement atteinte à la liberté de communication en ligne. C'est une dérive extrêmement inquiétante, dans la droite ligne des politiques sécuritaires du gouvernement en matière d'Internet, Ce projet de décret doit à tout prix être rejeté. »

dimanche 19 juin 2011

Revue de chatquarium

Nos matous sont issus de diverses régions françaises afin d'éviter la Consanguinité


Notre étalon Elliot Gold de Panthera originaire d'Arras

Notre première coon, la douce Eclipse de Koolkat, née près de Troyes



Les deux demi-frères orléanais Figaro de la Gabellière et Flocon de Katoochat, tous deux fils d'Elliot. Flocon est aussi le fils de notre Eclipse.


L"immaculée Bestcoon's Féé-line native de la région Nantaise, et qui n'est pas sourde contrairement à la majorité des coons blancs ...



Notre magnifique et sauvage black smoke : Fanfan des Rois d'Antan, née près de Dreux



Notre petite dernière, une autre black smoke : Gouache des Fées de Philae, qui a vu le jour près de montlhéry



Leur passe-temps préféré : simuler la chasse aux oiseaux dans le chatquarium



La meute à l'affut d'un imprudent volatile qui s'approche de la cloture



Si tout va bien, nous devrions avoir une portée issue de l'accouplement d'Elliot et de Fanfan fin août.

vendredi 17 juin 2011

Quand trop de cache dans le stockage tue la perf ...

Depuis l'avènement du disque SSD, on assiste à une inflation considérable du cache "marketing" dans les baies de stockage : on nous annonce parfois jusqu’à plusieurs To rien que ça, mais avec des disques SSD à minima en mirroring pour prévenir une casse toujours possible du fait de la longévité moindre de ce type de média. Pourquoi donc ?


Et bien, l'apport de cette technologie salvatrice permet de soulager les traditionnelles têtes contrôleurs, par ailleurs déjà bien occupées à gérer les migrations de données et autres dialogues avec les serveurs, afin de fluidifier la descente des données sur les disques pour éviter les a-coups générateurs de temps de réponse parfois un peu longuet (on dit latence dans le jargon)

Chez Pillar, depuis la genèse le cache a toujours été conséquent puisqu’étant initialement fixé à 24 Go de DRAM dans les AXIOM 500, il est passé à 48Go de DRAM dans les actuels 600. Cependant, aujourd'hui on pourrait se dire : ah ben tient ? ils sont à présent dépassés ... Que nenni !






Dans le tableau ci-dessus, on s'aperçoit que la DRAM ira 1000 fois plus vite que le plus rapide des SSD. Pour rappel un stockage Axiom Pillar Data n'utilise exclusivement qu'un ensemble de contrôleurs RAID matériels distribués 20 fois plus rapides que le traditionnel RAID ou les pools gérés logiciellement chez les concurrents. Du coup, l'écriture étant réalisée beaucoup plus rapidement, il n'y a pas nécessité d'un gros cache complété voir ralenti par du SSD. Accessoirement moins de cycle d’horloge CPU seront consommé : CQFD !


Résultat constaté il y a quelques jours sur un AXIOM 600 doté de 6 briques soit 72 disques SATA , connecté à un serveur en double attachement FC 2gb/s, le tout réalisé devant témoins :






IOMETER : 100% random, 30% write, 70% read, 64 x 500 transactions



Ne pleurez pas, ce n'est pas grave ; imaginez simplement ce que Pillar Data vous permettrait de réaliser avec votre SI. Songez-y lors de votre prochaine acquisition :)Lien

mardi 14 juin 2011

Pub HADOPI pour les imPUR du net ?

Update : je vous invite à signer la pétition pour l'arrêt de la campagne de pub


L'infantilisation continue mais là on atteint des sommets !

A l'heure ou il faut se serrer la ceinture, qu'entends-je ce week-end ? Encore 3 Millions d'Euros de plus dépensés pour de pauvres publicités expliquant que les internautes français seraient par défaut de vilains méchants téléchargeurs qui tueraient les futurs artistes à moins d'utiliser les sites labellisés PUR "Promotion des Usages Responsables. N'importeNAWAK !

A ce train, je pense que sous peu, on va nous interdire d'écouter du streaming sauf évidemment à payer une taxe et je parie même que pour souscrire à ce principe, une enquête va expliquer au JT que les français approuvent, enquête Internet à laquelle auront répondu massivement les BOTs de l'agence H ...

Par contre, pendant ce temps, le racket continue : DVD toujours à 20€, Blue Ray à 30€, le prix du CD ne fait qu'augmenter : exemple ? "Chansons pour le pieds" de JJ-Goldman acheté la semaine dernière : 29,90€ pour un album d'il y a 10 ans. Quoi ?? Eh bien oui, je suis honnête, quand les musiques me plaisent, j'écoute notamment en streaming et ensuite j'achète le CD. J'estime que je paie déjà suffisamment de redevances, de taxes sur la copie et autres abonnements pour voir et financer les artistes ainsi que leurs maisons de disques en attendant éventuellement d'acheter leurs albums. En informatique on appelle celà un 'Try and Buy' qui peut se traduire aussi par un 'No Buy'. Qu'on se le dise : si cet argent ne va pas là où il doit être, ce n'est pas de mon fait.




Big Blue à 100 ans

Vu sur Infodsi.com

Depuis longtemps, IBM a maintenu très forte activité en recherche et développement avec une importante composante en recherche fondamentale. Bon an, mal an, ce sont quelque 6 milliards de dollars que la compagnie consacre à la R&D. Combien d’entreprises privées peuvent s’enorgueillir d’avoir obtenu 5 prix Nobel, même si le dernier remonte à plus de 25 ans ? IBM ne prétend-elle pas de détenir le plus grand département privé de chercheurs en mathématiques ? Tout ceci a permis à IBM d’inventer bon nombre de produits qui ont marqué l’histoire de l’informatique. Certains furent des réussites spectaculaires, d’autres des échecs retentissants.

La carte perforée n’a pas été inventée par IBM, loin s’en faut. Sans remonter aux premières cartes utilisées au 18e siècle pour les métiers à tisser, c’est Hermann Hollerith qui à la fin du 19e utilisa une machine à cartes perforées pour le recensement de 1890 aux Etats-Unis. Rappelons que la Constitution américaine impose de recenser la population tous les 10 ans. Le recensement de 1880 fut une catastrophe car les résultats ne furent publiés que 7 ans plus tard malgré les 1500 personnes attelées à plein temps à cette tâche. La compagnie que Hermann Hollerith créa, la Tabulating Machine Company (TMC), fusionna avec deux autres entreprises avant d’être rebaptisée IBM en 1924.

En 1928, IBM introduisit un nouveau format de carte, à 80 colonnes, pour laquelle elle déposa un brevet. Ces cartes qui étaient alors le seul système d’introduction des programmes dans les ordinateurs furent couramment utilisés jusqu’à la fin des années 80. Qui n’a pas fait l’expérience d’avoir minutieusement classé ses cartes dans leur boîte avant de les faire tomber !

Et IBM créa le mainframe !

Mainframe est synonyme d’IBM dans la mesure où ce dernier est l’inventeur de ce type de machine et où il en reste aujourd’hui le seul fournisseur. Il y eu d’abord le modèle 1401 introduit en 1959 et qui fut le premier système informatique à mémoire à transistor, à programme stocké et vendu en volume. C’est un peu ce que le DC3 est à l’aéronautique. D’ailleurs, un peu plus de 10 000 unités des deux machines furent vendues. Quelques années plus tard, le 7 avril 1964, IBM frappe un grand coup en dévoile une nouvelle génération d’ordinateurs, l’IBM 360, - l’équivalent du Boeing 707, si l’on veut continuer dans l’analogie aéronautique - qui marque une étape majeure de l’histoire de l’informatique et, a fortiori d’IBM. L’IBM 360 sera l’archétype du mainframe, synonyme de machines volumineuses, puissantes et coûteuses.

C’est un véritable pari pour IBM puisque ces ordinateurs ne sont pas directement compatibles avec les anciens systèmes du catalogue. IBM propose toutefois des possibilités de reprise des programmes, grâce à des émulateurs de microcodes.

L’appellation 360 est due à la décennie. Il y aura ensuite la génération 370 dans les années 70, les 3081 dans les années 80, les 3090 et surtout les OS/390 dans les années 90. Ensuite, IBM abandonne ce procédé, les OS/390 devenant les serveurs z/Series.

Une conception radicalement nouvelle

Avec l’IBM 360, IBM propose non plus des systèmes, mais une famille de systèmes compatibles entre eux. Les six machines introduites offrent un éventail très large de puissance allant de un à cent. Le point d’entrée de la gamme, l’IBM 360/20, dispose de 24 Ko de mémoire… Les entreprises peuvent acheter le modèle d’entrée de gamme et acquérir des machines plus puissantes en fonction de l’évolution de leurs besoins, tout en réutilisant leurs programmes. Parallèlement, IBM introduit quarante périphériques à utiliser sur n’importe laquelle de ces machines. L’architecte de l’IBM 360 est Gene Amdahl qui quittera IBM en 1970 pour créer sa propre société. Celle-ci deviendra le plus féroce concurrent d’IBM et donnera naissance à l’industrie des « compatibles IBM ».

Un tiers du plan Marshall

Les investissements consentis pour le développement et la fabrication de cette nouvelle génération d’ordinateurs sont considérables : 5 milliards de dollars sur 4 ans (90 % en construction d’usine et 10 % en R&D). A titre de comparaison, le chiffre d’affaires d’IBM en 1965 atteint 3,5 milliards de dollars, (ce qui représenterait 30 milliards de dollars d’aujourd’hui) soit le tiers du plan Marshall. Il s’agit du deuxième projet le plus important jamais entrepris par une entreprise après le programme Apollo pour l’exploration lunaire. Le premier système 360 est livré en 1965 à Globe Exploration pour l’analyse de données sismographiques dans le domaine pétrolier.

Le succès commercial des 360 est au rendez-vous et les commandes atteignent fin 1966 1000 unités par mois, de telle sorte qu’IBM ne peut répondre à la demande. Certaines entreprises vont jusqu’à acheter le droit d’être sur la liste d’attente afin d’être servies plus rapidement. Pour accélérer la production, IBM embauche 25000 personnes en 1966 et construit plus de 270 000 m² d’usines. En 1970, le parc installé IBM compte 35 000 machines.

Plusieurs systèmes d’exploitation pour une même famille

Le cœur de la gamme utilise l’OS/360, un système d’exploitation fonctionnant en traitement par lot (ou batch) et utilisant des périphériques à accès direct (DASD) par opposition à l’accès séquentiel. Les machines d’entrée de gamme fonctionnent avec le DOS/360, un OS conçu comme un produit provisoire mais qui survit pourtant jusqu’en 1971. L’OS/360 pouvait fonctionner en trois modes : en PCP (traitement des programmes de manière séquentielle), MFT (multitâche pour un nombre fixe de programmes) ou MVT (multitâche variable).

Les machines haut de gamme peuvent accueillir le TSS/360, un système en temps partagé qui n’a finalement jamais vraiment fonctionné. Il est l’ancêtre de trois autres systèmes : CP-67, MTS et TSO. Le CP-67 va se muer en VM/370, puis en VM/CMS (Virtual Machine), l’un des systèmes d’exploitation les plus utilisés dans le monde. VM permet de traiter des programmes conçus dans différents environnements. La virtualisation, antichambre du cloud computing, est donc tout sauf une idée nouvelle.

Aujourd’hui, la technologie de l’OS/360 appartient au domaine public et peut être téléchargée gratuitement. En dehors des matériels de la gamme 360, il peut fonctionner via l’émulateur Hercules sur les systèmes GNU/Linux et Windows.

Le PC, le PS/2, puis Lenovo

Le 12 août 1981, IBM dévoilait le Personal Computer (référencé 5150 dans le catalogue IBM) et jetait les bases d’une nouvelle industrie auxquels participèrent de nombreux partenaires. Pour se lancer sur un marché qu’elle avait raté (des ordinateurs personnels existaient déjà depuis plusieurs années notamment ceux d’Apple, de Tandy et de Commodore), IBM a constitué une task force chargée de boucler ce projet au plus vite. L’ouverture qui caractérise l’architecture du PC attire de nombreux concurrents, des fabricants de compatibles, certains comme Compaq s’attachaient à apporter des avantages fonctionnels, d’autres comme de très nombreux du Sud-Est asiatiques jouent plus spécialement sur le terrain des prix et du volume. Et surtout le PC a favorisé l’émergence du couple Wintel - Microsoft et Intel - qui rythme l’évolution des PC depuis plus trente ans.

Année après année, IBM perd des parts de marché et contre-attaque en lançant une nouvelle famille de produits, les PS/2 basés sur une nouvelle architecture plus avancée sur plan technologique, notamment le bus MCA qui autorisait un véritable fonctionnement multitâche. Mais contrairement au PC, le PS/2 est une machine fermée (entre 50 et 80 % des composants sont de fabrication interne). Cette nouvelle famille de machines a été accompagnée d’une nouvelle génération de système d’exploitation co-développée à partir de 1985 par IBM et Microsoft. Le partenariat se transforme en concurrence frontale, IBM poursuivra seul le développement d’OS/2 et Microsoft se lancera dans celui de Windows. A partir de Windows 3.1, Microsoft a réalisé une irrésistible ascension, tandis qu’IBM n’a pu jouer que les seconds rôles sur le poste de travail, tant au niveau du matériel qu’à celui du logiciel. OS/2 n’a réussi qu’à s’imposer dans les entreprises, notamment dans certains secteurs comme la banque où IBM possédait une très forte position, mais n’a jamais trouvé le chemin des particuliers.

Quelques années plus tard, IBM quittait le marché des PC arguant qu’ils ne sont plus que des « commodités » et vend en 2005 sa division PC au chinois Lenovo.

Disque et bande magnétiques

IBM a aussi créé deux éléments essentiels des systèmes informatiques, le disque magnétique et la bande magnétique. En 1956, le RAMAC (Random Access of Accounting and Control) regroupe une cinquantaine de plateaux de 24 pouces pour une capacité totale de… 5 Mo. Quelques années plus tôt, en 1952, IBM avait déjà introduit le lecteur de bandes magnétiques. Celui-ci a été utilisé pour la première fois, pour le système IBM 701 et offrait des fonctions de lecture, écriture et stockage de données. Enregistrant 100 caractères à la seconde, un lecteur de bande de 8 pouces représentant 12 500 cartes perforées. Dans le domaine du stockage des données, on doit mettre à l’actif d’IBM les floppy disk (disque souple) dont les premiers modèles ont été utilisés pour les IBM 370 et dont la vie s’est prolongée jusqu’aux premières générations de PC.

Mémoires à semiconducteur et systèmes intelligent

Dans le cadre de ses activités de recherche, IBM a toujours été très actif dans les semiconducteurs. Parmi ses faits d’armes, on peut citer les fameuses DRAM (Dynamic Random Access Memory) ou mémoires dynamiques qui sont à la base des PC d’aujourd’hui, les puces utilisant un composite de Silicium et de Germanium et pas plus tard que la semaine dernière, IBM faisait état de composants à haute performance à base de graphène et qui pourraient être utilisés pour les smartphones et les téléviseurs.

Alors qu’IBM a largement déserté l’activité du matériel, elle n’est en toujours pas moins impliqué dans le développement de serveurs haut de gamme et les supercalculateurs. Il y a une dizaine d’années, IBM s’était illustré en développant un supercalculateur baptisé Blue Gene et qui a battu le champion du monde des échecs, Garry Kasparov, une prouesse qui semblait impossible quelques années plus tôt. Cette initiative avait eu pour but de faire la promotion d’IBM dans le calcul scientifique. Ces derniers moins, IBM a réédité ses exploits avec un système informatique baptisé Watson du nom de deux prestigieux Pdg d’IBM.

Tout comme Deep Blue, le superordinateur d’IBM qui avait battu le champion du monde d’échecs en titre en 1997, Watson offre une évolution considérable quant à la capacité des systèmes des technologies de l’information à identifier les comportements, développer un instinct critique et accélérer la prise de décision en dépit d’une complexité intimidante. Mais alors que Deep Blue constituait une énorme réalisation dans l’application de la puissance informatique à un jeu bien défini et limité informatiquement, Watson relève un challenge infiniment ouvert et surpasse les limites bien définies de formules mathématiques d’un jeu tel que les échecs. Watson est capable d’opérer dans l’ambiguïté, le domaine hautement contextuel, presque sans limite du langage et du savoir humain.

Du côté des échecs

Aux côtés des réalisations remarquables que l’on doit attribuer à Big Blue, il faut également citer certains échecs retentissants. Parallèlement à OS/2 déjà citer, on pourrait citer le PC Junior, une tentative ratée de populariser les PC, le logiciel de bureautique OfficeVision créé pour les grands systèmes à l’heure où la bureautique prenait son envol sur les PC, le système TopView qui n’a pas peser lourd face à Windows, AD Cycle et SAA (Systems Application Architecture), deux cathédrales architecturales sans doute trop ambitieuses, le protocole Token Ring dans le domaine des réseaux locaux laminé par Ethernet… Une liste évidemment non exhaustive.

lundi 13 juin 2011

Juniper, une autre proposition pour le datacenter unifié

La semaine dernière, petite rencontre avec Lurent Paumelle, senior engineer chez Juniper, afin d'évoquer la vision du datacenter selon le constucteur. Issue du monde du routeur et de la sécurité avec l'intégration de feu Netscreen, les fonctionnalités ont été déclinées jusque sur la récente offre switch ou l'on peut aussi définir des "Security Zones', contextes logiques dans lesquelles sont déclarées avec une granularité très fine les politiques de sécurité ad-hoc sans avoir besoin de faire appel à de multiples appliances dédiées. Une seul équipement peut faire partie de plusieurs zones, de même un équipements physiques ou virtuels qui se verrait attaché une ou plusieurs zones verraient ces dernières le suivre même en cas de déplacement, par exemple lors d'un vMotion d'un Cloud à un autre ..



La problématique actuelle : la complexité et la latence engendrée par le réseau



Juniper propose de décliner l'infrastructure opérateur au niveau du réseau d'entreprise, diminuant ainsi d'autant le nombre de sauts entre source et cible.


... en se basant sur une architecture déclinée en 3 plans


Le chassis virtuel permet de créer des shortcuts au niveau des commutateurs top of the rack


et ce directement depuis les hosts


grâce notamment à l'intégration de module au niveau noyau à l'instar d'un Nexus 1000v

Lien


L'intégration au niveau noyau permet une latence pour le trafic réseau quasi-invisible, y compris pour les fonctions firewalling, IDS, Introspection au niveau OS !! La technologie provient du rachat d'Altor.


... et le tout pilotable depuis la console unifiée Juniper SPACE.