jeudi 28 avril 2011
Telex : présence de Paul Maritz au vForum le 3 mai prochain
mercredi 27 avril 2011
Mise en place du Conseil National du Numérique
Le CNN compte 18 membres: Gilles Babinet (entrepreneur co-fondateur de CaptainDash, MXP4, Eyeka), Patrick Bertrand ( Directeur Général de la Cegid et président de l'Afdel), Jean-Baptiste Descroix-Vernier (PDG-fondateur de Rentabiliweb), Giuseppe De Martino (directeur juridique de Dailymotion.com, vice-président de l'Asic), Frank Esser (PDG de SFR, président de la Fédération Française des Télécoms), Emmanuel Forest (Directeur Général Délégué de Bouygues Telecom), Gabrielle Gauthey (Directrice des relations institutionnelles d'Alcatel-Lucent), Pierre Louette (Directeur Exécutif d'Orange), Daniel Marhely (cofondateur de Deezer.com), Alexandre Malsch (fondateur de Melty.fr), François Monboisse (Responsable de Fnac.com, et président de la Fevad), Xavier Niel (fondateur de Free), Jean-Pierre Remy (PDG de PagesJaunes.fr), Marie-Laure Sauty de Chalons (PDG d'AuFéminin.com), Marc Simoncini (fondateur de Meetic.com, et Jaina Capital), Jérôme Stioui ( fondateur de Directinet et Ad4Screen), Bruno Vanryb ( PDG d'Avanquest Software et président du collège Éditeurs de logiciels du Syntec Numérique), Nicolas Voisin (fondateur 22 mars).
Le 27 avril 2011 (15:32) - Par Cyril Chausson LeMagIT
Se faire la caisse de résonance de l’écosystème du numérique en France auprès des politiques. C’est la mission que devront remplir les 18 membres du Conseil national du numérique, installé ce jour par Nicolas Sarkozy. Une tâche censée faciliter la compréhension des douloureux dossiers et notamment faire oublier la gestion calamiteuse autour d'Hadopi et autre Loppsi auprès de la communauté des internautes. Certaines associations et syndicats critiquent cependant déjà la représentativité et la légitimité de ce comité.
C’est aujourd’hui mercredi 27 avril que Nicolas Sarkozy a officiellement installé le Conseil national du numérique, un "conseil de sages" qui réunira 18 acteurs clé de l’Internet en France et qui doit aider à l’intermédiation entre les pouvoirs publics, les politiques et l’ensemble de l’écosystème du numérique en France.
“Un interlocuteur des acteurs du numérique avec les pouvoirs publics”, comme l’avait défini Pierre Kosciusko-Morizet, le patron de PriceMinister, chargé par le gouvernement d’une mission de consultation pour le mise en place du CNN, qui aura également pour mission d’éviter les ratés autour du numérique et d’Internet, un monde désormais estimé précieux pour la France explique en substance le Président de la République, reprenant les conclusions publiées en mars 2011 par le cabinet McKinsey.
Se sachant en train de revenir de loin Nicolas Sarkozy n’a pas oublié dans sa présentation un petit acte de contricion à propos de l'Hadopi, pour laquelle il reconnait “une part d’erreur”. Et d'expliquer que "l'intuition que j'avais, c'est qu'on ne pouvait pas abandonner les créateurs. Peut-être que la maladresse a été de donner le sentiment que vous étiez attaqués", lance-t-il alors, en direction des acteurs de l’Internet présents à la conférence de presse. Reste que nombre de créateurs n'étaient pas non plus d'accord avec avec la démarche du gouvernement.
Le CNN devra donc traiter de tous les sujets "sans tabou", le Président évoquant tour à tour “le terrorisme numérique”, “le financement” et bien sûr “la fiscalité numérique”. Un point sur lequel il estime "inconcevable" de travailler sans objectifs internationaux et un dialogue avec les grands fournisseurs. Cette fiscalité numérique, notamment autour de la fameuse taxe Google (société connue pour ses mécanismes d’optimisation fiscale) avait été au coeur de ses voeux 2011. Le président n’a toutefois pas cité le nom de Google cette fois-ci. L'enjeu est de taille de par la nature transnationale de l'activité de nombres d'acteurs du secteur qui cherche à échapper aux taxes mais également, plus localement, parce que le secteur peux parfois légitimement se sentir traiter comme une vache à lait fiscale (la taxe pour la télé publique, le coût d'accès aux fréquences pour les réseaux, répercutés sur les factures, les taxes spécifiques etc...).
Sur les 18 membres qui compose le CNN, on retrouve notamment Jean-Baptiste Descroix-Vernier, fondateur de Rentabiliweb, Giuseppe de Martino, directeur juridique de Dailymotion et Nicolas Voisin, fondateur de notre confrère Owni.fr - il explique sa décision sur le site de la publication.
Syntec Numérique y sera également représenté par Bruno Vanryb président du Collège éditeurs de logiciels, qui par voix de communiqué de presse, "salue la création" du CNN, comptant par ailleurs s’impliquer pour que le conseil "soit le premier pas vers la prise en compte de l’ensemble des composants numériques en France". Comprendre ne pas limiter le CNN à un éco-système purement Internet, mais le rapprocher des mondes des services et logiciels également.
Une “diversion” et du “Bling-Bling”
Saluée par ceux qui seront du CNN cette installation officielle a déclenché une volée de bois vert chez certains autres. C’est le cas de l’April, association de promotion et de défense du logiciel libre , pour qui le CNN est "très loin de la promesse d'un forum de concertation permanente doté de la plus large représentation possible et signe simplement le retour du candidat Nicolas Sarkozy". Et de Signaler au passage l’absence d’associations parmi les membres du conseil.
« Après son implication dans la loi DADVSI 4 (en temps que président de l'UMP), le vote des lois Hadopi et Loppsi sous sa présidence, Nicolas Sarkozy lance une opération de diversion à un an de l'élection présidentielle. Et cette opération de reconquête semble concerner exclusivement les acteurs économiques de l'internet », déclare ainsi Frédéric Couchet, délégué général de l'April.
Son de cloche différent mais tout aussi virulent chez le La fédération des syndicats des personnels des opérateurs télécoms et fournisseurs d’accès (CFE-CGC & UNSA Télécoms), qui voit en ce CNN "un simple comité Bling-Bling" de l’Internet, qui ne serait en rien "le reflet de la société française et de ses préoccupations légitimes”. Un problème de crédibilité donc. Selon eux, il s’agit d’ un “aréopage d’acteurs économiques plus intéressés à défendre la maximisation de la rentabilité du capital de leurs actionnaires que les intérêts de la République.”
Le CNN devra donc encore convaincre, même si le temps pré-élection présidentielle semble trop court pour qu'il échappe à la pression de la campagne. Comme l’indique Nicolas Voisin, fondateur du site Owni.fr et, donc, tout nouveau membre du CNN : "le Parlement n’aura probablement guère le temps d’être saisi de textes majeurs relatifs à l’Internet d’ici la présidentielle de 2012. Je n’en fais pas moins le pari que le travail du CNN permettra, d’ici là et je le souhaite par la suite, de contribuer au débat sur ce que peut apporter l’Internet en particulier, et le numérique en général, à notre démocratie – et qu’il serait dommage de s’en priver". les éentuelles occasions d'avancer semblent donc bonnes à prendre au risque de sombrer dans une vaste entreprise de récupération ou plus sûrement de sombrer dans l'oubli des nombreux comités Théodule dont les gouvernements ont pris l'habitude de se prévaloir.
SPC-1 Pillar commenté par The Register
The Register, Posted in Enterprise, 26th April 2011 12:27 GMT
Pillar has announced a sparkling SPC-1 benchmark, bettering IBM's Storwize V7000. Oddly EMC is not present in SPC-1 results and NetApp's results are 2008 vintage. What's going on?
The SPC-1 benchmark is for block-access storage, not for filers, where the SPECsfs2008 benchmark is used. There are high-end SPC-1 results, ranging from roughly 150,000 IOPS up to 400,000 where IBM's SAN Volume Controller recorded 380,489.3 IOPS with a cost of $18.83/IOPS. This involved a clustered 6-node SVC with several high-end DS8700 arrays behind it.
A DS8700 on its own, with SSDs and EasyTier data tiering, recorded just 32,998.24 IOPS at a cost of $47.92/IOPS. The SVC improved its performance enormously.
Then there are 100,000-ish and sub-90,000 IOPS results. A Fujitsu Eternus DX440 recorded 97,488.25 IOPS at a cost of $5.51, good value, and a 3PAR F400 scored 93,050.06 IOPS at a cost of $5.89.
Now come a cluster of sub-90,000 scores headed up by Pillar's latest result, an Axiom 600 series 3, which achieved 70,102.27 IOPS, costing $7.32/IOPS. In January 2009 an earlier version of the Axiom 600 achieved 64,992.77 IOPS with a price-performance result of $8.79/IOPS. Pillar then said its was: "the most cost effective SPC-1 result for business-class storage arrays."
The latest result improves on that, with Pillar CEO Mike Workman blogging that he was particularly pleased with the latency, and including a chart showing how this was better than a group of competing systems.
The cost per IOPS is not so favourable to Pillar, with a 2-node IBM Storwize V7000 recording $7.24/IOPS but then it only achieved 56,510.85 IOPS, a lot less than Workman's Axiom 600. For the moment the Axiom is the leader of this particular pack.
Looking at the SPC-1 results, and remembering that EMC has been very active in the SPECsfs2008 filer benchmark area, you ask yourself where are the EMC SPC-1 results. There aren't any, not one, apart from some NetApp-submitted CLARiiONs from a few years ago.
NetApp products are present in the SPC-1 tables but the results are all old, 2008 vintage, with no newer systems represented, although some are in the separate SPC-1 (E) - for energy - listing. It makes you think. There is no ability here to compare newer NetApp arrays with their Flash Caches against EMC VNX arrays or the high-end V-MAX. That's annoying. We could imagine EMC and NetApp both running SPC-1 benchmarks but refusing to submit results to the SPC-1 council until and unless they have category-winning scores. Why would their respective marketing departments countenance submitting results showing that their products are second rate in SPC-1 terms?
There is another obvious missing product: IBM's XIV array. Maybe its performance in SPC-1 terms leaves something to be desired?
In the high-end SPC-1 area, one result stands out. It's a Texas Memory Systems RamSan-620 which scored 254,994.21 IOPS, easily beaten by IBM's SVC and also Huawei-Symantec (300,062.04 with Oceanspace S8100 8-node system), but its cost/IOPS is a remarkable $1.13. No one else comes close. There is an Infortrend ESVA F60 which did well on that measure, coming in at $5.12 with its 180,488.53 IOPS – bet you didn't realise Infortrend could perform so well – and IBM's DS8700 doing least well, costing $47.92 per IOPS. But then you don't buy an 8700 for sheer SPC-1 IOPS grunt and cost/efficiency.
Look out for fresh SPC-1 results at the high-end and mid-range as both EMC and NetApp present their latest flash-enhanced arrays, but only if they are winners. ®
mardi 26 avril 2011
lundi 25 avril 2011
PSN : mal au crâne après un lendemain de fête ?
A l’heure où cet article est publié, les serveurs du Playstation Net(doesnot)work sont toujours en “maintenance”. De mémoire de gamer, jamais ils n’avaient été down aussi longtemps. Que se passe-t-il au sein de la société japonaise?
Tout d’abord, ce sont les gamers qui ont pour habitude de jouer en ligne et aussi ceux qui font leur marché sur le Playstation Store qui sont victimes de cet arrêt. Mais sont également touchés les utilisateurs de Qriocity qui ne peuvent plus utiliser le service de streaming mulitmédia.
L’accès est impossible depuis mercredi dernier et le problème n’est donc pas superficiel. Sony, par la voix de son porte-parole James Gallagher, déclare :
“Nous regrettons sincèrement que le PSN et Qriocity soit arrêtés, et nous travaillons 24 heures sur 24 pour que tout rentre dans l’ordre. Nos efforts pour résoudre ces problèmes impliquent de reconstruire notre système afin de renforcer notre infrastructure de réseau. Même si cette tâche prend beaucoup de temps, nous estimons que ce temps est nécessaire afin d’apporter une sécurité supplémentaire au système.”
Une belle langue de bois qui ne nous dit pas comment le problème est apparu et quand exactement il sera résolu. Il laisse bien entendre que tout cela résulte d’une ou de plusieurs failles de sécurité et donc indirectement de malveillance de la part d’un individu ou bien d’un groupe d’individus. Toutefois, il reconnaît également que le temps pour que tout rentre dans l’ordre n’est pas lié directement à des dégâts d’une éventuelle attaque mais à la mise en place de verrous pour combler les failles existantes.
Le groupe des Anonymous est montré du doigt. Ces derniers clament qu’ils n’y sont pour rien et vont même plus loin dans leurs déclarations en stigmatisant carrément Sony. Ils précisent que les Anonymous ont bon dos, qu’il est facile de leur faire porter le chapeau et que cette posture pourrait simplement cacher le fait que Sony a eu de gros problèmes internes avec ses serveurs.
Les utilisateurs du service commencent à trouver que la situation dure un peu trop longtemps et aimerait au moins avoir une date de retour à la normale. Certains ont même le sentiment qu’on les prend pour des cloches.
Gizmodo reste à l’affût afin de vous informer en temps réel.
dimanche 24 avril 2011
Photos de famille ...
J'entends déjà les réflexions de certains de mes lecteurs qui se plaignent des déjà trop nombreuses supplications qu'ils subissent de la part de leurs épouses lorsque je publie un post sur nos chats. Cette fois, étant prêt à assumer, je lâche la meute ....
La famille au grand complet : un arbre et neuf chats
Flocon (4 mois 1/2) et papa Elliot (presque 2 ans)
Flocon et maman
Pour finir, sachez qu'une autre petite coon black smoke va nous rejoindre en juillet, son nom ? Gouache (c'est pas moi, c'est ma femme qui a craqué). Je vous souhaite une bonne fête des cloches.
samedi 23 avril 2011
vendredi 22 avril 2011
vForum au CNIT le 3 mai
Je serai présent avec Julien sur le stand du VMUG.fr, n'hésitez pas à venir nous voir.
Les infrastructures informatiques ont évolué vers plus de complexité, tout en devenant plus fragiles. Fortement sollicité par des utilisateurs qui exigent des temps de réponse plus courts et une direction qui veut compresser les coûts, le département informatique doit adapter sa stratégie. Le Cloud Computing aborde l'informatique sous un autre angle, et en réduit la complexité par le regroupement efficace des ressources dans une infrastructure virtuelle autogérée et disponible à la demande, utilisée comme un service. Véritable axe de cette nouvelle stratégie, le Cloud Computing permet de déployer l'informatique sous forme de services utilisables au moment opportun et de la manière la mieux adaptée selon les objectifs poursuivis par l'entreprise.
Le salon VMware Forum 2011 vous donnera l'occasion de découvrir comment VMware – leader mondial de la virtualisation et de l'infrastructure de cloud computing – et ses partenaires s'appuient sur la virtualisation pour créer une infrastructure et des solutions de gestion qui réduisent considérablement la complexité informatique, tout en renforçant la sécurité et en accélérant la conception, le déploiement et l'exécution des applications.
Ce salon est une occasion unique de compléter vos connaissances directement auprès des experts et des partenaires de VMware. En une journée alternant sessions et échanges,vous trouverez des informations pratiques et immédiatement utilisables pour optimiser votre infrastructure et valoriser votre entreprise vers le développement et de la réussite.
mercredi 20 avril 2011
Question design, il y a stockage et stockage ...
Et puis, il y a l'approche PILLAR qui vise à s'affranchir de toute cette phase délicate du design : tous les disques sont pilotés six par six par des contrôleurs RAID matériels (pas émulés logiciellement) gage de performance et mieux, lorsque vous créez votre LUN, il est strippé automatiquement sur les groupes RAIDs matériels déjà existants. : l'expert du design est déjà dans l'intelligence de la machine. La seule chose dont vous avez à vous préoccuper, c'est la taille du LUN et le SLA applicatif attendu ...
Alors quand certains sont obligés de créer des usines à gaz pour se définir comme étant "Cloud compliant" avec les "vMachins", ça me fait bien rigoler : j'ai prétention à dire que le Cloud Computing c'est d'abord la diminution drastique du temps de provisionning au service de l'utilisateur en s'appuyant sur des outils qui sont nativement simples. Si on ne remplit pas ce critère , il vaut mieux tout refaire depuis zéro, c'est ce qu'à fait PILLAR.
vendredi 15 avril 2011
Itanium le maudit
On peut sans doute imaginer que l'épilogue de l'histoire sera qu'Oracle souhaitant arrêter de financer le développement d'un processeur au profit d'un de ses principaux concurrents avec qui le torchon brule, HP, se concentrera sur son propre processeur le Sparc. D'ici à ce qu'Itanium devienne un dégât collatéral de la guerre du Cloud (et des CEOs), il n'y a qu'un micron ...
Jeudi de l'ADIRC sur le Datacenter Eco-responsable
Tout d'abord, qu'est-ce qu'un datacenter ? C'est un lieu connecté à vocation informatique composé de différents équipements multitechniques offrant du service. On peut aujourd'hui considérer qu'avec l'avènement du Cloud computing et de la virtualisation, une simple baie est déjà une forme de datacenter ...
Si le datacenter reste un lieu sensible il est aujourd'hui important de réfléchir aux nouveaux enjeux et usages que l'on va en faire pour l'inscrire dans un modèle d'offre de services permettant une réduction des coûts et des délais. En effet, l'industralisation de l'iT que souhaitent aujourd'hui les pilotes de l'entreprise impose un nouveau modèle économique avec refacturation pour en rendre le contenu (les coûts) plus lisible tout en le rendant dynamique et réactif. Cependant, Il ne faut pas oublier de répondre aux contraintes légales qui s'apparentent plus aujourd'hui à un code de bonne conduite qu'à une véritable obligation de résultat.
De part les différentes couches à adresser (infra multitechnique, réseau, stockage, serveurs, applications, postes travail) l'urbanisation (transformation, réaménagement) s'inscrit dans la durée et pas dans un mode big bang ne serait-ce que pour les infrastructures multitechniques existantes : clim, onduleurs ... dimensionnés pour une hypothétique croissance qui ne viendra pas.
J'ai pu noter quelques chiffres intéressants :
- 95% des entreprises enropéennes gèrent leurs propres datacenter
- on prévoit une hausse de 10% des dépenses en personnel pour la gestion du datacenter (source IDC)
- le marché global des datacenters en 2008 = 725M€ et 2,007 Mds€ en 2013
- en 2015 : il est envisagé une basse de 45% des professionnels compétents au niveau technique et managérial
- les couts énergétique représentent 12% des dépenses totales 5°0% en 2015 ...
- la Virtualisation en 2009 = + 438% - la croissance du réseau = + 67% en 2010
- la croissance du stockage + 18,1% en 2010 (idc gartner)
- la croissance des Serveurs = +13% en 2010 (gartner) - conso d'énergie x2 en 2050 vs diviser par 2 le CO² émis ...
- en cas d'utilisation d'alimentations redondées, à 45% d'usage électrique un PDU est saturé. Il doit pouvoir absorber les 100% en cas de perte d'électricité sur le second
Pour savoir où se situer, le consortium green grid délivre aujourd'hui des livrables avec des métriques PUE, CUE WUE, permettant un benchmarking afin de se sensibiliser puis d'entamer une démarche d'achats éco-responsables.
mercredi 13 avril 2011
lundi 11 avril 2011
samedi 9 avril 2011
Ballade en bateau du côté de San Diego
vendredi 8 avril 2011
jeudi 7 avril 2011
Pillar Summit, Day 2
Un grand moment d'humour avec Chris Jones :
c'est le plus marrant des anglais que je connaisse !
Annelies Habermacher nous a fait un point sur le support qui met en évidence le résultat de l'amélioration continue de l'AXIOM du point de vue R&D
Trois clients nous ont fait leur retour d'expérience : très enrichissant !
mercredi 6 avril 2011
Cisco, réorganisation en vue ?
Le PDG de Cisco s'est fendu d'une note interne - mais néanmoins publique - à l'intention de ses employés. Il y annonce une nouvelle stratégie pour le groupe, et fait une petite séance d'introspection... très critique.
« Aujourd'hui, nous faisons face à une vérité simple : nous avons déçu nos investisseurs et nous avons mis nos clients dans l'embarras. Ce qu'il faut comprendre, c'est que nous avons perdu de la crédibilité qui faisait la fondation du succès de Cisco - et nous devons la regagner. Notre marché est en transition, et notre entreprise est en transition. Et c'est le bon moment pour définir cette transition pour nous-mêmes et notre industrie. Je le comprends. C'est l'heure de se concenter. »
Autant dire que John Chambers fait voeu de sincérité, et souhaite affronter sans détour la situation. « Nous avons été lents à prendre des décisions, nous avons été surpris lorsque nous n'aurions pas dû l'être, et nous avons perdu le crédit de ce qui avait été noter marque de fabrique : notre capacité à nous renouveler constamment pour nos clients et nos actionnaires. C'est inacceptable. Et c'est exactement ce à quoi nous allons nous attaquer. »
Mea maxima culpa à tous les étages, donc. Et une reprise en main énergique annoncée. Cela donne une bonne base pour la stratégie des prochains mois et années. En quatre points :
« Nous ne réparerons pas ce qui n'a pas été cassé. » John Chambers rappelle ici que cinq priorités ont été établies pour Cisco, soient les routeurs, les switches et les services en premier, la collaboration ensuite, puis la virtualisation des datacenters et le cloud, les architectures, et enfin, la vidéo.
« Nous allons faire des pas décisifs et prendre des décisions difficiles. » Ici, le PDG de Cisco reste assez vague. Décisions difficiles signifient-elles restructuration ou réorganisation du groupe ? On n'en saura rien, si ce n'est que John Chambers veut faire quelques modifications pour « réparer le portefeuille » de technologies de Cisco. Toutes les options restent donc ouvertes a priori.
« Nous allons accélérer notre leadership sur nos cinq priorités. » John Chambers annonce une modification dans l'approche de Cisco sur les secteurs où il est bien placé. Il prend acte du désir des clients d'acheter des switches qui vont plus loin que le segment traditionnel où Cisco est numéro 1, de l'agressivité des concurrents du groupe, mais estime que les clients de Cisco lui resteront fidèles.
« Nous allons vous faciliter le travail à Cisco, comme nous allons faciliter le travail des partenaires et clients avec Cisco. » Le PDG, entre différentes déclarations d'intention quant aux outils et aux processus de travail du groupe, rappelle la création d'un poste de directeur opérationnel, qui revient à Gary Moore.
Faut-il voir les retombées des dernières avancées chez les concurrents de Cisco, notamment le nouveau système QFabric développé par Juniper Networks, et particulièrement bien accueilli par les médias et les analystes ? Toujours est-il que John Chambers semble vouloir reprendre les affaires en main, après le dernier trimestre difficile pour le groupe. Ses ventes ont raté leurs objectifs, et son bénéfice net a reculé de 16% à 1,5 milliard de dollars. On n'en saura pas plus pour cette fois, mais nul doute que de futures annonces de Cisco devraient nous éclairer sur la façon dont John Chambers entend remettre son entreprise sur les rails.
Ouverture du Pillar Summit 2001 en images
... et annonce du support SAS, de MaxMan, MaxRep, MQFS, SLAT, d'Elastic Raid Architecture, et un nom pour Napa : AXIOM 800, bref tout ce qu'il faut pour le support du Cloud Computing mais en mieux que les autres :)