vendredi 30 septembre 2011

HADOPI : la suppression de la connexion Internet pointée du doigt par l'ONU

Vu sur Logiciel.net

La présidente d'Hadopi se disait satisfaite des résultats de l'organisation, mais qu'en pensent les internautes français ?

En 18 mois d'activité, plus de 650 000 courriels d'avertissement et 44 0000 lettres recommandées ont été envoyés par Hadopi. 60 individus devront peut-être faire face à la justice si la Commission de protection des droits transmet leurs dossiers. Ils risquent 1500 euros d'amende et/ou la suspension de leur accès à Internet s'ils sont reconnus coupables. L'organisation s'est d'ailleurs vantée que cette riposte progressive avait incité plus de 50 % des internautes français à procurer du contenu sous droits d'auteurs via des moyens légaux.

Si effectivement Hadopi fonctionne, il faut toutefois rappeler que cette loi a plusieurs fois été pointée du doigt par l'ONU. Dans un rapport paru le 3 juin dernier, l'Organisation des Nations unies avait accusé de violer les droits de l'homme. Le fait de priver d'Internet certains citoyens français, car ils enfreignent la loi sur la propriété intellectuelle contrevient à l'article 19 paragraphe 3 de la Convention internationale des droits civils et politiques. Empecher un homme ou une femme à accéder au Web est violation de son droit d'opinion et d'expression.

mercredi 28 septembre 2011

Une place à gagner pour le VMworld 2011 !


Pour ceux qui n'auraient pas la chance de se joindre à nous au VMworld, voici une ultime occasion de participer à l'évènement : il suffit de cliquer ICI et de suivre les instructions.
Good luck et see you soon !

mardi 27 septembre 2011

French vBeer le 17 octobre prochain au VMworld 2011 à Copenhague

Le VMware User Group Français, vous propose de venir partager une bière lle 17 octobre prochain lors du VMworld 2011 qui se tiendra à Copenhague.




L’invitation : sur le site du VMUG France

Pour vous inscrire à partir de votre compte twitter

Telex : ReiJan Huai, l'ex patron de FalconStor se serait suicidé

Vu sur TheRegister.co.uk par Chris Mellor - Posted in Storage, 27th September 2011 08:13 GMT

founder found dead. Ousted CEO in suspected suicide

ReiJane Huai, the founder and ousted CEO of FalconStor, has been found dead after a suspected suicide.

According to Newsday, Huai was taken in an injured state to North Shore University Hospital, in Manhasset, NY, on Monday morning and pronounced dead.

The New York Post reported that Huai had shot himself in the chest on the front lawn of his home. It is alleged police retrieved a handgun and a note at the scene.

Huai was born in 1959 in Taiwan. He had strong abilities in maths and science, and traveled to the USA to complete a university education, gaining a masters degree in computer science in 1985 from The State University of New York at Stony Brook.

Cheyenne Software

ReiJane Huai joined microcomputer software producer Cheyenne Software in 1985 as a manager for research and development, stepped sideways to work at AT&T's Bell Labs from August 1987 to August 1988, and then returned to Cheyenne (aged 25) as director of engineering. At that time he was reportedly a self-confessed workaholic and his career was his life.

In this period Cheyenne Software developed its backup software product, ARCserve, under Huai's guidance; he was the product's chief architect. It was released in February 1990, and was the first client/server backup product in the industry. The development had taken five years with many 16-hour days put in by Huai and his development team.

ARCserve followed on from Cheyenne's earlier backup product, NetBack, and became extraordinarily popular, as it was far superior to rivals, and assumed the role of Cheyenne's flagship product. ARCserve was given a major update in 1993 and sales expanded to include an OEM channel, through companies such as IBM and HP and Intel, and also a distribution channel. Product development continued, with the addition of separate Apple Mac and Windows versions.

Cheyenne had its first profit in 1991 of $3.3m. This grew to $8.2m in 1992. Sales in fiscal 1993 were $56.7m with net income of $20.7m. In 1994 sales, boosted by success in Europe, were $97.7m with net income of $32m - they were golden years. Huai became president and CEO at Cheyenne in 1993. He pushed development towards computer-computer communications and made Cheyenne buy in technology: Bit Software for communications software and NETstor for network memory storage.

Computer Associates, later CA, licensed ARCserve in 1993. Cheyenne's success prompted Computer Associates to buy it in 1996 for $1.2bn in cash. ReiJane Huai was now rich. CA has continued to sell and develop ARCserve.

FalconStor
Huai became CA's EVP and General Manager for Asia. It did not suit him and FalconStor was founded with Huai as CEO in March 2000. Virtually all the main executives at Cheyenne Software joined him to start up FalconStor. They saw the opportunity of building a successful software company all over again.

Later, two directors from Cheyenne Software joined up as well as another executive. Eli Oxenhorn, the CEO before Huai, was a board member along with Barry Rubenstein, a founding investor at Cheyenne, and also with stints as its CEO and chairman. Both joined in December 2009 along with Jim McNiel.

FalconStor was missing the rising tides of new development, and stuck in the ebb tides of past trends.

Jim McNiel joined FalconStor as its chief strategy officer. His previous experience included being the EVP for corporate development at Cheyenne Software during Huai's CEO-ship, and he was credited as being part of the exec team working on the sale to CA. His LinkedIn profile includes this:

As founding team member, I grew Cheyenne Software into a billion dollar industry leader in 5 years as a pioneering server-based backup and network storage management company, generating $138M in annual revenues. I was directly responsible for developing a commanding market share that led to the company's acquisition by Computer Associates for $1.2 billion in cash.
After a boardroom coup that saw the ousting of Huai, McNiel became president and CEO in January this year. It was a messy process.

FalconStor grew, but not enough. ReiJane was publicly lauded, with FalconStor included in the Forbes' list of America's 25 fastest growing technology companies in 2008, and Huai named Ernst & Young Entrepreneur of the Year in 2009. That year he was also recognised as an outstanding and inspirational entrepreneur by the Long Island Hall of Fame. It was a public high point for Huai.

All of these awards, though, were behind the curve.

The trouble was that the big boys, the mainstream server and storage companies were developing and selling networked storage software products. FalconStor was one of several storage virtualisation software startups with its IPStor product. The idea of storage virtualisation struggled to make headway and it eventually became a feature of SAN storage arrays (HDS' USP-V) or SAN fabric boxes like IBM's SVC.

FalconStor and DataCore had good products and successes in the x86 server business but didn't make enough headway to become highly profitable or acquisition targets; at least neither was or has yet been acquired. Their OEM businesses existed but didn't boom because the overall storage virtualisation market, particularly based on commodity x86 servers, didn't boom.

The iSCSI storage market didn't provide major pickings for FalconStor either, again because the major players, such as Dell, NetApp and others, were present, limiting FalconStor's OEM opportunities and its overall sales possibilities. The company, a small player, was getting squeezed by the major players, as you do when elephants dance in your market.

Facing the squeeze
FalconStor diversified its IPstor product's capabilities, adding Continuous Data Protection (CDP), failover, replication, a Virtual Tape Library (VTL) capability and support for data migration. One result of this was a plethora of products in what looked like an IPstor-led sprawl. People struggled to understand the direction and identity of the products. No individual product was a great success, not least because the level of competition was always high and FalconStor could not differentiate itself or its products enough, or manage to present them as being superior to competing suppliers and products.

That was the problem; FalconStor wasn't successful enough, and its backers, board members and some of its executives became impatient, and laid the blame for that at ReiJane Huai's door. El Reg believes they saw a window of opportunity closing. The whole era of disk-based and then networked storage, this great LAN, WAN, backup, SAN, NAS and VTL ocean in which Cheyenne Software boomed but in which FalconStor failed to replicate that level of success, is closing. We are in the flash era, with storage-class memory coming, DAS trumping SAN as it were, and there has been a massive amount of storage supplier consolidation.

Neither DataCore nor FalconStor are prominent in the flash area and that is the leading edge of storage development. The cloud era is also starting and FalconStor is a relative nobody in that market as well. It was missing the rising tides of new development, and stuck in the ebb tides of past trends. Unless FalconStor changed direction it faced a slow, lingering extinction. That was why Huai had to go.

The ouster
There was increasing dissatisfaction with the way he ran the company. We reported discontent in Falconstor in August 2010. But, as he was a major stockholder, chairman, president and CEO, making him resign was virtually impossible; he held all the visible reins of power. We were told McNiel had been recruited to try and reign him in but what McNiel could do without Huai's agreement is hard to envisage.

The coup came in September 2010 when Huai was accused of sanctioning improper payments to a customer. It was a sad end to what had been an illustrious career. McNiel was made interim CEO and then confirmed in the role four months later.

Huai was out, and facing an SEC investigation. He'd made himself, colleagues and investors at Cheyenne rich, and then failed to replicate that success at FalconStor. The price for that failure was his ejection. His alleged suicide will make regrettable and possibly uncomfortable reading for his ex-colleagues

ReiJane Huai was a brilliant software developer with strong ideas on what was needed to build successful products. He succeeded wildly, gloriously, in the 1990s but was unable to repeat that success after the millennium, because the major storage players competed strongly and prevented FalconStor getting a sustainable foothold in the market.

Huai wasn't able to parlay the success FalconStor did achieve into an acquisition. He paid the price for that by losing the CEO role at the company he helped found, and now, it appears, he has paid in the most final way possible.

Reijane Huai is survived by his wife Shuwen and children. ®

dimanche 25 septembre 2011

Quelques macros de début d'automne

Sous ce chaud soleil d'automne, les insectes profitent de ce répis au goût d'été pour vaquer
à leurs dernières occupations.






Et puis un petit test comme ça : un début de voie lactée au fish eye

Nikon D300s fish eye 8mm pause 5s

samedi 24 septembre 2011

Telex : Des neutinos auraient eu raison de E=MC2

Le CNRS a publié le résultat d'une expérimentation qui mettrait en évidence que des particules se déplaceraient plus vite que la vitesse de la lumière ce qui boulverserait les théories d'Albert Einsstein (et qui auraient forcément des implications un jour dans l'IT)

jeudi 22 septembre 2011

Hadopi annonce 10 millions de PV

Vu sur MaxiSciences.com


Quelques jours avant le bilan officiel de la Hadopi, l'Association de lutte contre la piraterie audiovisuelle (Alpa) a dévoilé ses chiffres. Quelque 10 millions de procès-verbaux auraient été dressés, tandis que un million d'emails d'avertissement auraient été envoyés à des internautes soupçonnés de téléchargement illégal.

L'Alpa vient de dévoiler les statistiques de la Hadopi. Quelques jours avant la conférence de presse lors de laquelle l'autorité de lutte contre le téléchargement illégal dressera son bilan, Nicolas Seydoux, le président de l'association a, d'après PC INpact, révélé des chiffres encore non officiels.

Selon lui, quelque dix millions de procès-verbaux auraient été dressés, tandis que le cap du million d’emails d'avertissement envoyés aurait été franchi. Environ 35.000 lettres auraient été postées, et seuls quelques internautes ont été convoqués, annonce l'Alpa. Pour l'heure, aucun dossier n'a encore été transmis à la justice.

Ces chiffres ont été confirmés par la Hadopi auprès du site Infos du net. "Ils ont été arrondis, mais ce sont en effet les chiffres que nous avons" a affirmé un membre de l'autorité, avant de tempérer les résultats de ce bilan. "Il ne peut s'agir d'une réelle piste de lecture quand à l'état du piratage en France. Il est encore trop tôt pour estimer un changement de comportement des internautes français. Il faut attendre 2 ans de mise en action pour dresser un véritable bilan" a-t-il souligné

Fun : à quoi ça sert d'avoir un toit panoramique dans sa voiture ?







A faire de belles photos :)
Nikon D300s - FishEye 8mm

mercredi 21 septembre 2011

Point sur le tiering de données dans le stockage

Vu sur le MagIT - Stockage : le « Tiering » de données fait peu à peu son chemin chez les utilisateurs Le 20 septembre 2011 (13:17) - par Searchstorage.com

Pour de nombreux analystes, la technologie de positionnement automatisé de données en fonction des classes de service des baies de stockage (« Tiering ») est appelée à être utilisée largement dans le futur. A condition toutefois de ne pas brusquer des administrateurs qui souhaitent conserver le contrôle sur le fonctionnement de leurs baies.
Lorsque les disques SSD ont commencé à apparaître dans les baies de stockage il y a environ trois ans, le manque de fonctions automatiques de hiérarchisation et de placement de données (« Tiering ») a été cité comme l'un des principaux obstacles au déploiement de la technologie, du fait notamment des coûts élevés des SSD. Les disques flash sont encore loin d'être omniprésents dans les baies de stockage, mais il n’est plus vraiment possible de reprocher aux constructeurs l’absence ou le manque d'options de tiering dans leurs équipements.

Les mécanismes de hiérachisation de données se généralisent dans les baies de stockage

Le placement automatique de données est aujourd’hui couramment disponible dans les baies de stockage des grands constructeurs. Citons par exemple le mécanisme de « Data Progression » des baies Dell Compellent, le système FAST (Fully Automated Storage Tiering) des plates-formes VNX et Symmetrix VMAX d’EMC, les fonctions d’Adaptive Optimization des baies 3PAR de Hewlett-Packard, le « Dynamic Tiering » d’Hitachi Data Systems ou « l’Easy Tier » d’IBM. Ces différentes applications ont des caractéristiques différentes et n’offrent pas le même degré de contrôle sur le processus de placement de données, mais toutes supportent la hiérarchisation de données à un niveau plus granulaire que le LUN.

Il y a d'autres façons de hiérarchiser des données avec des SSD. Avere Systems, NetApp et XIO déplacent des données vers des systèmes à base de flash SSD dans le cadre de mécanismes de mise en cache ou en intégrant la gestion de la flash dans la construction de leur contrôleur.

Globalement, la hiérarchisation automatisée du stockage peut apporter une meilleure efficacité de stockage et réduire les coûts en maximisant l’usage des supports les plus coûteux – les SSD - dans les baies de stockage. Le processus permet de déplacer les données les moins fréquemment utilisées hors des SSD ou des disques rapides Fibre Channel vers des disques moins coûteux (disques SAS ou SATA near-line).

Gagner en souplesse, en efficacité et en productivité

Reynald Morel, le DSI du Public Système que nous avions interrogé sur son usage des baies Compellent en janvier dernier, expliquait ainsi que la gestion automatisée des classes de services avait été la principale raison de son choix d’une baie Compellent. « La data progression a été le critère déterminant. Nous avons beaucoup de données dormantes, que nous n’avons pas besoin de stocker sur des disques haute performance. Le fait de pouvoir les déplacer automatiquement sur des disques SATA à bas coût était pour nous un vrai bénéfice économique ». Morel disposait à l’époque de 17 To de capacité dont environ 6 To sur des disques FC 15 000 tr/mn et le solde sur des disques SATA. Il soulignait n’avoir jamais rencontré de problème de performance le système de tiering et apprécier le fait que ce système le décharge largement de la gestion de la baie.

L'automatisation inquiète certains administrateurs soucieux de conserver le contrôle de leurs baies

Si la plupart des administrateurs de stockage de données, comprennent bien les avantages du « tiering », le niveau d’automatisation qu’ils souhaitent laisser à la baie varie. Certains sont disposés à faire entièrement confiance au logiciel intégré à la baie pour prendre les bonnes décisions de placement de données, tandis que d'autres veulent plus de contrôle sur le processus.

Par exemple en mettant en place des SSD dans ses baies Pillar Data Systems (aujourd'hui Oracle), Olivier Parcollet, le responsable système de la SETAO, n'a pas souhaité confier à ses baies la gestion automatique des classes de services. Selon lui, le système de hiérarchisation automatique des données aurait pu mettre des données sans importance sur les SSD. Il souhaitait donc que la décision reste à l’humain. La SETAO a donc utilisé les outils analytiques intégrés à la baie Pillar pour déterminer les applications les plus susceptibles de bénéficier des SSD du fait de leur usage intensif des entrées/sorties. Les applications concernées ont été migrées une à une et dans certains cas seule une partie des données des applications concernées a été migrée sur les SSD.

« Je pense qu'il est trop tôt pour dire si la gestion entièrement automatisée l’emportera ou pas », explique Jeff Boles, analyste principal et directeur des services de validation du Taneja Group. « Je pense que les administrateurs de stockage ont une prédisposition naturelle à la gestion manuelle. Ils aimeraient plus de contrôle. Dès lors, les vendeurs peuvent-ils gagner la confiance des administrateurs de stockage les plus sceptiques vis-à-vis des solutions entièrement automatisée ? »

Selon une étude datant de juillet 2011 de l’Enterprise Strategy Group portant sur le déplacement automatisé de données, le « tiering » est de plus en plus crucial… Pour des raisons purement économiques.

La montée en puissance de la hiérarchisation automatisée de données dans les produits « a été une réponse des constructeurs en réaction aux demandes des clients », explique de son côté Boles. « Maintenant chaque fournisseur se tient prêt avec sa propre technologie d'auto-hiérarchisation. Et il y a certainement beaucoup de pression marketing derrière cela. » Mais «ce n'est pas une technologie qui va s'effacer et disparaître un jour », poursuit-il. « C’est une technologie qui va devenir une partie intégrante des systèmes de stockage à l'avenir. »

mardi 20 septembre 2011

AxiomOne 5.2, sortie du premier firmware sous la bannière Oracle

Le firmware 5.x étant déjà en production chez un certain nombre de comptes, il faut en fait comprendre que Axiom 5 dont on parle ici est la version 5.2 qui sera libérée début octobre avec tout plein de Copyright Oracle dedans ....

Vu sur le MagIT, Le 19 septembre 2011 (15:44) - par Christophe Bardy

Multi-tenant, réplication améliorée et console d'administration unifiée pour les baies Oracle Pillar

Oracle a annoncé la semaine dernière la première mise à jour majeure de ses baies de stockage Axiom depuis le rachat de Pillar Data Systems en juillet dernier. La version 5 du logiciel de stockage Pillar Axiom apporte plusieurs améliorations attendues comme l'arrivée d'un mode multi-locataire (multi-tenant), une interface d'administration centralisée pour un parc de baies Pillar et de nouvelles fonctions de réplication et de migration de données. Ces fonctions bienvenues, ne sont pas focèment une surprise pour les utilisateurs de baies Pillar, puisqu'elles avaient déjà été largement présentées aux participants du Pillar Summit de San Diego en avril dernier.

Dans cette nouvelle mouture du logiciel système des baies Pillar, les "Storage Domains" permettent à un administrateur de cloisonner les données appartenant à des utilisateurs et clients différents et viennent renforcer la sécurité. Des LUN et des Files Systems peuvent ainsi être "découpés" dans chacun des domaines et fonctionner de façon totalement cloisonnée. MaxMan permet de son côté aux administrateurs de piloter de multiples baies Axiom depuis une unique console Java. Le logiciel inclut des profils optimisés pour le SGBD Oracle ainsi que plusieurs applications de l'éditeur.




Enfin, MaxRep permet la réplication synchrone et asynchrone de données entre des baies Pillar (avec le support du mode multi-hop et de la réplication d'une source vers plusieurs cibles), ce qui simplifie les migrations de données et la reprise après désastre. Il est à noter que Maxrep s'appuie sur une appliance dédiée qui permet à la baie de sous-traiter l'ensemble des fonctions de réplication gourmandes en ressources et ainsi éviter, selon Oracle, tout impact sur la performance de la baie, même en cas de forte charge de réplication.

La version 5 du logiciel Pillar est disponible sur les derniers Axiom 600 mais est aussi compatible avec les Axiom 500 et 300.

dimanche 18 septembre 2011

River Trail et Javascript va plus vite

Intel vient de dévoiler des extensions Javascript permettant de profiter de toutes les capacités des processeurs multicœurs récents et donc de paralléliser leurs traitements. C'est une vraie révolution qui se profiles dans nos navigateurs web : plus besoin pour le développeur d'appeler une routine externe hyper chiadée écrite en C côté serveur pour accélérer l’exécution et l'affichage des programmes web. Cerise sur le gâteau, River Trail dispose d'une aussi d'une API pour HTML5 et supporte OpenGL. Pour l'instant, seul Mozilla est supporté.

vendredi 16 septembre 2011

Microsoft dévoile les fonctionnalités d'Hyper-V 3.0

Vu sur le MagIt

Microsoft a levé le voile sur les fonctionnalités de la prochaine version d’Hyper-V, la 3.0, qui arrivera avec Windows Server 8. Au programme, des nouveautés côté réseau, migration live, et capacités de montée en charge. Le tout dans une logique de concurrence renforcée avec VMware. Hyper-V 3.0 n’en est encore qu’au stade de pré-bêta. En l’état, il n’est donc pas adapté à un déploiement en production. Il vise donc les développeurs avec pour objectif de leur permettre de s’y frotter en amont du code final. Et il faudra probablement attendre un an, sinon plus, avant le lancement effectif d’Hyper-V 3.0.

Toutefois, même en l’état actuel, Hyper-V 3.0 embarque des fonctions qui font tourner la tête aux professionnels de la virtualisation. La première d’entre elles étant un nouveau commutateur virtuel extensible, qui permet aux partenaires de Microsoft de développer des fonctionnalités réseaux avancées, telles que des extensions capables d’inspecter, de surveiller et d'échantillonner le trafic. Ce nouveau commutateur intègrera en outre le support de VN-Tag et d’OpenFlow ainsi que la capacité de moduler les débits en fonction de la qualité de service en s’appuyant sur des règles de réservation et de limitation de bande passante pour chaque interface réseau virtuelle.

«Enfin», s’est exclamé Matt Lavalle, directeur technologie de MLS Property Information Network Inc., qui s’appuie sur Hyper-V pour l’essentiel de son infrastructure IT. «VMware a été longtemps en avance sur ce terrain-là.» Lavallee explique qu’il espère que le nouveau commutateur sera «le premier pas en faveur de capacités de sécurité réseau - nous avons eu besoin d’organiser nos machines virtuelles en plusieurs grappes pour assurer une ségrégation parce qu’il n’y a pas d’autre façon de procéder avec Hyper-V».

Un commutateur virtuel extensible ouvre aussi la voie à plus de commutateurs virtuels tiers tels que le Nexus 1000V de Cisco, développé pour VMware. «Vous pouvez déjà imaginer qui pourront être ces partenaires », relève Chris Wolf, vice-président recherche chez Gartner. Viennent en premier lieu les noms de ceux «qui ont été quelque peu chahutés par VMware », à savoir HP et Juniper. Mais pour Wolf, «simplement en raison du marché potentiel, Cisco n’a pas vraiment d’autre choix que d’aller aussi dans cette direction. Et pourquoi ne le ferait-il pas ?»

Cure de jouvence pour la migration live

Les nouvelles fonctions de migration live ont également retenu l’attention des utilisateurs. La migration live du stockage est une mise à jour clé de la fonction Quick Storage Migration de Windows Server 2008 R2, qui nécessite un temps d’indisponibilité durant la migration. Certains éléments indiquent en outre que Microsoft prévoit de collaborer avec des partenaires stockage pour délester la migration du stockage sur le matériel de baies de stockage. Enfin, la nouvelle version d’Hyper-V devrait également supporter plusieurs migrations live du stockage en parallèle. Ce qui intéresse fortement les utilisateurs d’Hyper-V.

«Pouvoir migrer en live plusieurs ressources de stockage, en parallèle, augmenterait clairement la productivité des processus d’administration », estime Rob McShinsky, ingénieur Systèmes sénior du Dartmouth Hitchcock Medical Center de Lebanon, au New Hampshire. «Même dans des situations non urgentes, nous déplaçons régulièrement des machines virtuelles d’un hôte à l’autre, pour répartir la charge ou mettre à niveau notre infrastructure physique. Pouvoir procéder à des migrations en parallèle augmentera l’efficacité de l’administration.»

Parmi les nouvelles fonctionnalités évoquées figure aussi la capacité de migrer en live des machines virtuelles sans stockage partagé, simplement en utilisant une connexion Gigabit Ethernet. Actuellement, KVM, de Red Hat, via un projet avec IBM, est le seul hyperviseur à supporter la migration live sans stockage partagé. Cette capacité pourrait théoriquement ouvrir la virtualisation à de nouveaux environnements, tels que les petites entreprises et les offres de cloud public, là où le stockage partagé n’est pas systématiquement disponible.

Mais VMware travaille également à la résolution d’un problème similaire avec Virtual Storage Appliance (VSA), lancé avec vSphere 5, souligne Wolf. VSA permet de créer des ressources logiques de stockage partagé à partir de disques durs internes sur un maximum de trois hôtes VMware. Et il est supporté dès l’édition PME de vSphere, Essentials.

Mais la migration live sans stockage partagé apparaît plus comme une nouveauté mineure, à ce stade, aux yeux de Wolf : «les clients s’intéressent plus aux capacités de haute disponibilité qu’à la migration live. La migration live est quelque chose de liée à la maintenance programmée; la haute disponibilité permet de faire face à une panne de serveur physique.»

Plus de protection et de capacités de montée en charge pour les applications critiques

Avec la nouvelle version d’Hyper-V, Microsoft prévoit en outre de nouvelles capacités de montée en charge qui pourrait aider à emmener des applications critiques telles qu’Exchange et SQL Server dans le giron d’Hyper-V. Chaque machine virtuelle supportera jusqu’à 32 processeurs virtuels et 512 Go de mémoire vive - contre 4 CPU virtuels et 8 Go de mémoire vive actuellement. De quoi rattraper vSphere 5 et XenServer 6. Ou presque, puisque tous deux supportent jusqu’à 1 To de mémoire vive par machine virtuelle.

Hyper-V 3.0 devrait également supporter jusqu’à 32 noeuds et 4 000 VMs par grappe. Un nouveau format de disque virtuel, VHDX, devrait autoriser des volumes de plus de 2 To.

Pour Lavalle, ces avancées en termes de capacité d’évolutivité vont lui permettre de virtualiser SQL Server et, il l’espère, Exchange, également. «Notre plus petit serveur SQL Server dispose de 16 coeurs. Et notre plus gros, de 32. Les virtualiser avec 4 CPU virtuels n’est même pas une option.» Dès lors, «les seules choses que nous n’avons pas virtualisées sont SQL Server et Exchange».

Replica, une fonction de réplication au niveau hôte, précédemment présentée par Microsoft, pourrait également aider à maintenir la disponibilité des applications critiques en utilisant des succursales comme sites de reprise, selon McShinsky : «je n’appréhende pas Replica comme une solution de reprise complète, comme un véritable environnement dédié », explique-t-il, soulignant la problématique de la bande passante réseau. «Mais je le vois comme une possibilité offerte de choisir précisément des parties d’un environnement que l’on considère comme les plus critiques pour que l’activité puisse se poursuivre.»

Souffler dans le cou de VMware ?

Les conditions de licence de VMware, pour vSphere 5, n’ont pas fait que des heureux. Et certains utilisateurs évaluent l’opportunité de passer à Hyper-V qui est couvert par les licences Windows Server que beaucoup d’utilisateurs ont acquises.

«Je pense que [VMware] se tire réellement une balle dans le pied avec son modèle de licence », estime Christian Metz, administrateur Systèmes chez un assureur figurant au classement Fortune 300. «A peu près toutes les personnes auxquelles je parle disent qu’Hyper-V est plutôt attirant, y compris pour une grande entreprise.»

«C’est suffisamment motivant pour me faire réfléchir à abandonner VMware quand mon contrat de maintenance arrivera à expiration», explique Thad Vaughn, ingénieur Systèmes sénior chez Clayco Inc, après qu’il a jeté un oeil aux nouvelles fonctions d’Hyper-V sur un blog du réseau TechNet de Microsoft. «Si je peux répondre à mes besoins sans augmenter mes contraintes d’administration et tout en réduisant mes coûts d’exploitation... ça ressemble à un choix intelligent.»

Toutefois, chez Gartner, Wolf ne pense pas qu’Hyper-V soit encore prêt à retourner le marché. Les utilisateurs ont plus de choses à prendre en compte que le seul hyperviseur avant de changer de plateforme de virtualisation : nombre d’entre eux ont des outils tiers de sécurité, de supervision ou encore de sauvegarde conçus pour VMware. Sans compter les pratiques.

«Si Microsoft joue la partie finement, il multipliera les adhérences entre la prochaine génération de ses applications serveur, telles qu’Exchange et SQL Server, afin qu’elles fonctionnent très bien avec Hyper-V et Windows Server 8 », relève Wolf. «On ne verra pas forcément pour autant une vaste vague de migration vers Hyper-V mais au moins une évolution régulière, où les utilisateurs profitent d’Hyper-V stratégiquement à l’occasion d’un renouvellement d’application.»

Par Beth Pariseau, rédacteur senior de SearchServerVirtualization.com

dimanche 11 septembre 2011

Nouveau pensionnaire dans notre zoo

Non, il ne s'agit pas d'un Maine Coon, mais plutôt d'un nouveau copain de tous les jours pour notre Terre-Neuve Luna. Nous avons baptisé cette boule de tendresse marron Géronimo. C est un mâle Terre-Neuve Chocolat LOOF de 3 mois qui pèse son petit 20 kg. Il répond déjà aux ordres de base et s'accoutûme parfaitement à sa nouvelle maison ainsi qu'aux matous.

Regards croisés sur la ville, l'ouvrage sur Bar-sur-Aube publié

Comme promis, l'ouvrage relatant l'évolution de la ville depuis le début du 20e Siècle. Une bonne occasion pour moi de replonger dans mes souvenirs d'enfance. Bar-sur-Aube est située en Champagne, plus précisément dans l'Aube entre Troyes et Chaumont et à une quinzaine de kilomètres d'un des plus célèbres villages de France : Colombey les deux Eglises.

Vu sur L'est Eclair par Willy BILLIARD le dimanche 11 septembre 2011 à 19H36

Les regards croisés d’un Baralbin sur Bar-sur-Aube

Bar-sur-Aube- Dernier ouvrage en date de Jean-Claude Czmara : « Regards croisés sur la ville», vient d’être publié aux éditions Alan Sutton, avec quelques pépites

C’est à une expérience tout à fait étonnante que nous invite l’auteur baralbin Jean-Claude Czmara dans son nouveau livre. Répondant à une commande de la maison d’édition Alan Sutton, pour laquelle il a déjà publié six autres ouvrages, l’ancien banquier aujourd’hui en retraite a fait le parallèle entre le passé (glorieux) de Bar-sur-Aube et son actualité. En filigrane semble se dessiner un certain désenchantement au fil des pages et des clichés retenus sur le thème : « c’était mieux avant». Avec 90 % de documents inédits et publiés ici pour la première fois, l’auteur rappelle les grandes heures de la ville à l’époque où les moutons broutaient près du cimetière, où l’on construisait les immeubles des Miniets dans les années 60, où les usines marchaient plein pot et les cheminées des scieries étaient encore debout, où la voiture était célébrée en reine dans le centre-ville et était même exposée place de l’Hôtel-de-Ville…

Mais le livre évoque également les améliorations apportées au centre-ville avec la transformation du quartier alors malfamé du Corps de Garde ou encore la mise en valeur d’immeubles (l’ancien cinéma Rex devenu Crédit Agricole)… Loin d’être exhaustif, ce livre pourrait en appeler un autre. « J’ai encore de la matière », confie l’auteur.

Un livre qui fâche

Si beaucoup de lecteurs vont se ruer sur cet ouvrage (21 €) par pure curiosité pour y observer le grand écart qu’a subi Bar-sur-Aube en un siècle, d’autres vont l’appréhender la boule au ventre.
On découvre en effet au fil des pages des photos totalement étonnantes que beaucoup auraient souhaité oublier. Comme celle-ci, publiée ci-dessus, prise au lendemain de la Libération de Bar-sur-Aube. Nous sommes fin août 1944 et la ferveur populaire s’accompagne d’un sentiment de vengeance. Les femmes suspectées de connivence avec l’ennemi sont tondues sur la place publique devant des milliers d’yeux.

Autres polémiques, autres époques avec un clin d’œil à la fermeture de l’école Louis-Léon-Berrard (p. 119), une discrète référence à la rocade page 114 (l’auteur est un fervent opposant), la fermeture du palais de justice (p.26), les faits divers marquants de ces dernières années (incendies, inondations…).
Autant de sujets qui font dire à certains que «ce livre est militant». Mais ce sont autant de thématiques qui rendent cet ouvrage bien ancré dans son époque… qu’on l’apprécie ou pas.

samedi 10 septembre 2011

Aujourd'hui c'était manif motard contre la répression ambiante

A priori je n'étais pas le seul à être en colère :


Petite pause en centre ville à hauteur du centre commercial Place d'Arc à Orléans.

jeudi 8 septembre 2011

Telex : Bluearc absorbé par Hitachi

Hitachi avait déjà un accord de distribution concernant ces excellentes machines pour fournir la fonction NAS à ses stockages SAN. Plus de détails ici

dimanche 4 septembre 2011

Décidément, la perte de protoype d'iPhone devient une habitude chez Apple

Vous vous rappelez il y a quelques temps ce proto d'iPhone 4 égaré dans un bar avant son lancement officiel et dont les photos avaient buzzés par la diffusion de photos sur le site Gizmodo. Et bien vous allez rire, rebelotte avec l'iPhone 5. A croire qu'ils le font exprès :)

Vu sur France24 :

(AFP) SAN FRANCISCO — La police de San Francisco a aidé Apple à rechercher un prototype du futur iPhone 5 oublié dans un bar, dans ce qui constitue une réédition de l'affaire embarrassante qui s'était déroulée l'an passé avec l'iPhone 4, a-t-on appris de sources concordantes.

Le téléphone en question a été perdu dans un bar à tequila de San Francisco en juillet dernier par un employé du groupe californien, a rapporté cette semaine le site spécialisé dans les nouvelles technologies CNET.

Après que l'appareil eut été localisé grâce à un système GPS, quatre agents de police et deux employés d'Apple se sont rendus dans une maison de San Francisco, en vain, indique un communiqué de la police.

"Les employés d'Apple ont appelé directement la police du quartier de Mission district pour leur demander de les aider à localiser un objet perdu", explique la police. Ils "sont ensuite allés dans la maison pour rechercher l'objet perdu (...) mais ils ne l'ont pas trouvé".

Le communiqué de la police n'identifie pas directement l'objet recherché comme étant le prochain smartphone d'Apple, mais son intitulé laisse peu de place au doute: "iPhone5.doc".

Le résident de la maison où aurait été localisé l'appareil, Sergio Calderon, 22 ans, a déclaré à l'hebdomadaire SF Weekly qu'il s'était rendu dans le bar où l'iPhone 5 aurait été perdu, mais qu'il n'avait pas le téléphone.

Il affirme également que l'intervention de la police dans sa maison a eu lieu en juillet.

Cette affaire rappelle celle survenue en 2010. Un prototype de l'iPhone 4 avait été égaré en avril par un ingénieur dans un bar et trouvé par un homme de 21 ans qui l'avait revendu au site internet de technologie Gizmodo. Ce dernier avait alors dépecé le nouvel appareil et en avait publié photos et contenu dans le monde entier.

L'iPhone 5 devrait être disponible vers la mi-octobre aux Etats-Unis, a indiqué fin août le Wall Street Journal. Il devrait être "plus fin et plus léger" que l'iPhone 4 et équipé d'un appareil photo "amélioré" ainsi que d'un système d'exploitation "plus sophistiqué", avait précisé le journal.

vendredi 2 septembre 2011

Pillar Max Rep passe à la moulinette

Lors du précédent Pillar Summit à San Diego, il nous avait été annoncé la sortie d'une appliance clusturisable de réplication / miroir synchrone de données appellée MaxRep (Multiple Axiom Replication) permettant de faire du 1 pour 1, 1 pour N. Depuis quelques semaines, j'ai la chance de pouvoir jouer avec le produit dans mon contexte VMware/Oracle/Windows/Linux. Je ne manquerai pas de vous tenir au courant sur les vertus de la bête dans les prochains jours. Keep in touch !


Qui contrôle Internet ?

LEMONDE.FR par Damien Leloup le 01.09.11 | 19h46 • Mis à jour le 01.09.11 | 20h12

Après la publication de notre article consacré au projet Commotion, qui permet de créer des réseaux informatiques non censurés et faciles à déployer dans des pays dictatoriaux, de nombreux lecteurs nous ont interpellés pour savoir qui contrôle aujourd'hui Internet. En raison de sa nature décentralisée, Internet n'est pas "contrôlé" par un unique organisme, état, ou entreprise. Contrairement à une idée répandue, le réseau n'est pas non plus une "jungle" totalement libre : à tous les échelons, de nombreux organismes exercent ou peuvent exercer un contrôle ou une censure sur les informations qui y circulent.

AU NIVEAU MONDIAL

Les stuctures les plus fondamentales d'Internet sont sous le contrôle de l'Icann, l'Internet corporation for assigned names and numbers. Cet organisme a un statut particulier, puisqu'il s'agit d'une société à but non lucratif, soumise au droit californien. Composé de nombreuses commissions, qui gèrent des problématiques structurelles, l'Icann encadre notamment les noms de domaine ou le fonctionnement des adresses IP (Internet Protocol, les "adresses" de machines et de sites sur le réseau).

La gouvernance de cet organisme stratégique fait l'objet de nombreux débats : plusieurs pays lui reprochent notamment la sur-représentation des Américains dans les différentes commissions. L'Europe et la Chine, notamment, demandent depuis plusieurs années une plus grande ouverture dans la gestion de la fonction Iana, la "racine" d'Internet, qui gère par exemple les noms de domaine en .com. Le pouvoir de l'Icann est fondamental, puisque l'organisation peut suspendre des noms de domaines entiers, comme elle l'avait fait pour le .iq irakien ou pour le domaine afghan.

Pour le bon fonctionnement du réseau, un organisme distinct de l'Icann est également chargé de fixer les normes techniques des technologies les plus courantes sur Internet, comme le langage HTML : le World Wide Web Consortium (W3C). Sa gestion est assurée conjointement par des experts américains, européens et japonais.

AU NIVEAU NATIONAL

S'il est décentralisé, le réseau reste cependant tributaire de la présence de câbles pour son bon fonctionnement : en l'absence de "tuyaux" suffisamment grands, le trafic peut être très fortement ralenti. Or, de nombreux pays sont dépendants, pour leur accès au réseau, d'un ou deux câbles sous-marins ou souterrains. En Afrique, des pays entiers voient leur accès tributaire des décisions des pays voisins ou des choix des entreprises privées.

Surtout, les pays disposent techniquement de la capacité de bloquer ou de censurer tout ou partie d'Internet. Durant les manifestations qui ont précédé la chute de Hosni Moubarak, l'Egypte a pu couper quasi-instantanément l'accès au réseau en faisant pression sur les fournisseurs d'accès à Internet (FAI). En bloquant deux protocoles d'échange d'information vitaux, le pays a été coupé du reste de la Toile en quelques heures.

Sans aller jusqu'à ces extrémités, de nombreux pays exercent aussi un contrôle très fort sur le réseau. Des contenus contraires aux lois nationales sont ainsi bloqués dans la plupart des pays autoritaires, mais aussi dans des démocraties : en France, la loi sur les jeux d'argent en ligne permet d'ordonner le filtrage des sites qui n'ont pas reçu un agrément. En Australie, un vaste projet de filtre a été repoussé à plusieurs reprises devant les difficultés techniques et politiques. Ces systèmes de filtrage ne sont en effet pas infaillibles, mais les solutions de contournement peuvent être relativement complexes à utiliser.

L'organisation de défense de la liberté d'expression Reporters sans frontières publie chaque année un classement des pays qui censurent Internet. Dix pays sont classés par RSF comme "ennemis d'Internet" en raison de la censure draconienne qu'ils exercent sur le réseau. Parmi eux, la Chine, la Birmanie et l'Iran, où les activités des internautes sont également espionnées. La Russie, le Venezuéla ou la France sont, eux, classés comme "pays sous surveillance" en raison de lois en vigueur qui permettent de filtrer des sites Web.

POUR CHAQUE ORDINATEUR

Au sein d'un même pays, plusieurs acteurs peuvent exercer un contrôle sur la manière dont les utilisateurs accèdent à Internet. Les fournisseurs d'accès disposent théoriquement d'importants pouvoirs : ils peuvent par exemple bloquer ou ralentir certains types de trafic, par exemple le téléchargement en P2P. Depuis la création du Web, une règle non-écrite, dite de "neutralité du Net", prévoit que les opérateurs ne font pas de discrimination des contenus circulant sur le réseau : quel que soit l'utilisateur ou le type de données, toutes les informations doivent théoriquement circuler à la même vitesse.

Mais les FAI, qui se plaignent d'engorgements suite au développement exponentiel du Web, souhaitent pouvoir, dans certains cas, s'affranchir de cette règle. Pour des raisons de gestion du réseau, estiment-ils, il serait par exemple souhaitable de pouvoir donner la priorité à certains "paquets" d'informations au détriment d'autres, comme les vidéos en ligne par exemple. Dans certains pays, et notamment aux Etats-Unis et au Canada, les FAI brident également la vitesse de connexion et la quantité de données téléchargeables par les internautes.

En bout de chaîne, l'internaute est également soumis au contrôle de son réseau local, s'il n'est pas directement connecté à Internet. En pratique, ce sont souvent les entreprises qui détiennent le plus de pouvoir sur la connexion d'un internaute. Il est en effet plus simple de filtrer un réseau de petite taille que de le faire à l'échelle d'un pays.

jeudi 1 septembre 2011

Helo TC, l'hélico miniature du geek



50,€ le bout et cerise sur le gâteau, la pub est un régal : Enjoy !