mercredi 29 septembre 2010

Avec le Thin Provisionning, on vous ment ou vous spolie ...


... en tout cas je pense que c'est ce que dirait Mike Workman si il était Français. Je ne peux m'empêcher de vous rapporter son dernier post ou il fait une analogie avec l'immobilier. Dans la vraie vie en tout cas, la grande majorité d'entre nous est déjà bien ennuyée pour suivre correctement l'évolution de ses volumétries, si en plus elles sont virtuelles c'est le mur assuré un jour ou l'autre.

Vu sur : http://www.pillardata.com/we%e2%80%99ll-sell-you-70tb-for-100tb-cuz-it%e2%80%99s-thin/

Sep 28, 2010 - We’ll Sell you 70TB for 100TB, Cuz It’s Thin
Oh for God’s sake. I cannot believe the HP guys, I mean 3PAR, are still selling this story.

It’s the old scam where the real estate agent tries to get you into the four bedroom house you were looking for by taking you to this one:

3 Bedroom, 3 Bath, 1700 sq feet
Clean. Should sell for 2X what it’s worth.

Wait, I asked for a 4 bedroom, didn’t I?

Now hold on there pal, we have a story for you. By our calculations, you don’t really need that. In fact, we think if you were as clever as we are, you would have been able to meet your needs with a three bedroom. The fact is that the folks in your house all want more space than they need, and we’re smart enough to know that. It turns out nobody ever plans and provisions bedrooms accurately, because everyone is a liar. Because of that, we will confidently move you into the three bedroom and we are confident that you won’t need the fourth bedroom. And, because we know this, we expect you to compare this 3 bedroom against four bedroom offers from people who aren’t as smart as we are.

OK, so I get a 3 bedroom house at a four bedroom price, and I have to ignore the fact that the 3 bedroom is a 3 bedroom. Got it.

Now, if Aunt Edna comes to stay, where does she go? Well, assuming the deal closes first, you just add on! All is well.

But I have to pay for the addition, right?

Sure, but look on the bright side. You already paid for part of what we didn’t give you in the first place for the thin housing license. And now you get to pay for the actual bedroom. It turns out that you ended up paying more using our thin housing thinking. After all, Aunt Edna takes up real space rather than thin space and the last time we made her sleep on the couch her lumbago acted up, making everyone miserable.

Well then why didn’t we just buy the fourth bedroom in the first place?

Well, that’s an easy one – because using thin thinking, we avoided the unnecessary cost!

I hope that is clear to everyone. If you only need 3 bedrooms, shop for four bedrooms, and let a real estate salesperson sell you a three bedroom at the same price! Why? Because you can always add on later! See?

Coming back around to storage of data instead of house guests and residents, have we all had just about enough of “Thin this and thin that”? Seems to me this would have worn out by now. If you need 100TB, you need 100TB, period. Thin provisioning may help you from having to buy 120 TB, but it cannot reduce the amount of storage you actually need. I will admit that 3Par has good thin features because they do. But they don’t make anywhere near the difference that the argument above would imply, since everyone these days has thin provisioning that does 95% of the same thing.

If you are buying storage, and some wise guy proposes you only really need 70TB, have everyone quote 70TB if you believe it. If you want to use the now universally-available thin provisioning feature to allocate 100TB, fine, do that too. Expect to get the performance provided by the 70TB worth of spindles, and to add capacity if Aunt Edna comes to stay.

Compare apples to apples, spindles to spindles, and TB’s to TB’s. I’m not sure if you can be too rich, but you can be too thin.

Thin it over.

dimanche 26 septembre 2010

L'ILM dans le SAN, pourquoi faire ?

L'une des grandes modes actuelles dans le petit monde du stockage, c'est L'implémentation de la fonctionnalité ILM acronyme de Information Lifecycle Management ou Gestion du cycle de vie de la donnée. Pour faire simple, disons que l'on positionne automatiquement les données qui doivent être rapidement ou fréquemment accédées sur les médias le plus performants. Avec l'ILM, celà se traduit par le placement automatique des blocs de données nécessitant un haut nideau de SLA sur les disques les plus rapides par opposition au traditionnel positionnement manuel des données sur différentes classes de disques.


Accès traditionnel sans ILM. Les données sont positionnées manuellement en fonction du SLA attendu

Placement des données avec l'ILM, seuls les disques les plus rapides sont accédés depuis l'extérieur. Une charge parfois importante peut être générée lors des migrations de blocs dans le backend.

Compellent est le premier à avoir décliné cette technologie sous le nom data progression dans le monde du SAN, technologie reprise récemment depuis l'avènement des disques SSD par EMC sous le nom FAST ou 3Par sous le nom d'adaptive optimization.

Quel en est l'intérêt ?

Et bien associer la performance d'un faible nombre de disques SSD à la capacité limitée aux grands volumes qu'autorisent les disques SATA qui sont eux moins rapides. C'est aussi un moyen de ménager les contrôleurs de disques des stockages monolithiques incapables d'alimenter un grand nombre de disques SSD.

Est-ce la panacée ?

Oui si l'on a besoin d'un nombres limité d'I/Os, non si l'on souhaite un stockage performant et scalable car seuls les disques les plus performants seront en frontal des serveurs et seront sollicités, ce qui signifie aussi une usure prématurée ....


Sur un stockage matriciel avec QOS Pillar, nul besoin d'ILM car la performance est maîrisée sur un pool de disques de même type et tous les accès sont préservés : c'est le beurre et l'argent du beurre.

Personnellement, je ne conçois l'utilisation de cette technologie que conjointement à celle de la sauvegarde de type VTL avec pourquoi pas archivage et spin-off / spin-down (extinction) de disques. Par contre, il vaut mieux éviter la chose en environnement lourd en charge comme le VDI ou avec une forte volatilité des données puisqu'il faudrait aller les chercher au fond des disques les moins rapides. Au passage, dans la vraie vie, l'ILM n'est pas utilisé sur l'ensemble de la volumétrie mais uniquement pour des LUNs de tailles limitées et pour cause ...

samedi 25 septembre 2010

TOP 10 des prochaines acquisitions possibles dans le monde IT

En ces temps ou Oracle déclare sa flamme à NetAPP, voici une liste d'emplettes dans laquelle pourrait puiser DELL qui n'a pu obtenir 3Par. Cependant, hormis Pillar qui est le seul de cette liste à pouvoir couvrir les segments du stockage Mid-range Hi-End, HDS avec ces AMS et ses USP-V pourrait aussi convenir ...

Vu sur enterprisestorageforum.com

For many of today's industry heavyweights – companies like HP (NYSE: HPQ), IBM, Dell (NASDAQ: Dell) and EMC (NYSE: EMC) – further growth will come through acquisition. "Not a whole lot of innovation comes from these big companies anymore," said Arun Taneja, founder and consulting analyst at the Taneja Group. "The vast majority of really cool stuff comes from the small companies. That keeps the innovation fires burning."
It's a tough market, though. The high-stakes 3PAR (NYSE: PAR) sale may be leading others in the storage neighborhood to overvalue their own properties. "The general impression is that this has got to mean that all remaining independent array vendors are going to be lifted up," said Taneja. "Nothing could be further from the truth." 3PAR probably had the best virtualized architecture in the industry, he said.
There have been more than a dozen high profile storage acquisitions this year and speculation about the next acquisition target abounds. These top 10 companies – array vendors and others in the storage arena – likely look the best to potential buyers, according to industry experts.

No. 1 – Pillar Data Systems
Pillar may be the most obvious post-3PAR acquisition target with its solid, within-the-box storage virtualization, said Taneja. "[Pillar] is the best target because it's very similar to the firm that IBM (NYSE:IBM) acquired [XIV] and very similar to 3PAR," said Rob Enderle, principal analyst at the Enderle Group. But there's a major hurdle, he said: Oracle's Larry Ellison owns 80% of it. An Oracle (NASDAQ: ORCL) acquisition would represent an inside deal, but an outside deal would also be a challenge.

No. 2 – Compellent Technologies
Compellent (NYSE: CML) plays in the same array space as 3PAR, but uses commodity hardware, which may hinder its growth trajectory. "They've got an excellent midrange product line," said Taneja. "They have the same homogeneous virtualization that I ascribe to 3PAR. The gem is in the virtualization inside the box, which is very attractive."

No. 3 – CommVault
CommVault's (NASDAQ: CVLT) data protection software has been the subject of acquisition rumors in the past, according to Jerome Wendt, lead analyst and president of DCIG. "It's the last one standing that has a competitive suite of software," he said. "They have relationships with HDS and with Dell."

No. 4 – Xiotech
Xiotech's fortunes have gone up and down over the years, said Taneja, but it could become interesting for potential buyers. "There's a fundamental kernel of attractive technology in their current product line, [Intelligent Storage Element (ISE)]," said Taneja. Its networked storage offerings are based on ISE storage blades.

No. 5 – Isilon Systems
On the file storage side, Isilon may attract buyers. "It's a well-done clustered file system NAS product line," said Taneja. "The majority of large vendors have sucky NAS product lines." After several years of hard times, Isilon (NASDAQ: ISLN) is "nicely out of the woods," according to Taneja.

No. 6 – DataDirect Networks
DataDirect Networks, with its high-performance storage systems, has carved out a niche in the media and entertainment market. "But DataDirect has done a more balanced product that can be applied nicely to the commercial side," said Taneja. "They could be a viable high-end player." Their less-niche product is fairly new, so they'll need to build up a customer base to gain a broader audience, Taneja said.

No. 7 – InMage
Software provider InMage may be interesting to backup vendors with their continuous data protection (CDP) offering. "InMage has some proprietary technology that does near-real-time failover," said Wendt. "It's a complement to existing backup software and it's a unique player.” Managed service providers find it appealing, said Wendt, and a buyer could offer its technology as a service.

No. 8 – Permabit Technology
Permabit is the last remaining player in the primary data compression market, as competitors Ocarina and Storwize have gone to Dell and IBM, respectively. "It's a pretty good target for somebody on that side," said Taneja, and the only company left with its product OEM'ed by someone.

No. 9 – Citrix Systems
Citrix (NASDAQ: CTXS), with its virtual desktop technology, may become a desired target in the cloud computing era. "They're the leading independent player there," said Enderle. "The name is coming up a lot." But, "Citrix may be hurt by having too many people interested in it," he said, potentially leading them to go into negotiations asking more than firms are willing to pay.

No. 10 – R1 Soft
Finally, R1Soft, a lesser-known software company that's a subsidiary of BBS Technologies, could be a good fit for a buyer, said Wendt. "What's interesting is that they expose the APIs on backup software," he said. "It can automate whole backups to a management portfolio." For an acquirer, it could be an easy way to plug into existing infrastructure.

vendredi 24 septembre 2010

Wifi 802.11n, what else ?

Vu sur ZDNET : Beyond 802.11n: Gigabit Wi-Fi - Steven J. Vaughan-Nichols

If you set up 802.11n Wi-Fi just right, you can get remarkable speeds from it. But, as fast as 802.11n can go, up to 300Mbps, Gigabit Wi-Fi promises to more than triple that speed. Vroom!

That’s the good news. The bad news is that it’s going to be a while before we see Gigabit Wi-Fi. It’s not that the technology isn’t available to pull this kind of speed off. If anything the problem is that there are too many technologies that Wi-Fi chip vendors can use to deliver the 1Gbps (Gigabit per second) goods.

All-together, there are three proposed Gigabyte Wi-Fi standards. These are IEEE 802.11ac, 802.11ad and Wireless Gigabit aka WiGig.

First, there’s 802.11ac. This is the next step up for the old 802.11a Wi-Fi standard. This was, and still is, a 5GHz Wi-Fi standard with a speed range of 54Mbps (Megabits per second). Vendors were slow to get 802.11a equipment out the door. When 802.11g came along, which works in the 2.4GHz range, could produce the same speed, and was compatible with the older and slower 802.11b, 802.11a became something of an orphaned technology.

Now with 802.11ac, 802.11a is making a kind of comeback. This new standard will continue to work on the 5Ghz band, but it will provide larger channels for data throughput. Today, 802.11a uses 20 MHz-wide channels, 802.11ac will be using either 40 MHz or 80 MHz-wide or perhaps even 160 MHz channels to deliver data. 802.11ac may also make use of MU-MIMO (multiple user-multiple input, multiple outputs). In MU-MIMOs simultaneous streams will be transmitted to different users on the same channels.

Exactly how will it work? We don’t know yet. The standard is still far from set in stone. If all works out, 802.11ac devices will start showing up in late 2011 or early 2012 with speeds just touch 1Gbps.

That’s option number one, but wait, there’s more. 802.11ad and WiGig promises to deliver blazing hot 6Gbps speeds, but they’ll deliver it in the 60GHz range. The downside of this millimeter band Wi-Fi is that its range will be in feet rather than yards. 802.11ad and WiGig APs will be able to cover a room, but not much more.

802.11ad, is based on WiGig, but the two aren’t quite on the same page. I suspect eventually they’ll sync up with each other. The last thing anyone wants is a repeat of the long, slow slog to 802.11n standardization.

WiGig has the support of Wi-Fi powers Atheros, Broadcom, and Intel. It’s being designed specifically for streaming high-definition video. Its designers’ goal is for future Wi-Fi adapters to be able to support 802.11g’s 2.4 GHz for backwards compatibility and range, 802.11n and 802.11ac’s 5GHz for performance, and 802.11ad/WiGig’s 60GHz for short-range, HD video data transfers.

Last, but not least, there’s companies working on reaching Gigabit speeds within 802.11n. You see 802.11n supports up to 4 antennas. If you use 802.11n’s 5Ghz channels and four antennas you can, in theory, bond multiple channels together to reach 1Gbps. So far, no one’s selling four antenna 802.11n devices, but it’s only a matter of time.

Atheros is already shipping chipsets that can support up to three data streams at once. Atheros claims that devices using it new high-speed 802.11n chipsets can reach up to 450Mbps. Even before that, Marvell was shipping pre-standard 802.11n chipsets with three antenna support back in 2008. Smaller silicon foundries, such as Quantenna Communications, are already shipping 802.11n chipsets that can support four antennas.

Before you get too excited about seeing 1Gbps speeds in the next few months, you should keep in mind that the 802.11n bonding solutions are all, at this point, pretty much restricted to devices that all use the same chipsets. So, for example, even if you did get a Quantenna Full-11n AP (access point), it wouldn’t deliver 1Gbps speeds to your Apple MacBook Pro. Not only does the MacBook Pro have the wrong silicon inside, it doesn’t support that many antennas.

But, products are beginning to appear that come with higher-speed 802.11n built-in. For example, newer model Apple Airport Extreme uses a Marvell chipset to support three antennas.

So, one way or the other, you can expect to see faster Wi-Fi soon. In the short term, as enhanced 802.11n devices appear, you’ll need to look closely at device compatibility to get the maximum possible 802.11n speed. Down the road though, as 802.11ac, 802.11ad, and WiGig devices start shipping you can look forward to easy access to 1Gbps and faster wireless speeds.

Speaking as someone who’s always throwing serious amounts of data through the air in my home-office while wirelessly streaming HD video to my HDTV, I can’t wait to see these new technologies arrive.
.Kick off your day with ZDNet's daily e-mail newsletter. It's the freshest tech news and opinion, served hot. Get it.

mercredi 22 septembre 2010

Post Taquin ou Post Remerciement, c'est comme vous voulez ...

Pendant une pause salutaire au milieu de deux projets menés de front tambour battant, je me suis vu "traité" de tendançeur. Non pas que je sois en mesure de rivaliser avec JLO en boite de nuit - dieu vous préserve de celà - non, mais plutôt au sens ou je trouverais de nouvelles idées aptes à influer le monde IT tout en vulgarisant des choses à priori incompréhensibles pour le commun des mortels. Je trouve celà exagéré car je ne pense être là que pour mettre de l'encre dans le stylo qu'ils utilisent eux pour travailler. Par contre, je me suis posé la bête question de savoir qui dans l'IT pourrait être intéressé par les billets que je produis modestement sur cet espace. Je me suis donc penché sur le TOP 30 de mes "fans" pour ces six derniers mois, et je vous offre en primeur les plus connus :


En cas de port de lunettes non assumé, cliquez pour agrandir

Donc, un grand merci à EMC à qui je fais honneur en entourant le tableau en bleu. Par contre grosse déception : j'attendais VMware ... filiale de ? C'est pas Corp du tout ça !

mardi 21 septembre 2010

HADOPI : Premières salves ...

Update : et en plus on nous ment !

Vu sur le Parisien.fr :
La Haute Autorité pour la Diffusion des Oeuvres et la Protection des Droits sur Internet (Hadopi), chargée de la riposte graduée contre le téléchargement illégal, a formulé ses premières demandes d'identification de pirates.

«La Hadopi confirme que la CPD (NDLR : Commission de Protection des Droits) a envoyé ses premières demandes d'identification», a déclaré à l'AFP le secrétaire général de l'organisme, Eric Walter, confirmant une information du site PC Inpact (http://www.pcinpact.com), sans toutefois préciser le nombre de fournisseurs d'accès ayant reçu ces demandes.

Dans un premier temps, il s'agit d'identifier les adresses des internautes-pirates grâce à leur adresse IP (Internet Protocol), la trace en quelque sorte que laisse leur ordinateur. Ensuite, il s'agira pour la Hadopi d'envoyer un premier mail d'avertissement aux abonnés des fournisseurs d'accès qui se connectent aux plateformes pour échanger leur fichier avec les autres internautes. Ils ont été repérés par les societés de surveillance travaillant pour les détenteurs des droits.

Les principaux fournisseurs d'accès (Orange, SFR, Numéricable, Free et Bouygues) ont été destinataires des demandes de la Hadopi, arrivées la semaine dernière. Ils disposent d'un délai de huit jours pour apporter des réponses et surtout fournir les éléments attendus, à savoir toutes les coordonnées de leurs abonnés contrevenants.

La Haute autorité avait reçu ses premières saisines officielles à la mi-août, après une phase de test débutée fin juillet. En son sein, la CPD doit avertir les internautes dans les deux mois qui suivent, si elle valide les saisines. Les premiers courriels d'avertissement sont donc attendus pour la mi-octobre au plus tard.

lundi 20 septembre 2010

Self made NAS ... première question

"Bonjour, je suis lecteur de ton blog et assez impressioné de ton boulot sur ce NAS homemade. J'aimerais avoir des precisions sur l'histoire des LUNs qui sont en fait des fichiers et sur ta distrib ParCOS (en gros la mettras tu a disposition du public ?)." Arthal

Voir les précédents posts :
http://ds45.blogspot.com/2010/09/self-made-nas.html
http://ds45.blogspot.com/2010/09/selfmadenas-2-lepreuve-du-bench-avec.html

Voici un schéma de la manière dont on accède à un LUN sur mon NAS :

Sur un SAN traditionnel on accède aux LUNs directement là ou se situe XFS. Pour bénéficier du SAN sur du NAS notamment sur les machines NetAPP, les LUNs sont émulés sur le système de fichiers. L'avantage est de bénéficier des fonctionnalités propres aux NAS comme par exemple les snapshots. A l'inverse, ce n'est pas le meilleur moyen pour avoir des performances dans le monde SAN. Je vous renvoie à mon post sur le stockage unifié pour avoir un aperçu de la manière dont le problème est traité sur quelques baies du marché.


En résumé faire du SAN avec un NAS, c'est comme jouer aux poupées russes : le temps d'ouvrir toutes les poupées pour accéder à la dernière ça prend du temps ...

Concernant ParCOS, attendu que c'est un linux CentOS que j'ai dépouillé et recompilé spécifiquement pour ma machine, j'ai peur qu'il ne fonctionne sur aucune autre plateforme et donc qu'il y ait hélas peu d'intérêt à en faire bénéficier d'autres personnes ...

Rappel : Prochain meeting du VMware User Group Français le 21 octobre prochain

Ce meeting, c'est le vôtre : un lieu pour des échanges privilégiés d'une part avec vos confrères utilisateurs des solutions VMware et d'autre part une partie, pas la moins intéressante au demeurant, de nos correspondants chez l'éditeur. Si en plus je vous annonce en plus que nous serons reçu au sein des locaux d'Agrica (chez Julien !!!) .....

Les invitations personnelles ont été envoyées par mail la semaine dernière, si vous ne faites pas partie « des élus » mais que vous souhaitez quand même participer à cet évènement envoyez un email contenant vos nom, prénom, fonction et entreprise à partir de votre adresse mail professionnelle à l'adresse julien@vmug.fr

Vous recevrez une invitation dans les 24 heures.

Nous vous proposons de revenir largement et en détail sur les annonces faites lors du dernier VMworld à San Francisco. Nous aurons donc au menu

Le matin :

Accueil
Point sur le VMUG (Olivier Parcollet & Julien Mousqueton)
La vision de Paul Maritz, VP & CEO VMware (Sylvain Siou / VMware)
Les nouveautés de VMware vSphere 4.1(Stéphane Croix / VMware)

Pause déjeuner suivie de la visite des salles serveurs du Groupe Agrica

L'après-midi (pas de pause digestive) :

Introduction à VMware View 4.5 (Sylvain Siou / VMware)
Présentation des solutions d'accès Wyse pour VMware View (Wyse)
"Les 10 erreurs les plus fréquentes de la virtualisation : comment les identifier, les résoudre ?" (Quest Software)
Conclusion

Les invitations personnelles ont été envoyées par mail la semaine dernière, si vous ne faites pas parti « des élus » mais que vous souhaitez quand même participer à cet évènement envoyez un email contant vos nom, prénom, fonction et entreprise à partir de votre adresse mail professionnelle à julienvmug.fr

Vous recevrez une invitation dans les 24 heures.

Enjoy !!!

Telex : VMware se paie son Linux

A lire sur Virtuanews : http://www.speedfirenetwork.net/virtuanews/?p=1856

samedi 18 septembre 2010

SelfMadeNas 2 : L'épreuve du bench avec Hypervisor


Suite à la demande générale de Raphaël alias Hypervisor himself, voici le petit bench réalisé avec cette fois quelque chose de plus sérieux : un bon serveur bi-XEON 5500 sous VMware Hypervisor 4.1 (ex-ESXi) avec un seul lien Giga Ethernet en ISCSIet des jumbo frame 8Ko (oui le Netgear les supporte !!!!). Rappelons que j'ai conçu cette machine avec du matériel refurbished from ebay. Les disques dur sont des Hitachi Deskstar 1To.


Ne vous fatiguez pas les yeux ...

Update :

Lorsque je dis que faire du SAN sur du NAS, c'est jouer aux poupées russes, voici ce que celà donne :

# pwd
#/iscsi/vol1
-rw-r--r-- 1 root admingrp 107372609536 Jan 20 23:55 iscsi1
-rw-r--r-- 1 root admingrp 121 Jan 20 19:44 iscsi1.dat

... un fichier émulant un LUN occupant une bonne partie du volume (ici 100 Go). Vous comprenez qu'il faut franchir pas mal de couches générant beaucoup d'overhead pour écrire à l'intérieur contrairement à un véritable LUN accédé dans une baie SAN.


En mode VM accédée via NFS, c'est tout de suite moins bien ...

vendredi 17 septembre 2010

Mike Workman CEO de PIllar Data à Paris cette semaine


Ayant la chance de le rencontrer avec quelques autres clients, Mike nous a fait un cours magistral sur la conception d'un système de stockage

Vu sur le MagIT, une Interview de Mike Workman

Mike Workman, Pillar Data Systems : "nous sommes ouverts à toute proposition..."

Le 16 septembre 2010 (15:22) - par La rédaction

Dans un entretien avec LeMagIT, Mike Workman le co-fondateur (avec Larry Ellison d'Oracle) et CEO du fabricant de baies de stockage Pillar Data Systems fait le point sur sa société et sur les évolutions à attendre dans les prochains mois pour les baies de stockage Pillar Data Systems. Il revient aussi sur la consolidation en cours dans le secteur du stockage après la vague récente d'acquisitions par HP, IBM et Dell et n'exclut aucune hypothèse en cas d'offre d'un des grands du secteur.

De passage à Paris cette semaine, le fondateur et CEO de Pillar Data Systems, Mike Workman a accepté de répondre aux questions du MagIT. Dans un contexte de consolidation du marché du stockage, le patron de Pillar confie son opinion sur l'acquisition récente de 3Par par HP et sur les répercussions qu'elle pourrait avoir sur les autres acteurs. Il explique sa vision du marché et aborde les prochaines évolutions de son architecture de stockage. Et il confirme, qu'avec Larry Ellison, son principale actionnaire, il est à l'écoute des éventuelles propositions de rachat qui pourraient arriver...

LeMagIT : avant de discuter des évolutions à venir de l'offre de Pillar Data System, pouvez-vous nous faire un bilan sur la situation actuelle de la société ?
Mike Workman : notre business se porte bien. Nous avons continué à séduire de nouveau clients en 2010 et comptons aujourd'hui 555 clients entreprises dans le monde. La France est un marché important pour nous puisqu'elle est aujourd'hui notre second marché après les Etats-Unis. Nous avons continué à recruter au cours de l'année notamment pour nos forces de vente et de support. La croissance est en effet au dessus de nos espérances.

LeMagIT : la bataille entre Dell et HP pour le contrôle de 3Par et les multiples acquisitions récentes dans le monde du stockage pointe vers une consolidation du secteur. Quelle est votre vue sur le sujet ?
Mike Workman : La consolidation est un phénomène naturel et elle n'est pas achevée notamment parce qu'il y a sur le marché quatre ou cinq grands acteurs qui sont à l'affût. IBM ajoute ainsi peu à peu de nouvelles offres à ses gammes. HP avait besoin d'une technologie de nouvelle génération pour ses baies, qu'il a acquis avec 3Par. Ils avaient besoin de contrôler leur propre technologies car dans ce métier on ne peut s'appuyer durablement sur des technologies externes (en l'occurrence, celles de Hitachi en haut de gamme, NDLR). Dell est lui aussi en chasse. Ils ont commencé avec Equallogic et disposent désormais d'une offre d'entrée et milieu de gamme en propre. Il leur manque encore une offre entreprise. Enfin, Oracle est un acteur qui pourrait lui aussi participer à la consolidation.

LeMagIT : justement, l'actionnaire principal de Pillar Data Systems est Larry Ellison (CEO d'Oracle, NDLR). Savez-vous qu'elle est sa position quant à l'avenir de Pillar dans ce secteur en consolidation ?
Mike Workman : Larry et moi sommes des capitalistes. Larry contrôle environ 80% du capital, le reste étant détenu par les salariés. Dans le cadre de la consolidation en cours du secteur, nous sommes ouverts à toute proposition et nous étudierons les opportunités qui se présentent (des rumeurs persistantes d'analystes font état d'un intérêt de Dell et d'Oracle pour la société, NDLR).

LeMagIT : pour ce qui est de la technologie comment vous positionnez vous aujourd'hui, comme un acteur d'entrée-milieu de gamme sur le marché du stockage ou comme un acteur stratégique ?
Mike Workman : Nous nous considérons clairement comme une plate-forme de Tier 1. Nous sommes en concurrence avec les Clariions d'EMC et avec l'entrée de gamme Symmetrix. Nous ne sommes pas à proprement parler un acteur entrée de gamme, comme Equallogic (rires). Le premier prix pour une baie Pillar se situe en effet aux environs de 70 000$.

LeMagIT : parmi les tendances mises en lumière par Gartner et IDC , on note la croissance bien plus rapide en valeur et en volume des plates-formes NAS par rapport au SAN. Vous avez ajouté le support du NAS dans les contrôleurs Slammer il y a déjà quelque temps, en plus des protocoles SAN. Où en êtes vous de cette stratégie de stockage unifié?
Mike Workman : Chez Pillar, la croissance du NAS suit celle du SAN. Environ 15% de nos clients utilisent simultanément les protocoles SAN et NAS sur leurs baies. 15% ne nous utilisent que pour du NAS et les 70% restant pour du pur SAN. Pour certains clients, le fait que nous proposions une baie unifiée est important. Mais le débat entre SAN et NAS, n'est plus une bataille religieuse comme au début. Les utilisateurs sont désormais pragmatiques et utilisent le protocole adapté pour chacune de leurs applications. Il en va d'ailleurs de même du débat entre Fibre Channel et iSCSI. Environ 10% de nos utilisateurs utilisent d'ailleurs ce dernier protocole sur nos baies.

LeMagIT : chez vos concurrents, on parle beaucoup de virtualisation de plusieurs baies ou tout au moins de clustering ou de fédération de plusieurs baies.
Mike Workman : Aujourd'hui un pool de stockage Pillar peut agréger jusqu'à 8 contrôleurs slammers; ce qui représente une capacité conséquente et aussi un volume de cache considérable. De ce point de vue, nous sommes très en avance sur des systèmes milieu de gamme comme ceux de Compellent. Dans un avenir proche, nous serons aussi à même de fédérer jusqu'à 256 systèmes au sein d'un pool unique. Mais il faudra toutefois rester prudent quant à la localisation géographique de ces systèmes. La latence reste un paramètre important.

LeMagIT : donc la limitation usuelle de 30 à 100 km s'applique ?
Mike Workman : Oui (rires), nous n'avons pas encore cassé la limite de la vitesse de la lumière.

LeMagIT : dans votre offre actuelle, vous proposez des briques de stockage à base de disques Fibre Channel, SATA et Flash. Le SAS est-il sur votre roadmap ?
Mike Workman : Fibre Channel est une excellente technologie mais au final, la technologie de disque n'est guère importante pour nous. Aujourd'hui, les fabricants de disques proposent aussi bien des disques haut de gamme FC que SAS, mais l'option FC finira par disparaitre. Il y a toutefois une exception notable : aujourd'hui les disques au format compact (2,5 pouces, NDLR), qui permettent d'avoir plus de disques dans une même baie, ne sont disponibles qu'en SAS.

LeMagIT : cela veut-il dire qu'il faut s'attendre à l'arrivée prochaine de briques SAS 2,5 pouces et 3,5 pouces chez Pillar?
Mike Workman : oui

LeMagIT : concernant la technologie Flash, on voit aujourd'hui plusieurs écoles. Certains l'utilisent comme une classe de stockage à part entière, tandis que d'autres la mettent comme un étage de cache supplémentaire, en plus de la mémoire vive des contrôleurs. Quelle est votre position sur le sujet ?
Mike Workman : Nous proposons déjà des briques de stockage à base de SSD. Mais l'utilisation de la mémoire Flash comme composante de notre architecture de cache est au programme de nos prochaines baies. Nous utiliserons la Flash comme un étage de cache au-dessus de la RAM.

LeMagIT : le ferez-vous aussi bien en lecture qu'en écriture ?
Mike Workman : Oui et cela nous semble important d'un point de vue architecture. Le choix de NetApp de limiter ses Performance Acceleration Modules (PAM, des cartes optionnelles de cache à base de mémoire Flash, NDLR) au mode lecture est trop restrictif pour certaines applications comme les bases de données.

LeMagIT : concernant la gestion automatique des classes de services, on a récemment vu pas mal d'annonces de la part d'EMC et 3Par. Et Compellent en dispose aussi en natif. Pillar inclut depuis longtemps des fonctions de "Tiering" automatique dans ses baies, comment voyez-vous ces fonctions évoluer ?
Mike Workman : nous avons effectivement été parmi les premiers à embarquer des fonctions de tiering automatique dans nos baies. Et nous entendons bien les améliorer. Typiquement, la plupart des technologies du marché se contentent de regarder le passé et n'anticipent pas les évolutions des workloads. D'une certaine façon, elles ont des conséquences non prévisibles sur les performances. Typiquement, une fonction de gestion de classes de service pourrait déplacer des données sur un tiers lent sur la base d'analyses passées, ce qui fait que les données seraient positionnées sur un tiers trop lent en cas de besoin de performances. Notre objectif est de fournir des fonctions de gestion de classe de service qui soient quasiment instantanées.

LeMagIT : pour cela, il vous faudra sans doute coupler ces fonctions avec une gestion intelligente du cache ?
Mike Workman : oui, c'est exactement cela. Nous allons marier le cache et les fonctions de tiering. Avec quelques bonus en plus. Ainsi la baie pourra, par exemple, informer l'administrateur qu'il a besoin d'ajouter plus de capacité de cache pour optimiser au mieux les performances de ses applications sur nos baies.

LeMagIT : une autre tendance du marché est aussi de tirer parti des performances croissantes des processeurs des contrôleurs de stockage pour ajouter de nouvelles fonctions comme la compression, la déduplication, l'indexation ou la gestion de contenus. Travaillez vous aussi à de tels ajouts ?
Mike Workman : Vous verrez apparaitre des fonctions de ce type dans les 6 à 12 prochains mois. Des fonctions comme la compression ou le chiffrement des données sont sur notre roadmap. Nous nous appuyons pour cela sur les performances croissantes des processeurs de nos amis d'AMD et Intel.

LeMagIT : vous utilisez indifféremment les deux fournisseurs ?
Mike Workman : Par le passé, nous avons utilisé des puces Intel et nous utilisons actuellement des puces Opteron. Les deux fondeurs font parti de notre roadmap.

LeMagIT : pour conclure, on voit aujourd'hui une intégration croissante entre les plates-formes de virtualisation et les baies de stockage, notamment via le biais de plug-ins. Vous inscrivez-vous dans cette tendance ?
Mike Workman : Nous travaillons avec Microsoft, Citrix, Oracle et VMware. L'intégration renforcée se fait par le biais de plug-ins. Mais elle ne touche pas que les plates-formes de virtualisation. Une intégration renforcée avec des bases de données comme Oracle est aussi importante. D'une façon générale, l'intégration transparente de la couche de stockage avec leurs applications est une composante importante pour les utilisateurs.(...) Et puis, pour ce qui concerne la virtualisation, il n'y a pas de raison de dupliquer au niveau de l'hyperviseur des fonctions comme les snapshots, la copie ou le clonage que les baies peuvent réaliser mieux et plus vite via une intégration avec l'hyperviseur...

mercredi 15 septembre 2010

Prochain meeting du vmug.fr le 21 octobre prochain

Ce meeting, c'est le vôtre : un lieu pour des échanges privilégiés d'une part avec vos confrères utilisateurs des solutions VMware et d'autre part une partie, pas la moins intéressante au demeurant, de nos correspondants chez l'éditeur. Si en plus je vous annonce en plus que nous serons reçu au sein des locaux d'Agrica (chez Julien !!!) ..... Les invitations partirons demain et nous vous donnerons le lien pour l'inscription sur le site http://www.vmug.fr/.

Nous vous proposons de revenir largement et en détail sur les annonces faites lors du dernier VMworld à San Francisco. Nous aurons donc au menu

Le matin :

Accueil
Point sur le VMUG (Olivier Parcollet & Julien Mousqueton)
La vision de Paul Maritz, VP & CEO VMware (Sylvain Siou / VMware)
Les nouveautés de VMware vSphere 4.1(Stéphane Croix / VMware)

Pause déjeuner suivie de la visite des salles serveurs du Groupe Agrica

L'après-midi (pas de pause digestive) :

Introduction à VMware View 4.5 (Sylvain Siou / VMware)
Présentation des solutions d'accès Wyse pour VMware View (Wyse)
"Les 10 erreurs les plus fréquentes de la virtualisation : comment les identifier, les résoudre ?" (Quest Software)
Conclusion

Enjoy !!!

HP risque-t-il de ne plus être dans la course ?

Je partage très largement plusieurs points avezc cette vision, pire je pense que 3Par ne vaut pas 2,3 M€ et que l'on est juste face à un coup marketing du fait que même mon entourage qui ne connaissait pas cette boutique il y a quelques semaines en a entendu parler ... Par contre ça sent bon pour l'éco-système Oracle.

Vu sur ZDNET :

IBM's Palmisano: HP 'used to be inventive'
By Larry Dignan September 14, 2010, 9:34am PDT

IBM CEO Sam Palmisano knocked Big Blue’s primary rival—Hewlett-Packard—as well as Mark Hurd, who is now taking aim at the company at Oracle.

In a Wall Street Journal interview, Palmisano said:

“H-P used to be a very inventive company. Hurd cut out all the research and development.”

The R&D remark refers to HP $2.4 billion purchase of 3Par. Palmisano argued that the 3Par acquisition means HP hasn’t invested in R&D. He also noted that HP botched the Hurd departure. Meanwhile, Palmisano gave Oracle props and said Larry Ellison & Co. will become IBM’s biggest rival.

The Journal story appeared to be a tease to a much longer Palmisano interview to come later. Palmisano doesn’t talk much, but when he does it’s worth a listen.

Now let’s examine the motives here.

• IBM has been touting its R&D and smarter planet initiative as its trump card against HP. Palmisano is just relaying what Big Blue reps often say—that HP is losing its innovation edge and can’t hang on R&D.

• Palmisano noting that Oracle is IBM’s biggest threat is interesting. In the war of perception, IBM is minimizing HP to focus on a rival that’s down in the standings. The subliminal message is that HP is cooked.

• At a time where HP is in flux, it only makes sense for Palmisano and IBM to play a little offense. Palmisano is looking to put some doubt in the minds of HP customers. It’s a playbook that worked nicely when Sun was in the process of being acquired by Sun. To that end, IBM last week announced that it would offer lease terms and credit for used gear if Oracle and HP customers dumped servers for Big Blue’s Power Systems.

• The more fear, uncertainty and doubt Palmisano can plant about HP the more customers IBM can poach. By the way, Palmisano said he’s not retiring any time soon—another comment designed to make IBM look like the picture of stability as HP hunts for a new leader.

dimanche 12 septembre 2010

samedi 11 septembre 2010

Self made NAS ...

A force d'étudier les différents NAS et SAN du marché et dire que concevoir un stockage monolithique (comme il y a 15 ans) c'est facile, je me suis lancé un défi personnel il y a quelques mois : assembler au fond de mon garage mon propre stockage et décliner mon OS optimisé stockage (le fameux futur ParcOS, pas de triche donc pas d''OpenFiler ou de freeNAS, juste une base OS standard dépouillée) depuis une souche OpenSolaris ou Linux mais avec quand même quelques contraintes :

- système de fichiers ZFS pour la performance
- administration via un portail web
- faire aussi (mal) bien que NetAPP en SAN à savoir supporter des LUNs émulés sur un système de fichiers
- possibilité de faire des snapshots et de les monter
- faire office de target ISCSI (pas trop de temps pour le FC, mais j'y songe)
- pouvoir faire du backup, donc supporter le NDMP
- en avoir sous le pied, donc deux processeurs parce que je ne suis pas un dieu du développement
- disposer de 8 Go de ram pour l'ajout de fonctionnalités (c'est toujours aussi bien qu'un CX4/120 ou un Fas 2040)
- intégrer une NVRAM de 512Mo en write back pour la performance mais avec batterie pour éviter la corruption de données en cas de perte de l'alimentation électrique. Mon choix c'est porté sur une carte VMETRO MM-5425/512M supportée aussi bien dans Solaris PC que dans Linux 2.4/2.6. Et puis à 179.00€ d'occase le bout sur eBay, j'ai été le premier surpris par le faible prix surtout quand on voit celui d'une PAM NetAPP à plusieurs dizaines de K€ ....



Au format PCI-X, c'est un beau bijou

- supporter le RAID 5 et 6, oui comme le RAID-DP. Ben quoi, il parait que ça évite la perte de données. J'ai retenu pour le boulot un bon vieux contrôleur Marvell 8 ports SATA 88SX5081 dont on trouve facilement les drivers
- supporter au moins 8 disques - vu que c'est fun, soyons fou : 8 disques SATA Hitachi de 1To- En fait qu'est-ce que ça bouffe comme espace disques les ados de nos jours ....
- pour intégrer le tout un chassis Supermicro avec la carte mère qui va bien.
- budget consacré : du temps, de l'open Solaris et/ou du Linux + 2 K€


La bête avant l'assemblage final.

Au final, vu les aléas de pérénité concernant Open Solaris, je me suis porté sur un linux dépouillé de tout ce qui était inutile. Défi relevé ???? A suivre .... :)

Update :

Montage d'un volume :

sh-2.04# mount
/dev/md100root on / type xfs (rw,noatime)
none on /proc type proc (rw)
/dev/volgr0/lvol0 on /hd/vol_mnt0 type zfs (rw,extperm)
/hd/vol_mnt0/shares on /shares/datas type zfs (rw,bind,nouuid,norecovery)
sh-2.04#
sh-2.04# exportfs
/shares/datas

Fun :

sh-2.04# uname -a
ParCOS-0.31 SELFMADENAS # SMP SUN SEP 12 14:25:26 CET 2010 i686 i586 i386 GNU/Linux
sh-2.04#


Partage du volume en ISCSI vu depuis Windows

Par contre pour confirmer ce que m'a donné comme info par mail mon copain fozzy, les perfs ZFS sous linux ne sont vraiment pas terribles. Je vais donc devoir me rabattre sur le moins pire de ce que j'ai à disposition sous linux 2.4 à savoir XFS. pourquoi 2.4 ? A cause de la stabilité des drivers au vu du matériel que j'utilise ...


Test avec un cht'i NetPC ... Qu'est-ce que ce sera avec un serveur et ESXi !!!

Délit de négligence caractérisée : The Laurelli's Experiment

Comment dit-on déjà ? Ah oui, le ménage commence toujours par le haut de l'escalier :
C'est fou ce qu'on peut faire au fond de son garage en France ....

jeudi 9 septembre 2010

Telex : CIsco Virtual Security Gateway

La suite Virtual Security Gateway permet de créer et manipuler des règles de sécurité depuis vCenter en s'appuyant sur le Nexus 1000v.

Cisco VDI : oui ! mais avec Citrix ....

vu sur Boursier.com :

Cisco et Citrix annoncent leur collaboration dans le but de proposer une nouvelle solution conjointe de virtualisation du poste de travail "qui simplifiera et rendra moins coûteux le déploiement d'applications et de postes virtuels haute définition, au profit de tous les utilisateurs de l'entreprise".

"La nouvelle solution "Cisco Desktop Virtualization" incluant Citrix XenDesktop associe les avantages de l'informatique unifiée Cisco aux technologies Citrix de virtualisation de postes, dont FlexCast et HDX, pour offrir une solution d'hébergement, de sécurisation et d'optimisation de la mise à disposition des applications et postes de travail virtuels particulièrement rentable, évolutive et performante" explique le groupe américain.

La solution "Cisco Desktop Virtualization" incluant Citrix XenDesktop est disponible dès à présent auprès du réseau des revendeurs communs.

+ d'infos http://www.speedfirenetwork.net/virtuanews/

mercredi 8 septembre 2010

Obstruction à l'arrivée de Mark Hurd chez Oracle


Vu sur le site du NouvelObs : HP veut empêcher son ex-patron de passer chez Oracle - Gabriel Madway, Marc Angrand

(c) Reuters Hewlett-Packard a engagé des poursuites judiciaires à l'encontre de son ancien directeur général Mark Hurd, après son recrutement par son concurrent Oracle. /Photo d'archives/REUTERS/Fred Prouser SAN FRANCISCO (Reuters) - Hewlett-Packard a engagé des poursuites judiciaires à l'encontre de son ancien directeur général Mark Hurd et a demandé à un tribunal de l'empêcher de rejoindre Oracle, en arguant du fait que son recrutement par son grand concurrent mettrait "en danger" des informations confidentielles.

Oracle, troisième éditeur mondial de logiciels, a annoncé lundi la nomination de Mark Hurd au poste de co-président et son entrée dans son conseil d'administration, un mois après sa démission de HP, justifiée par des irrégularités dans la gestion de ses notes de frais liées à sa relation avec une femme travaillant pour un sous-traitant du groupe.

L'accord conclu par Mark Hurd lors de son départ de HP ne prévoit pas de clause de non-concurrence, généralement impossible à faire appliquer en Californie, mais il inclut un engagement de confidentialité d'une durée de deux ans.

Dans une plainte au civil déposée mardi devant la Cour supérieure du comté de Santa Clara, HP déclare: "A ses nouveaux postes, Hurd sera dans une situation dans laquelle il ne pourra honorer ses engagements envers Oracle sans être forcé d'utiliser et de dévoiler à d'autres des secrets commerciaux et des informations confidentielles de HP."

Si Mark Hurd était autorisé à travailler pour Oracle, poursuit la plainte, cela "donnerait à Oracle un avantage stratégique en matière d'allocation ou de non-allocation de ressources et d'exploitation des connaissances sur les forces et les faiblesses de HP".

Le groupe demande donc au tribunal d'empêcher Mark Hurd d'occuper chez un concurrent un poste où il lui serait impossible d'éviter de dévoiler des informations sensibles.

"Bien que payé des millions de dollars en numéraire, en actions et en stock-options en échange des accords conclus par Hurd pour protéger les secrets commerciaux et les informations confidentielles de HP pendant son contrat (...), (HP) affirme que Hurd a mis en danger les secrets commerciaux et les informations confidentielles les plus importantes de HP", poursuit la plainte.

Mark Hurd a gagné, selon des estimations, environ 100 millions de dollars (79 millions d'euros) pendant les trois années passées à la tête de Hewlett-Packard et le montant de l'accord conclu lors de son départ précipité le 6 août est estimé à 34,6 millions.

Oracle est à la fois un important partenaire de HP et l'un de ses principaux concurrents, entre autres sur le marché des serveurs informatiques après le rachat de Sun Microsystems pour 5,6 milliards de dollars, une opération bouclée au début de cette année.

Le groupe présidé par Larry Ellison s'est refusé à tout commentaire sur la plainte de HP mardi.

A Wall Street, l'action Oracle a fini en hausse de près de 6% au lendemain de l'annonce de l'arrivée de Mark Hurd au sein de l'équipe dirigeante, une nouvelle appréciée par la plupart des analystes.

lundi 6 septembre 2010

Attention au Fishing sur le mail FREE

Un beau lien vous engage au milieu de ce pourriel particulièrement persuasif, à entrer vos identifiants de connexion sur un fac similé du portail de free.fr.
C'est une tentative de Phishing pour récupérer des informations confidentielles telles que vos identifiants / mots de passe.
-
Bien entendu, détruisez au plus vite cette cochonnerie.

Pour informer free.fr, on peut se lever de bonne heure puisqu'aucun mail ne permet de les contacter directement, quand au téléphone on peut s'accrocher quelques heures pour obtenir quelqu'un de compétent. Bravo, ça c'est du service client !

Operation Remboursement Free

Bonjour, cher (e) client (e) :

Apres plusieurs tentative inutile de vous joindre par telephone,nous vous avons envoye ce mail pour vous informer qu une defaillance est survenue lors des preIevements mensuels effectues sur le compte de notre clientele ,en effet le 03 septembre 2010 votre compte a ete indument debite de la somme de (132.00) cent trente deux EURO.

Cette confusion est essentiellement du la correspondance de vos noms et prenoms avec ceux d un autre client .

A fin de proceder a un de remboursement immediat nous vous prions de bien vouloir cliquer sur le lien ci-dessous et fournir toute information susceptible d accelerer ce remboursement .

Remplissez le formulaire de remboursement en cliquant sur le le lien suivant:

ht*p://abrafab.com*******imp.free.fr

Important:

Le versement effectue par free sera porte sur votre prochain releve bancaire. Nos clients free beneficieront d un geste commercial.

Nous vous assurons de la confidentialite des informations fournies free se porte garant quant la responsabilite juridique de ces transactions.

Nous vous remercions de votre comprehension et nous nous excusons pour le desagrement encouru.

Merci de votre fidelite,
Cordialement,

Dominique Delamarre
Directeur Service Client

dimanche 5 septembre 2010

Telex : Moto GP2 à Misano endeuillé par le décès de Tomizawa

Décidément, les pilotes japonnais paient un lourd tribut au moto GP. Après Daijiro Kato en 2003, Shoya Tomizawa n'aura pas survécu à son accident intervenu aujourd'hui à Misano., Après que sa roue arrière se soit dérobée à la sortie d'une courbe rapide, Shoya s'est couché. Scott Redding et Alex De Angelis qui étaient dans son sillage n'ont pu éviter le pilote déjà à terre et l'ont percuté successivement.

Entrainement des coons d'attaque ...


Attention chat sauteur !

Pour le jeu dominical, les femelles sont à fond et les mâles ne se forcent pas.

Séance culture 27 : L'Ensoniq EPS-16 Plus

Retour en 1990, le son des charts de l'époque c'est le piano à la Blackbox, la house et le Zouk. La démocratisation de la synthèse à base d'échantillons de sons bat son plein avec des acteurs comme Korg et sa workstation M1. Mais pour certains ce n'est pas suffisant, il veulent pouvoir aller encore plus loin en créant leurs propres banques de sons originales. Korg nous proposera le DDS-1 un mélange de DW8000 et d'échantilloneur, Akai le magnifique S1000kb (et les racks série S) tout de blanc vétu , Ensoniq l'EPS-16 et 16 plus et c'est de ce dernier dont je vais vous parler pour le plus grand bonheur aussi de mon ami Pascal Bony à qui je dédie ce post.


Ca c'est que j'appelle du correctif, à l'époque on s'enquiquinnait pas à redesigner un chip on faisait un pacht au fer à souder ...

La bête se présente sous la forme d'une coque noire entièrement plastique dotée d'un clavier 5 octaves, d'un lecteur de disquettes 3/2 DD, d'un afficheur LCD et d'une série de boutons tactiles pour piloter la bête. Si aujourd'hui ses caractéristiques peuvent faire sourire, sachez qu'à l'époque ça a été une révolution : échantilloneur 16-bits, taux d'échantillonnage variable de 11.2kHz à 44.6kHz. avec une ram de 2Mo autorisant 23 secondes d'échantillonnage en mono, compression, merging d'échantillons, auto-loop, auto-trunk, ré-échantillonnage à une fréquence différente. La richesse de la machine réside dans ses deux filtres commutables passe-haut/bas commutables de 6 à 24db (encore d'actualité) mais non résonnants permettant de triturer le son dans tous les sens, un séquenceur 8 piste 8000 notes, un LFO avec 7 formes d'ondes complète le tout. Le multi-effet intégré n'a pas à rougir non plus car il donnera naissance quelques années plus tard au légendaire DP/4 embarqué notamment dans les séries ASR et TS-10/12. Il comprenait reverb, delay, chorus, le flanger, phaser, Leslie, distorsion et wah-wah.. les effets peuvant être ré-échantillonnés et devenir une partie de l'échantillon sonore !


Le bouton magique 'Sample' ...

L'autre spécificité qui restera purement Ensoniq est de pouvoir jouer d'un échantillon tout en en chargeant un autre avec le lecteur de disquette sans être brutalement coupé puisqu'un savant morphing se produit .... La monstrueuse banque de sons que donnera cette machine peut être encore relue sur les machines actuelles comme je le fait avec mon Triton ou mon Akai S3000 et même le cousin TS-12. Notez aussi que la communauté Ensoniq EPS est encore très active et que c'est l'une des rares machines pour laquelle on peut aisément trouver de la pièce détachée malgré la disparition d' Ensoniq.
Retour fin des années 80 en pleine période House Music, avec Joe Smooth utilisant la bête (accompagné d'un poly 800) dans le planant Promised Land ou sinon ici pour un son de meilleur qualité. J'adore ce morceau qui n'a pas pris une ride. Au passage je soupçonne la boite à rythme d'être une Yamaha RY30 ....

samedi 4 septembre 2010

Avec la circulaire HADOPI, à présent on frise le deni de justice

La saisie du conseil constitutionnel n'est pas loin : à nos plumes et nos emails !

Vu sur le blog de Bluetouff

Hadopi : l’histoire de la circulaire qui circule - 4 septembre 2010

Twitter It!1PCInpact s’est fait l’écho d’une d’une circulaire dont l’existence aurait été révélée par Sandrine Rouja (Juriscom / C-logeek). Ce document, en date du 6 août 2010 a le bon goût de répondre à une bonne partie des questions qu’on se posait sur le respect du droit à une justice équitable, l’inversion de la charge de la preuve ou du pouvoir que l’on donnait aux ayants-droit avec le petit problème de constitutionnalité que cela avait posé pour HADOPI 1. Contre toute attente, cette circulaire nous apporte une réponse claire : la supression des enquêtes de police. Oui vous avez bien compris, vous n’aurez pas le droit de vous défendre devant le juge à moins que vous ne soyez une brute épaisse en analyse forensic. Numerama relève en page 5 de la circulaire :

« dans le double objectif d’assurer la rapidité de la réponse pénale et de veiller à ce que le nouveau dispositif ne conduise à un engorgement des services de police et de gendarmerie, il conviendra d’éviter, sauf cas particulier, qu’une seconde enquête soit diligentée par ces services. »

On a ici une donnée intéressante puisqu’il est fait référence à une seconde enquête (la première étant celle de sociétés mandatées par des sociétés privées et dont personne ne s’est pour le moment intéressé aux modalités de facturation .. y a t-il des primes au rendement ?). L’enquête d’une société privée prévaudrait donc sur l’accès à une justice équitable.

Pouvait -il en être autrement ?

Non ! Clairement non… Vous croyez que le législateur s’est cassé la tête à inverser la charge de la preuve pour voir s’engorger les tribunaux d’enquêtes techniques pouvant être onéreuses. Prouver qu’une infraction a été commise par un tiers et par l’intermédiaire d’un cheval de Troie non détecté par l’anti-virus de Madame Michu pourtant installé par son petit fils, ingénieur informaticien, sur un Windows cracké …

Comme on le craignait donc depuis le début, il ne va pas être aisé de se défendre devant la HADOPI. C’est d’autant plus révoltant qu’on a ici la démonstration parfaite d’une inversion de la charge de la preuve, doublée d’une obligation de sécurisation de l’accès Internet pour lequel on nage toujours dans une étonnante « subtilité ». Plus inquiétant encore, on a ici une splendide et élégante manière de contourner l’avi du Conseil Constitutionnel qui observait il y a un peu plus d’un an que « seul un juge pouvait décider de la coupure d’un accès Internet car l’accès au Net est aujourd’hui une composante de la liberté d’information et de la communication« .

Alors oui … la HADOPI va peut-être commencer à faire peur. On arrive bien dans la phase répressive promise… jusque là tout va bien.

Mais une société privée qui se substitue à l’autorité judiciaire, quand on a encore les débats parlementaire en tête sur cette question, c’est particulièrement irritant… et là, je suis tout irrité.

Joe Bar Team on ze Oueb


A vous de jouer !

jeudi 2 septembre 2010

VisioCoon


FanFan la minicoon essaie de chatter

Rachat de 3Par, Dell jette l'éponge.

Fin de la saga de l'été ? Vu sur latribune.fr :

La bataille boursière opposant les groupes informatiques américains Dell et HP pour le rachat du spécialiste du stockage 3PAR semble toucher à sa fin. En surenchérissant, HP offre aux actionnaires de 3PAR une coquette prime.

33 dollars par action : c'est le nouveau prix proposé par le groupe informatique américain Hewlett-Packard (HP) pour racheter son compatriote 3PAR. Dans un communiqué jeudi, HP indique avoir "relevé son offre publique d'achat (OPA) pour acquérir toutes les actions de 3PAR à 33 dollars par action en numéraire" valorisant sa cible autour de 2,4 milliards de dollars.

Aussitôt, 3PAR publie un communiqué dans lequel il indique que son conseil d'administration a jugé la nouvelle offre de HP "supérieure" à l'offre non encore publique de Dell, de 32 dollars, soit 5 dollars de plus que sa précédente faite vendredi dernier et valorisant 3PAR à 1,8 milliard de dollars.

En dégainant cette nouvelle offre, HP se réserve donc le dernier mot puisque Dell a annoncé renoncer à s'aligner et mettre fin à son contrat avec 3PAR. Ce contrat stipulait que 3PAR donnerait la priorité à Dell s'il s'alignait sur les conditions financières d'une offre rivale.

Soulignons que depuis l'annonce du rachat par Dell le 16 août dernier, les enchères ont presque doublé offrant aux actionnaires de 3PAR une prime de 242% comparée au cours de clôture de l'action 3PAR précédent l'annonce de l'OPA.

A Wall Street ce jeudi, l'action 3PAR gagne vers 17h20 (heure de Paris) plus de 2% à 32,84 dollars et l'action HP, à peine 1% à 39,54 dollars. Dans le même temps, Dell s'octroie 1,53% à 12,31 dollars.

View 4.5 annoncé au vmwold

Excellent article de mon amie Kareen à lire sur ZDNET traitant du sujet et de la stratégie globale de VMware : http://www.zdnet.fr/blogs/virtuanews/vmworld-2010-vmware-annonce-view-45-premiere-etape-vers-horizon-demo-39754215.htm.

Teradici annonce une carte PCoIP offload pour servers View


Teradici Announces PC-over-IP® Server Offload Cards for VMware View™ -- Significant Data Center Scalability and Operating Expense Savings Enabled with Upcoming PCIe, Mezzanine Cards -- VMworld 2010 Conference

SAN FRANCISCO -Today at VMworld 2010, Teradici® Corporation, the industry leader in delivering a true PC experience over standard IP networks, announced plans to introduce new server offload cards for VMware View, providing an innovative set of features and benefits to the desktop virtualization industry and end-user computing.

“As organizations continue along the path toward IT as a service, CIOs are looking for innovative ways to maximize their virtual desktop environments. The upcoming PCoIP server offload cards will enable VMware View™ customers to increase scalability and reduce operational costs”

Based on Teradici’s hardware acceleration technology for desktop virtualization, the PCIe and mezzanine server offload cards will deliver a high virtual desktop consolidation ratio enabling significant increases in the number of VDI sessions per server compared to non-accelerated systems.

“As organizations continue along the path toward IT as a service, CIOs are looking for innovative ways to maximize their virtual desktop environments. The upcoming PCoIP server offload cards will enable VMware View™ customers to increase scalability and reduce operational costs,” said Vittorio Viarengo, vice president, End-User Computing Products, VMware.

“By using hardware compression to offload the PCoIP protocol processing, the PCoIP server offload cards will significantly increase the number of users per server, enabling significant datacenter power and space savings all while providing an enhanced user experience,” said Trent Punnett, vice president, Marketing and Product Management, Teradici Corporation.

The PCoIP server offload cards will be fully integrated into servers with VMware vSphere™, managed by VMware View and will be compatible with existing PCoIP zero clients and VMware View software clients.

mercredi 1 septembre 2010

Dataslide, un nouveau type de disque prometteur

Plus de plateaux rotatifs, juste une plaque parcourue recto et verso par de multiples têtes piezo-électriques le tout étant encore plus performant que le SSD, une techno sponsorisée par Oracle (tiens comme c'est bizarre ?) à suivre et bientôt commercialisée. Les 100k IOPs / disque ne sont pas loin, encore faudra-t-il le stockage capable de les alimenter, j'en connais au moins un :)