dimanche 29 mai 2011

Hyper Macro Bugs of the day

Soleil de retour, bébètes aux alentours ... en tout cas dans le jardin







Nikon D300s + Nikkor Macro 105mm F/2.8 + bague allonge
(Avec presque 2kg de matos au bout des bras, c'est sport mais au moins on ne tremble pas)

vendredi 27 mai 2011

Semaine bien chargée ...

Peu de mises à jour cette semaine sur le blog et je m'en excuse du fait d'un planning bien rempli et de deux audits rendus à des clients en temps et en heure. J'ai malgré tout pu participer à deux évènements majeurs cette semaine.

Tout d'abord mardi,, l'intégrateur parisien spécialiste du stockage et de la sauvegarde Komposite avait organisé une soirée à l'hypodrome de Vincennes pour parler Cloud et stockage avec Mike Brewer Vice président en charge de l'engineering chez Pillar Data. Un grand merci à Eric Alimi pour m'avoir convié à cet évènement.


Mike Brewer nous a fait partager sa vision, un grand moment !

Lors du repas, Mike me fera deux confidences : la première c'est qu'il est (aussi) le papa du contrôleur RAID que j'ai passé quelques années à triturer sur les HP NetServer et autres IBM à savoir la carte Mylex DAC960 : respect ! La deuxième, c'est que l'idée d'un nouveau design de stockage palliant les lacunes des disques mécaniques, qui deviendraient extrêmement capacitif, est en grande partie née sous l'impulsion de Mike Workman et de Mike Brewer chez IBM en 1998. Le projet répondant au nom de code "White Star" est devenu l'Axiom Pillar Data, IBM préférant vendre pendant ce temps du stockage OEM ...

Aujourd'hui vendredi, nouvelle conférence chez Microsoft en compagnie de la sympatique équipe dirigeante de l'opérateur Cloud Computing Gosis à savoir Christophe Lefevre et Olivier Lefbvre, d' Edouard Payennville de Microsoft, d' Eric Greffier de Cisco ainsi que de David Dariouch de Pillar Data pour "ramener les nuages du Cloud Computing sur terre" -(c) 2011 d'Olivier Lefevre- . Plus sérieusement, rappeler que le Cloud Computing c'est d'abord un modèle opérationnel visant à donner de l'élasticité à l'IT tout en baissant les coûts : on passe du CAPEX à l'OPEX.

J'ai aimé cette phrase de Christophe Lefevre : "La puissance d'un opérateur Cloud n'est plus proportionnelle à sa taille et au nombre de m² dont il dispose, mais à sa capacité à alimenter tous les équipements nécessaires pour ses clients actuels et futurs, bref à être green" . A méditer !


Christophe Lefevre (à g) Olivier Lefebvre (à dr) :
une vision différente et progamatique du Cloud Computing

lundi 23 mai 2011

23 & 24 mai, eG8 ...

par Philippe Leroy, ZDNet France. Publié le 23 mai 2011

Stratégie - A l'initiative de Nicolas Sarkozy, près de 600 représentants de l'écosystème Internet mondial se réunissent à Paris en préambule du G8 de Deauville. Mais en raison de désaccords entre les principales puissances mondiales, aucune décision opérationnelle sur la gouvernance politique et économique de l'Internet n'est à attendre.

Amener Internet au menu des discussions des huit principaux dirigeants mondiaux qui se réuniront à Deauville les 26 et 27 mai, c'est la raison invoquée par Nicolas Sarkozy pour organiser le e-G8 Forum.

Deux jours avant les "grands" (les 24 et 25 mai), les représentants de l'écosystème Internet mondial - on parle de 600 participants - ont été invités pour discuter, sous une immense tente dressée dans le jardin des Tuileries, de l'impact économique et sociétal du réseau mondial.

"Le Président de la République française a voulu que le e-G8 Forum soit une initiative organisée et financée par le secteur privé, et placée sous la présidence de Maurice Lévy, Président du directoire de Publicis Groupe" explique la FAQ du site de l'évènement. Le budget devrait s'élever à 3 millions d'euros.

600 participants

Selon la communication officielle du Forum, "les discussions, débats, échanges et idées produits pendant les deux jours de l'e-G8 Forum seront rapportés le lendemain à la table des huit chefs d'État et de gouvernement." Et le casting des invités est à la hauteur des ambitions des organisateurs. En vrac, on devrait y croiser notamment les patrons de Facebook, eBay, Google et Groupon, des figures emblématiques du Web - Jimmy Wales (fondateur de Wikipédia), Mitchell Baker (Mozilla Foundation), Lawrence Lessig (Creative Commons), des net-entrepreneurs français (Marc Simoncini, Xavier Niel, J.A Granjeon) ou encore des ministres ( E Besson, C Lagarde et F Mitterrand).

Si la présentation du forum prend une tonalité très politique ( Nicolas Sarkozy prononcera un discours d'ouverture), son contenu est d'une facture très classique. "Publicis en liaison avec la Présidence de la République française ont établi le programme général du e-G8 Forum en sessions plénières, débats et séances de travail en groupes restreints." explique la FAQ.

Résultat : des tables rondes composées de personnalités qualifiées sur des thématiques archi-débattues ( Internet et croissance, Internet et société, propriété intellectuelle et économie digitale, ...). Un dispositif que l'on retrouve dans au moins une bonne douzaine de conférences aux quatre coins du monde ... de TED au Web 2.0 Summit en passant par le Web.

Quelles propositions pour le G8 ?

Mais à quelques heures du début de l'évènement, le flou est total sur le dispositif qui permettra de remplir sa principale mission : proposer des "idées et contributions" aux huit chefs d'Etat et de gouvernement réunis à Deauville. On ignore encore qui jouera le rôle de greffier des échanges entre les personnalités du Web mondial, qui se chargera de rédiger la synthèse des six séances plénières et des trois ateliers (voir le programme). D'autant plus troublant que la présentation aux participants du e-G8 est déjà prévue au programme : mercredi 25 mai entre 17H30 et 18h30 pour la plénière de clôture.

Selon l'hebdomadaire Marianne (daté du 21 mai), ce flou artistique ne doit rien au hasard. L'existence du e-G8 a donné lieu à une négociation serrée entre Nicolas Sarkozy et son homologue américain. Barack Obama aurait accepté sa tenue à la seule condition "qu'il s'agisse d'un débat sur les principes et non sur les questions techniques, et qu'il ne soit pas le lieu d'une négociation".

Pour la Maison Blanche, il n'est pas question de créer de nouvelles dissensions entre les huit puissances mondiales alors que l'Internet est devenu un enjeu de politique internationale, en particulier avec le rôle central joué par les réseaux sociaux - Facebook et Twitter en tête- lors des révoltes populaires en Tunisie et en Egypte, et que les désaccords sont nombreux sur les principaux sujets sensibles.

Pas étonnant donc que régulation technique et juridique de l'Internet, la protection des cyber-dissidents ou encore la surveillance des flux financiers ne figurent pas au programme du e-G8.

Dans ces conditions, aucune décision opérationnelle concernant la gouvernance politique et économique de l'Internet n'est à attendre. Au mieux devrions nous assister à une profession de foi sur les mérites du réseau mondial pour la promotion de la liberté d'expression, l'éducation ou la diffusion de la Culture.

Seule certitude, Nicolas Sarkozy a d'ores et déjà réussi une opération de communication de portée mondiale en endossant les habits d'un président "pro numérique". Un joli passement de jambes alors que sa politique - marquée par Hadopi et la suppression du statut JEI- fait l'objet des plus vives critiques dans l'Hexagone.

jeudi 19 mai 2011

La virtualisation du stockage SAN

En virtualisant, nous nous sommes affranchis de tous les problèmes liés au changement de plateforme matériel et en plus grâce au vMotion, il est possible de procéder à la maintenance d'un host sans arrêter une seule VM. Ô combien avons-nous été heureux de disposer des mêmes fonctionnalités "haute disponibilité" que les châssis de cœurs de backbone réseaux, d'ailleurs rien ne vaut un bon "redundancy force-switchover" ou d'un bon Rapid Spanning Tree pour s'en rendre compte. La mise en place d'un PRAi se concevait dès lors avec moins de difficulté. Mais quid du stockage disque dans tout ça ??? Et bien oui, la première chose dont on doit disposer pour bénéficier de la "hot disponibilité" d'une VM, c'est d'avoir un stockage vu de tous les serveurs et tant qu'à faire sans Single Point Of Failure : baie mono contrôleur, passez votre chemin y'a rien à voir ...

Mais qui dit PRAi dit aussi copie des données essentielles dans un autre lieu. on dispose de plusieurs technologies pour cela :le basket-net en recopiant de manière incrémentale les données sur un média de transfert type bande ou disque dur USB que l'on restaure manuellement à l'arrivée, la réplication intégrée au système de stockage asynchrone sur IP ou FC qui vise à copier à des intervalles de temps ou des seuils de volumétrie atteints les données d'un site à l'autre, la réplication intégrée synchrone FC ou IP qui valide bien que les données sont enregistrées de part et d'autre avant de passer aux suivantes et enfin le miroir synchrone Fiber Channel qui permet l'écriture en ' Y ' de part et d'autre. Cette dernière solution est souvent agnostique car elle ne fonctionne pas au sein de la baie mais se présente sous la forme d'un cluster d'appliances externes :




Exemple de virtualisation de stockage


La distance entre les appliances et donc entre le site primaire et le site de repli peut aller jusqu'à une centaine de kilomètre au prix d'une certaine augmentation de la latence (temps de réponse du disque). Raisonnablement, en -dessous de 30km, cette solution fonctionne de manière nominale. Dans cette configuration, on peut maintenir voir perdre tout ou partie du SAN : contrôleur de virtualisation, Fabric SAN, baie de stockage, sur l'un des deux sites sans même impacter la production. L'accès au LUN se fait travers d'un wwn (world wide name, en gros la mac adresse de la carte FC) spoofé pris conjointement en charge par les contrôleurs de virtualisation. Mieux, la resynchronisation se réalise automatiquement. En termes de conseils d'implémentation, bien veiller à disposer de suffisamment de bande passante sur les liens inter-site (ISL) et de suffisamment de buffers crédits dans les Fabrics FC. En effet, pour diminuer au maximum la latence lors de la double copie, les gros blocs qui rentrent dans les contrôleurs de virtualisation sont découpés en blocs plus petits, ce qui a pour effet d'amplifier le nombre d'IOs : SAN déjà contraints, passez votre chemin ou dédiez-y une infrastructure SAN. Bien entendu, étant donné que l'on travail en mode synchrone, si l'utilisation de baies hétérogènes n'est pas inenvisageable, il faudra cependant bien veiller à ce qu'elles aient des performances relativement proches, à défaut l'ensemble de votre solution de stockage fonctionnera à la vitesse de la baie la moins rapide. Dernier avantage, la virtualisation du stockage constitue un outil qui facilite considérablement la migration des données entre une ancienne et une nouvelle baie : on met en miroir un LUN existant de l'ancienne baie sur un LUN de la nouvelle et on change simplement le wwn d'accès sur les serveurs qui l'utilisent.

Si vous utilisez tout comme moi un environnement Pillar Data, bien entendu vous pouvez vous appuyer sur l'offre IPSTOR mais aussi depuis peu sur la brique maison MAXREP qui offre peu ou prou les même fonctionnalités.

# TMG mode foutage de gueule ...

Update : Vu sur PC Inpact, Rédigée par Marc Rees le vendredi 20 mai 2011 à 16h04

Mise à jour 20 mai 2011 : TMG a finalement retiré sa plainte. C'est ce que l'entreprise a confirmé à Electron Libre, "sans faire de plus amples commentaires". C'est sans doute dommage. Nous aurions apprécié voir la ligne d'attaque du prestataire des ayants droit : se plaindre d'un accès frauduleux sur un serveur non protégé. La démarche aura eu aussi la conséquence peut être pénible de laisser la justice se pencher sur ses activités internes.

Première diffusion 19 mai 2011 Trident Média Guard (TMG) a donné de nouveaux détails sur la faille de sécurité qui a été dénichée par Bluetouff dans au moins l’un de ses serveurs le week-end dernier. Alain Guislain, le PDG de TMG a indiqué à Ouest France que : « dans la nuit de vendredi à samedi, nous avons été victimes d'un vol de données. Quelqu'un se vantait sur « la toile » d'un accès libre à notre serveur. Dans les faits, il ne s'agit pas de notre serveur principal, mais d'un serveur parallèle qui nous sert pour de tests. Cet ordinateur contient un certain nombre d'adresses IP (un numéro qui permet d'identifier un internaute). Sans lien direct avec la haute autorité, ces données piratées ne sont en aucun cas exploitables juridiquement ».

"Nous avons porté plainte"

« Nous avons porté plainte. Pour l'instant La Haute Autorité a rompu l'interconnexion informatique entre l'Hadopi et notre société. Actuellement la Cnil (Commission nationale de l'information et les libertés) est dans nos bureaux pour évaluer le préjudice. Mais, nous sommes confiants et désormais conscients de notre surface médiatique et des risques que cela suppose. »

Marc Guez, de la SCPP, puissant des syndicats des producteurs de musique, avait donné une information supplémentaire que ne donne pas ici TMG : « TMG nous a informés que le serveur effectivement piraté était un serveur de tests de TMG (sans lien avec les traitements HADOPI), qui n’était pas protégé car ne contenant pas d’infos confidentielles ». Le cas pratique sera de savoir s’il peut y avoir piratage lorsqu’un serveur n'est pas sécurisé, et que ce dernier contient des adresses IP, données nominatives selon les CNIL européennes.

L'affaire Tati vs Kitetoa de 2002

A cette question, la Cour d’appel de Paris avait déjà répondu dans une affaire célèbre, opposant Tati au journaliste Antoine Champagne, aka Kitetoa (qui oeuvre sur Reflets.info, comme Bluetouff). Celui-ci avait déniché des failles de sécurité chez le premier à l’aide d’un simple navigateur.

Qu’avait dit la Cour d’appel avant de prononcer sa relaxe ?

« Il ne peut être reproché à un internaute d'accéder aux, ou de se maintenir dans les parties des sites qui peuvent être atteintes par la simple utilisation d'un logiciel grand public de navigation, ces parties de site, qui ne font par définition l'objet d'aucune protection de la part de l'exploitant du site ou de son prestataire de services, devant être réputées non confidentielles à défaut de toute indication contraire et de tout obstacle à l'accès ». Et ce même si l’internaute visite des parties nominatives d’un site non sécurisé...

La Cour d’appel avait taclé au passage que « la détermination du caractère confidentiel (…) et des mesures nécessaires à l'indication et à la protection de cette confidentialité relevant de l'initiative de l'exploitant du site ou de son mandataire »

---------------------

Le 19/05/11

A LIRE ATTENTIVEMENT AVANT DE POURSUIVRE : si vous prenez connaissance de ce contenu hébergé sur un site consultable à l'aide d'un navigateur web, sachez que vous êtes un pirate parce qu'accéder au port 80 d'un serveur qui liste des fichiers, c'est du piratage, enfin selon TMG.

Vu sur Nantesmaville.com :

Basée à Saint-Sébastien-sur-Loire, TMG qui piste les téléchargements internet illégaux a été piratée. Son patron s'explique.

Basée à Saint-Sébastien-sur-Loire, la société Trident Média Guard (TMG) piste, dans le cadre de la loi Hadopi, les internautes qui téléchargent des films, des musiques... illégalement sur internet. Ce week-end un de ses serveurs a été piraté. Alain Guislain, le PDG de l'entreprise revient sur les faits et remet les données à l'heure.

« TMG est une PME d'une vingtaine de personnes basée à Saint-Sébastien-sur-Loire depuis 2006. En janvier 2010, nous avons répondu à un appel d'offres concernant la protection contre le téléchargement illicite sur internet. Aujourd'hui, nous sommes les seuls en France autorisés par la CNIL (commission nationale de l'information et des libertés) à offrir ce service. Nous avons mis au point un logiciel spécifique pour surveiller le « peer to peer » (applications qui permettent de télécharger des fichiers entre internautes). Nous transmettons ensuite ces informations aux différentes sociétés civiles d'ayant droit comme la Scam (société civile des auteurs multimédia).

« Dans la nuit de vendredi à samedi, nous avons été victimes d'un vol de données. Quelqu'un se vantait sur « la toile » d'un accès libre à notre serveur. Dans les faits, il ne s'agit pas de notre serveur principal, mais d'un serveur parallèle qui nous sert pour de tests. Cet ordinateur contient un certain nombre d'adresses IP (un numéro qui permet d'identifier un internaute). Sans lien direct avec la haute autorité, ces données piratées ne sont en aucun cas exploitables juridiquement.

« Nous avons porté plainte. Pour l'instant La Haute Autorité a rompu l'interconnexion informatique entre l'Hadopi et notre société. Actuellement la Cnil (Commission nationale de l'information et les libertés) est dans nos bureaux pour évaluer le préjudice. Mais, nous sommes confiants et désormais conscients de notre surface médiatique et des risques que cela suppose. »

Recueilli par Yves AUMONT.

mardi 17 mai 2011

TMG #Failed, la suite ...

TMG / Hadopi : les questions auxquelles il faudra répondre

Guillaume Champeau - publié le Mardi 17 Mai 2011 à 16h53 - posté dans Société 2.0

La fuite de données sur un serveur de TMG, prestataire indirect de l'Hadopi pour la collecte des adresses IP, pose un certain nombre de questions sérieuses auxquelles la CNIL et la Haute Autorité devront répondre.

1. Pourquoi la CNIL a-t-elle donné son autorisation de collecte des adresses IP à TMG contre toute logique ?

La CNIL a accordé aux industries musicales et cinématographiques le droit de faire appel aux services de TMG sur la seule base d'un rapport interne qui était pourtant accablant. "La Hadopi se limitera à accepter ou refuser les constats transmis, sans possibilité de les vérifier", notait le commissaire de la CNIL qui expliquait que même les agents assermentés qui tamponnent les constats ne pourraient pas matériellement "détecter des anomalies dans une session de collecte". Officiellement, les autorisations avaient été délivrées après avoir également entendu les observations du gouvernement. Sauf que celles-ci, comme nous l'avions révélé en octobre dernier, n'ont jamais existé. La CNIL a autorisé la collecte des adresses IP par TMG en sachant qu'elle comportait des risques, sans donner le moindre argument convaincant pour se justifier. Pire, elle nous expliquait alors qu'elle n'avait pas à permettre "à des tiers de comprendre pourquoi nous avons délivré l'autorisation".

2. Pourquoi des adresses IP figurent sur des fichiers datés d'avril 2008 ?

Comme nous le révélions dimanche, les documents trouvés sur le serveur de TMG et dont nous avons eu connaissance s'étalent sur une période allant du 2 avril 2008 au 14 mai 2011. Or la loi de 1978 oblige à la destruction des données personnelles après "la durée nécessaire aux finalités pour lesquelles elles sont collectées et traitées". Plus précise, l'autorisation délivrée par la CNIL impose à TMG de supprimer les données destinées à l'Hadopi 24 heures après leur collecte, et au plus tard trois jours après. Même à considérer que ces données ne sont pas liées à l'Hadopi, comme l'assurent TMG (et la SCPP qui utilise ses services), est-il normal de trouver ces adresses IP dans des fichiers datant de plus de trois ans ?

3. Pourquoi n'y a-t-il jamais eu d'audit externe de TMG ?

Dans son rapport accablant du 10 juin 2010, sur lequel elle s'est pourtant fondée pour donner son feu vert, la CNIL expliquait qu'il serait "préférable que le système de collecte soit «homologué» par un tiers de confiance", pour renforcer la sécurité juridique des constats". Or il a fallu attendre septembre 2010, une fois le contenu du rapport publié, pour que l'Hadopi évoque pour la première fois la possibilité d'un audit. "Nous étudions en ce moment les modalités de tels audits, de sorte qu'ils soient effectués dans la plus grande objectivité et indépendance", nous assurait à l'époque la Haute Autorité, qui parlait de "grande transparence sur ce dispositif". Depuis, l'Hadopi elle-même a visité les locaux de TMG, comme la CNIL, mais aucun audit extérieur n'a jamais été réalisé. Maintes fois annoncé, jamais entrepris. Pourquoi ?

4. Pourquoi les ayants droit n'ont pas procédé aux audits trimestriels prévus ?

Toujours dans le rapport de la CNIL, il était prévu que les ayants droit effectuent des "audits internes trimestriels" sur le système de TMG. Or comme le rapporte aujourd'hui PC Inpact, le patron de la SCPP reconnaît lui-même que ces audits n'ont jamais eu lieu. Il n'y a eu qu'un seul audit avant l'envoi des premiers e-mails, lors de la phase de tests. "Nous avons fait tous les tests chez TMG et il n’y a eu aucune erreur constatée. Par ailleurs était prévue une intervention de vérification de fiabilité des données transmises à la Hadopi avant cet été", se défend Marc Guez, le délégué général du lobby des maisons de disques. Accordons lui que cette question n'a pas beaucoup d'importance, puisqu'il était de toute façon idiot de demander aux bénéficiaires de la riposte graduée d'être eux-mêmes les gendarmes de l'honnêteté des procédures.

5 . Pourquoi la CNIL a-t-elle voulu cacher son avis sur la transmission des dossiers aux tribunaux ?

Au mois de mars dernier, le gouvernement a fait paraître un décret qui prévoit que les données collectées par TMG pourront être transmises aux tribunaux via l'Hadopi, de manière informatisée. Ce texte est extrêmement sensible, puisqu'il participe à une automatisation de la justice. La CNIL, qui a été appelée à donner son avis sur le texte, a toujours refusé de le transmettre au public et aux journalistes, alors qu'elle le fait spontanément pour d'autres textes. Il y a eu de la part de la Commission une volonté manifestement délibérée de ne pas faciliter les recours contre ce décret, ce qui lui vaut ce mardi d'être rattrapée par la CADA, qui donne raison à nos confrères de PCInpact. La CNIL sera obligée de transmettre le document, mais sans subir aucune conséquence pour sa mauvaise foi, faute de sanctions prévues dans les textes.

6. Pourquoi l'Hadopi refuse-t-elle de transmettre les PV de constat d'infractions aux justiciables avertis ?

Certains abonnés avertis par l'Hadopi ont utilisé notre modèle de réponse, pour demander communication du PV d'infraction, en vu éventuellement de le contester devant les tribunaux. Ils ont tous essuyé un échec, l'Hadopi expliquant de manière fort curieuse que "à ce stade de la procédure, nous ne pouvons accéder à votre demande dans la mesure où ce document ne contient pas de données à caractère personnel vous concernant". Ce qui nous amène à cette ultime question à laquelle devront répondre la CNIL et l'Hadopi :

7. Pourquoi la CNIL et l'Hadopi se rendent-ils chez TMG si l'adresse IP n'est pas une donnée personnelle ?

Nous avions déjà eu l'occasion de dire que pour estimer que l'adresse IP n'est pas une donnée personnelle, la présidente de la Commission de protection des droits (CPD) de l'Hadopi, Mireille Imbert-Quaretta, se fondait sur une interprétation fort contestable d'une jurisprudence de la cour de cassation. Nous pointions alors une première contradiction : "si l'adresse IP n'est pas une donnée personnelle, pourquoi les ayants droit ont-ils l'obligation de recueillir l'autorisation de la CNIL avant de collecter ces adresses IP ?". A l'époque, Mireille Imbert-Quaretta s'était retranchée derrière la séparation des pouvoirs entre les deux autorités administratives pour ne pas nous répondre.

Pourtant, nouvelle contradiction. Les seules données sensibles fuitées dans les documents de TMG sont des adresses IP. Or si les adresses IP ne sont pas des données personnelles, pourquoi la CNIL et l'Hadopi se sont-ils empressés de se rendre ensemble mardi matin à Nantes pour contrôler TMG ?

C'est là un piège inattendu tendu par ces fuites. Si la CNIL sanctionne, c'est qu'elle confirme que l'adresse IP est bien une donnée personnelle qui mérite protection. Or si l'adresse IP est une donnée personnelle, l'Hadopi sera dans l'obligation de communiquer les PV aux abonnés, qui pourront les contester devant les tribunaux. Si la CNIL ne sanctionne pas, il faudra qu'elle s'en explique avec de meilleurs arguments que ceux présentés par TMG.

Et vous, voyez-vous d'autres questions ?

lundi 16 mai 2011

Chez TMG samedi c'était Open Bar ...

Update 2 : Tiens, pour la peine ce soir je lâche mon ordinateur et je ressors mes synthés, ça me donne envie de recomposer ...


Update 1 : Vu sur twitter et sur 20 minutes.fr le 17/05/11

@CNIL CNIL Riposte graduée #HADOPI : la @CNIL est à Nantes pour contrôler #TMG à la suite de la fuite d’adresses IP

HADOPI - La CNIL doit se rendre prochainement à Nantes pour enquêter sur la fuite de Trident Media Guard, la société chargée de collecter pour les ayants-droits et l'Hadopi les IP des internautes qui s'échangent des fichiers illégaux...


TMG a-t-il laissé fuiter des données personnelles d’internautes par erreur? Alors qu’un de ses serveurs est resté sans protection, samedi dernier, laissant les adresses IP à la vue de tous, la société nantaise Trident Media Guard est désormais dans le viseur de la Commission nationale de l'informatique et des libertés (Cnil).


La protection des données en question

La Cnil a en effet annoncé mardi sur Twitter qu'elle était «à Nantes pour contrôler TMG à la suite de la fuite d’adresses IP». L’enquête de la Cnil est de déterminer les causes et les conséquences de cette fuite. En clair, si TMG protège suffisamment ses serveurs et si les données collectées sont fiables et sécurisées. L’Hadopi est de la visite et accompagne la Cnil, a précisé Eric Walter, le secrétaire général de l’Hadopi, sur le même canal.



Une façon de montrer que la haute autorité suit de près l’affaire, qu’elle a décidé de prendre «très au sérieux». En attendant que toute la lumière soit faite sur cette fuite, la Haute autorité a toutefois décidé de suspendre provisoire de ses liens avec TMG «par mesure de prévention», selon Eric Walter. «Le pire scénario pour la riposte graduée serait le retrait des autorisations délivrées par la Cnil à TMG, empêchant ainsi l'entreprise de poursuivre la collecte des adresses IP, prophétise Numerama. La riposte graduée serait alors neutralisée, au moins temporairement, puisque TMG est la seule société habilitée à intervenir sur les réseaux P2P.» Ce qui tomberait mal pour l’Hadopi qui a communiqué récemment sur l’impact de la loi sur le piratage.


----------------------------------


Notre ami Bluetouff nous a gentiment twitter. Normal, chez TMG, ce sont d'abord des chercheurs, donc j'imagine qu'ils expérimentent et que parfois ils diffusent à l'insu de leur plein gré. Perso, je mets plus celà sur le compte de l'incompétence que de la négligence caractérisée. Ces "gens", qui rappelons-le officient au sein d'une société privée, sont chargés de fliquer les réseaux P2P pour HADOPI et franchement ça fait peur. Remarquez, ça tombe bien, moi qui souhaitais organiser une prochaine session du vmug.fr sur la sécurisation des machines virtuelles en DMZ avec la collaboration de vrais auditeurs (qui m'ont d'ailleurs audité) de dans la vraie vie, ça fait un bon cas concret à évoquer dans le genre à ne pas faire .... Ah oui, cerise sur le gâteau : ça coûte combien déjà au contribuable ce truc ? Lisez plutot :



Reflets.info le 15/05/11 : Les p'tits trous, les p'tits trous...

C’est tellement énorme que c’est à se demander si TMG n’est pas récemment devenu une filiale de Sony, ou si ce que vous allez découvrir n’est pas un honeypot. A tout hasard, et vu qu’il y a quand même un paquet d’IP, nous n’allons pas faire tourner l’adresse de cette machine. Voilà en gros ce qu’on trouve de croustillant, il y a tout ce qu’il faut pour comprendre comment TMG procède et même plus :

un exécutable,
un password en clair dans un file de config
des hashing torrent des oeuvres surveillées pour piéger les internautes partageurs,
les scripts de traitement des logs,
les ip des connectés aux peers etc etc…).

Nous allons donc, de manière responsable, laisser TMG corriger ce qui ressemble quand même vachement à une négligence ultra caractérisée.

Le serveur ne présente strictement aucune protection tout est accessible, à portée de clic, c’est noël avant l’heure. Encore du grain à moudre pour les parlementaires qui s’inquiétaient qu’une société privée se voit confier une mission de monitoring de population et manipuler des quantités non négligeables de données personnelles sans contrôle sérieux.

Rappel : TMG, Trident Media Guard est une société privée mandatée par les ayants-droit pour relever les adresses IP des internautes en infraction sur les réseaux P2P.

Houston appelle la CNIL… répondez ! Allo la CNIL, we’ve got a problem !

______________________________________________________________

Vu sur Numerama.com :

Samedi, des milliers d'adresses IP et d'identifiants de fichiers surveillés sur BitTorrent ont été involontairement divulgués par la société TMG, qui collecte les adresses IP d'abonnés français dans le cadre de la riposte graduée. L'Hadopi, qui ne souhaite pas prononcer de moratoire avant d'avoir évalué la gravité des faits, dit prendre l'affaire "très au sérieux". Une enquête sur l'organisation des travaux de TMG sera ordonnée mercredi. Numerama, qui a pris connaissance des documents divulgués, confirme que des adresses IP françaises figurent dans les fuites.

Le contenu du serveur TMG

C'est Bluetouff qui a d'abord révélé l'affaire sur le site Reflets. L'un des serveurs de la société nantaise Trident Media Guard (TMG) s'est retrouvé samedi sans protection, laissant des fichiers potentiellement sensibles apparaître en clair. Or TMG n'est autre que la société nantaise employée par les sociétés d'ayants droit pour collecter les adresses IP d'internautes sur les réseaux P2P, dans le cadre de la riposte graduée mise en oeuvre par l'Hadopi.



Update : vu sur twitter et 20 minutes.fr - Créé le 17/05/2011 à 14h46

"Il y a tout ce qu’il faut pour comprendre comment TMG procède et même plus : un exécutable, un password en clair dans un [fichier de configuration], des hashing torrent des oeuvres surveillées pour piéger les internautes partageurs, les scripts de traitement des logs, les ip des connectés aux peers etc, etc…)", rapporte le blogueur.



Numerama a également reçu samedi soir une archive troublante de 5 342 fichiers issus d'un serveur de TMG. Le message était signé d'un internaute se revendiquant des Anonymous France. A son ouverture, on découvre pour l'essentiel une grande quantité de fichiers HTML portant comme nom les signatures uniques (hash) de fichiers surveillés par TMG sur BitTorrent, parfois déclinés en trois parties :

Les adresses IP des serveurs qui émettent les fichiers ("publish") ;
Les adresses IP des pairs connectés aux serveurs ("connected peers") ;
Les adresses IP obtenues par échange de sources ("PEX", pour "Peer Exchange").

Les fichiers les plus récents sont datés du 14 mai 2011, tandis que les plus anciens remontent à avril 2008 (ce qui, soit dit en passant, pose question sur la durée de conservation des données personnelles par TMG). Selon nos constatations, il s'agit le plus souvent d'adresses IP étrangères (américaines, suédoises, italiennes...), mais certaines adresses IP présentes dans les "connected peers" renvoient bien parfois à des internautes français.

Nous avons ainsi découvert, à titre d'exemple, l'adresse IP d'un abonné d'Orange habitant à Marseille, associée au partage d'une version française du film d'animation Hop qui doit sortir au cinéma le mois prochain. Son adresse IP était présente dans un fichier daté du samedi 14 mai à 8h43 :

Notre source nous explique que ces fichiers étaient visibles sur le serveur de TMG "depuis au moins trois jours", sans qu'il y ait eu besoin du moindre piratage pour y accéder. Le serveur, une machine virtuelle, n'aurait tout simplement pas été sécurisé pour en interdire l'accès depuis l'extérieur. Tout n'a cependant pas pu être récupéré, et notamment pas les scripts python employés par la société nantaise. Leur téléchargement était interdit par la configuration du serveur Apache, au contraire des fichiers HTML.

Au vu des hashs répertoriés, dont une partie a été copiée sur Pastebin, beaucoup des fichiers observés semblent concerner les activités "hors Hadopi" de TMG, pour le compte d'ayants droit étrangers. On constate en effet une forte domination de films en version originale non sous-titrée, qui ne doivent pas faire partie des priorités des ayants droit en France (on voit tout de même des oeuvres françaises comme "Mesrine, l'instinct de mort") . Mais ces fichiers révèlent aussi peut-être des failles dans la procédure de collecte. On voit en effet TMG collecter des données sur des fichiers qui n'ont a priori aucun intérêt, comme des fonds d'écran à la gloire de Michael Jackson. Or ces derniers ayant dans leur nom les mots clés "This Is It", on imagine qu'ils ont été automatiquement ajoutés à la liste des fichiers surveillés sans que le contenu soit vérifié.

L'Hadopi adoptera un protocole d'expertise des procédures de TMG

Contactée par Numerama, la Hadopi nous a affirmé dimanche "prendre très aux sérieux" cette affaire, qui tombe au plus mal. TMG est la seule société à disposer de l'autorisation de la CNIL pour la collecte des adresses IP pour le compte des ayants droit, et toute sanction à son égard mettrait donc la riposte graduée en panne. Comme un mauvais hasard de calendrier, c'est mercredi prochain que la Commission de Protection des Droits (CPD) de l'Hadopi doit adopter à l'encontre de TMG un "protocole d'expertise technique", alors que l'absence de contrôle de la société nantaise a été pointée du doigt depuis plusieurs années, et notamment par la CNIL elle-même - sans que ça ne l'empêche toutefois de donner son autorisation dans des conditions encore obscures et obscurcies. En septembre 2010, après que les critiques de la CNIL furent rendues publiques, l'Hadopi avait dit souhaiter des audits "objectifs et indépendants" de TMG. C'est cela qui doit être adopté mercredi, mais qui apparaît aujourd'hui trop tard.

Il n'est pas question cependant, nous précise l'Hadopi, de prononcer un moratoire en attendant les conclusions de la mission d'expertise qui sera dépêchée. La Haute Autorité ne souhaite pas mettre en pause la riposte graduée sans avoir pleinement mesuré la gravité ou non de la publication des données, qui ne sont que partielles. Bluetouff, qui avait révélé le premier l'information (mais qui se basait lui-même sur un tuyau), sera d'ailleurs amené à dire à la CPD d'ici mercredi tout ce qu'il a trouvé, pour aider l'Hadopi à évaluer l'ampleur de la divulgation et ses conséquences.

dimanche 15 mai 2011

Des news du ChatQuarium ...


Un nouveau venu ce week-end à la maison, demi-frère de Flocon : Figaro de la Gabellière. Ce beau brown blochted tabby très calin est aussi le fils de notre gros coon rouquin Elliot.


Nos deux bébés font connaissance en jouant


Notre petit Flocon a aujourd'hui 5 mois et fait ses 3,5kg


Eclipse, la maman de Flocon me voyant photographier, à aussi pris la pose sous le soleil




Notre immaculée coon Fée-line prend aussi la pose

samedi 14 mai 2011

Blogger a eu mal au Cloud à son tour



Plus de 20 heures d'indisponibilité pour l'accès aux pages d'édition de Blogger, pas mal ...

What a frustrating day. We’re very sorry that you’ve been unable to publish to Blogger for the past 20.5 hours. We’re nearly back to normal — you can publish again, and in the coming hours posts and comments that were temporarily removed should be restored. Thank you for your patience while we fix this situation. We use Blogger for our own blogs, so we’ve also felt your pain.

Here’s what happened: during scheduled maintenance work Wednesday night, we experienced some data corruption that impacted Blogger’s behavior. Since then, bloggers and readers may have experienced a variety of anomalies including intermittent outages, disappearing posts, and arriving at unintended blogs or error pages. A small subset of Blogger users (we estimate 0.16%) may have encountered additional problems specific to their accounts. Yesterday we returned Blogger to a pre-maintenance state and placed the service in read-only mode while we worked on restoring all content: that’s why you haven’t been able to publish. We rolled back to a version of Blogger as of Wednesday May 11th, so your posts since then were temporarily removed. Those are the posts that we’re in the progress of restoring.

Again, we are very sorry for the impact to our authors and readers. We try hard to ensure Blogger is always available for you to share your thoughts and opinions with the world, and we’ll do our best to prevent this from happening again.

Posted by Eddie Kessler, Tech Lead/Manager, Blogger


Résumé des évènements :



Friday, May 13, 2011

Blogger is back now. We're still working on restoring some of the data. Posted by Chang at 10:32 PDT


We’ve started restoring the posts that were temporarily removed and expect Blogger to be back to normal soon.

Posted by at 06:07 PDT


To get Blogger back to normal, all posts since 7:37am PDT on Weds, 5/11 have been temporarily removed. We expect everything to be back to normal soon. Sorry for the delay.

Posted by at 04:25 PDT

Thursday, May 12, 2011

Blogger will be in read-only mode while we resolve some maintenance issues. Sorry for the inconvenience.

Posted by at 12:34 PDT

mercredi 11 mai 2011

Comment utiliser un volume de plus de 2To dans une VM Windows en SAN sous vSphere ?

On m'a posé il y a quelques jours cette question qui peut comme ça surprendre. En effet, avec la recrudescence de fichiers multimedias, il n'est pas rare d'avoir des serveurs de fichiers hébergeant des volumes de plus de 2 To. Et là c'est le drame .... Sous vSphere 4.x, lorsque l'on utilise du SAN, (et en attendant mieux sous peu), notre hyperviseur fétiche vous gratifiiera d'un message d'insulte vous indiquant en substance qu'il ne supporte pas de volume de plus de 2To qu'il soit VMFS, RDM physique ou virtuel. Au passage, les heureux utilisateurs de vSphere avec des datastores montés en NFS n'aurons pas cette chance puisque qu'ils seront limités uniquement par la taille maxi que supporte leur baie de stockage.

Je vous recommande donc de créer le nombre suffisant de LUN avec la même taille dont le total correspondrait au volume total que vous souhaiteriez affecter à votre "large" disque windows.



On crée les LUNs sur le SAN : ici 4 volumes de 2To pour un total de 8 et on oublie pas de configurer correctement son multipathing.


On rescan les HBAs et on mappe les LUNs en RDM -pour bénéficier ici du cache de la baie Pillar plus efficace que celui de vSphere- sur la VM

On crée ensuite un volume windows en RAID 0 (striped) en cliquant sur l'un des nouveaux disques dynamiques nouvellement découverts. Pour éviter toute perte de données, je vous recommande très fortement de vous appuyer sur des LUNs physiques RAID 1, RAID5, RAID 6, RAID DP ...

On y ajoute tout nos nouveaux disques pour créer notre volume concaténé de la taille souhaitée

On formate ...

Au passage, on constate l'équilibrage de charge sur tous les LUNs ...

Voici le résultat dans le gestionnaire de disques

... et celui au niveau de l'interface Windows.

Je sais que ce n'est pas l'astuce du siècle, mais au moins ça marche et c'est supporté : ENJOY !

mardi 10 mai 2011

Consolidation du marché (suite) : Skype chez Microsoft

Vu sur le MagIT - Le 10 mai 2011 (16:14) - par Cyrille Chausson , Valery Marchive

Skype atterrit chez Microsoft pour 9,5 Md$

C’est officiel. Microsoft vient d’annoncer le rachat de Skype pour 8,5 Md$ en numéraire, au groupe d’investisseurs auquel eBay l’avait précédemment revendu. Le géant de Redmond prévoit d’enrichir plusieurs de ses produits grand public et d’entreprise en s’appuyant sur les services de communication audio et vidéo de Skype.

Alors que le Wall Street Journal dévoilait l’information hier soir, Microsoft vient de la confirmer : l’éditeur rachète Skype pour 8,5 Md$. Dans un communiqué, le géant de Redmond indique que cette opération doit «augmenter l’accessibilité des communications audio et vidéo temps réel, en apportant les bénéfices tant aux consommateurs qu’aux utilisateurs en entreprise et générant de nouvelles opportunités significatives d’activité et de revenus ». En particulier, Microsoft indique prévoir de connecter les utilisateurs de Skype avec «Lync [ex-Communications Server, NDLR], Outlook, Xbox Live et d’autres communautés ». C’est donc l’ensemble des offres de Microsoft susceptibles de permettre des communications temps réel qui sont là visées. Mais l’éditeur précise prévoir de «continuer d’investir dans et de supporter les clients Skype sur des plateformes tierces ». Une bonne nouvelle que les 170 millions d’utilisateurs de Skype prendront sûrement avec soulagement.

Fondé en 2003 par les créateurs de Kazaa, une application d'échange en Pair-à-Pair, Skype a été racheté par Ebay en 2005 pour 2,6 milliards de dollars. A l’époque, ce montant avait été jugé exhorbitant. Le spécialiste des enchères en ligne peinant effectivement à rentabiliser son activité Skype - certainement en ayant manqué le coche concernant l’intégration à ses services - Ebay avait alors cédé son outil à un fonds d’investissement en 2009. Skype a rarement été profitable, note par ailleurs le Wall Street Journal. En 2010, Skype a généré un CA de 860 millions de dollars, mais avec une perte de 7 millions de dollars.

Joint par téléphone, Olivier Rafal, consultant sénior au sein du cabinet d’analystes Pierre Audoin Consultants, relève pour sa part que, «dans le marché entreprise, Microsoft pourrait certes être tenté de profiter de la qualité technique de Skype, qui a démontré ses capacités de conversation multi-utilisateurs et de visioconférence, pour venir se positionner en frontal à WebEx [spécialiste de vidéo-conférence, propriété de Cisco]». Mais, pour lui, «les travaux d’intégration, destinés à fondre Skype dans les outils collaboratifs [de Microsoft, à commencer par Lync, NDLR], sont colossaux», constate-t-il en substance. «d’autant que les interactions entre les gammes de produits de Redmond, comme Lync - performant dans le présentiel - avec Outlook, sont très fortes,» ajoute-t-il. Des adhérences qu’il pourrait donc être difficile de revisiter mais qui semblent clé pour permettre à Microsoft de réussir là où eBay a précédemment échoué : retirer pleinement tous les bénéfices du rachat de Skype.

dimanche 8 mai 2011

Journée Insecticide ...


... enfin, génocide de mouches à moto. J'ai pas pu toutes les éviter.

Forfaiture ...


Je l'aurai un jour mon Greg .... je l'aurai !!!

samedi 7 mai 2011

CLEO : Livraison d'une rame de tramway en images


Non, la rame de tramway ne lévite pas ...
Elle est posée sur la remorque d'un convoi exceptionnel

Une rampe d'accès provisoire est posée sur une section de rails

la remorque vient s'y acoller au millimetre

Un opérateur pilote à l'aide d'une télécommande pilote un treuil
qui laisse descendre le chargement de la remorque sur la rampe


Il ne reste plus qu'à ranger la rame sur le remisage

jeudi 5 mai 2011

Upgrade de ChatQuarium ....

Voilà, c'est fait ! Nous nous sommes attelés à la tâche depuis plusieurs semaines pour le terminer, mais à présent nous permettons enfin à nos matous d'inaugurer l'enclos attenant leur chaquarium. Un peu timides au début, il y ont rapidement trouvé leurs habitudes. Nous allons agrémenter le tout d'un arbre à chat d'extérieur fait maison avec des troncs d'arbres.





Vue d'ensemble

Fanfan chasse déjà les insectes

Cassiopée attend les chauve-souris ...
Oui maître, c'est trop bien, j'ai vu des souris qui volent !

Il n'y a pas que la télé en 3D, il y a maintenant le transistor ....

Pour une fois, la loi de Moore est surpassée ...

Vu sur l'Express.fr

C'est la plus importante annonce de l'année pour Intel, qui la qualifie même d'historique. Selon le fabricant, le nouveau transistor Tri-Gate dévoilé mercredi à San Francisco lui permet de creuser l'écart avec ses concurrents en matière de performances et d'économies d'énergie.

Une prouesse qui s'avère nécessaire si Intel veut espérer rivaliser avec ARM sur le marché des puces pour smartphones. "Notre architecture X86 est aussi capable que celle d'ARM. Et avec Tri-Gate nous allons pouvoir fabriquer une puce à très faible consommation adaptée au marché du mobile", affirme Dadi Perlmutter, responsable pour le développement des puces X86 (mobile, PC et serveur) chez Intel. Pourtant les premiers processeurs Atom équipés des transistors Tri-Gate ne sont pas attendus avec la fin 2012 au plus tôt. "Notre but est de réduire l'écart qui existe entre la sortie des puces PC avec Tri-Gate et d'Atom. Mais ça prendra encore quelques années", reconnaît-il.

Décryptage avec Mark Bohr, l'un des inventeurs du transistor Tri-Gate chez Intel, interrogé en exclusivité pour LExpansion.com.

Les transistors 3D. C'est vraiment nouveau?

On a commencé à en parler en 2002. A l'époque c'était une idée ingénieuse, mais qui n'était pas réalisable. Il nous a fallu presqu'une décennie pour prouver que l'on peut fabriquer de tels transistors en volume et à bon marché.

En quoi ce transistor Tri-Gate est-il révolutionnaire?

C'est la première fois en plus de 50 ans que l'on modifie à l'architecture même du transistor. Jusqu'à présent, les transistors dits MOS étaient "plats", rangés l'un à côté de l'autre. Avec Tri-Gate, on est désormais capable de les empiler. L'avantage est que nous aurons un meilleur contrôle sur la consommation d'énergie du processeur, puisqu'il sera possible d'allumer et d'éteindre une "pile" de transistors quasi-instantanément. Ce qui rendra les puces encore plus rapides, tout en réduisant les fuites de courant. Or c'est déperditions sont un des gros problèmes à mesure que vous réduisez la taille des transistors, de 32 nanomètres à 22 et plus tard à 14.

La simple miniaturisation des transistors permet déjà ce bond en performances. En quoi est-ce différent avec cette prochaine génération?

Effectivement, si nous avions simplement réduits les transistors d'aujourd'hui de 32 à 22 nanomètres, on aurait obtenu un gain de performances de moins de 20%. Avec Tri-Gate, on atteint près du double! En fait, on a réussi de dépasser la loi de Moore qui veut que les performances d'une génération à une autre double tous les 18 mois. Avec cette invention, nous avons désormais plus de 4 ans d'avance sur nos concurrents les plus proches (GlobalFoundries, IBM, Samsung et TSMC, NDLR). C'est énorme. Surtout que cette technologie sera aussi utilisable lorsque l'on passera à un pas de 14 nanomètres, dans quelques années.

Où verrons nous apparaître ces nouveaux transistors?

Tri-Gate sera dans tous les puces d'Intel à partir du début de l'année prochaine. Avec Tri-Gate, une page est définitivement tournée puisque c'est la fin des transistors MOS. Même si les processeurs pour PC et serveurs seront les premiers à utiliser ce nouveau transistor, ce sont les puces Atom qui bénéficieront des importantes réductions de consommation de Tri-Gate.

Ces transistors 3D coûteront-ils plus chers?

Ils seront plus chers a fabriquer, d'environ 10%, par rapport a la génération actuelle. Mais on pourra réutiliser la majorité de nos outils de fabrication pour produire Tri-Gate.

Faut-il alors s'attendre à une augmentation du prix des puces?

C'est encore trop tôt pour vous répondre.

Soirée avec Mike Brewer de Pillar Data le 24 mai prochain

Komposite organise le 24 mai prochain une soirée à l'hippodrome de Vincennes avec la présence de Mike Brewer, l'un des papas de le baie Pillar Data Axiom. pour vous inscrire, rendez-vous ICI

mercredi 4 mai 2011

Vu sur le MagIT - Paul Maritz, VMware, aux DSI français : « faites votre Cloud »

De passage à Paris pour le VMware Forum Paul Maritz, Pdg de l’éditeur historique d’outils de virtualisation de serveurs, a fait le point sur les évolutions de la société et sur celle des systèmes d’information. Fort de résultats qui l’ont vu grimper dans la hiérarchie des éditeurs, VMware veut occuper une place centrale dans la révolution Cloud Computing qui promet une évolution radicale des SI.

« Faites votre Cloud », a déclaré Paul Maritz, Pdg de VMware en conclusion de sa présentation sur le VMware Forum qui s’est déroulé mardi 3 Mai au CNIT à Paris La Défense. Devant un auditoire de plus de 1 000 clients français de l’éditeur, le patron du groupe a profité de cette 4éme édition pour rappeler quelques grands principes dans le cadre de la migration actuelle des systèmes d’information vers le Cloud Computing. Et notamment que la virtualisation des infrastructures – là où la société se positionne comme un acteur incontournable – n’était que le début de l’histoire.

Selon Paul Maritz, la plupart des entreprises sont d’ailleurs déjà en fin de cycle de cette première phase vers le Cloud Computing. Désormais, chaque organisation est à même d’étudier les avantages qu’il y aurait à franchir le pas suivant, tant sur l’amélioration de la qualité que dans l’agilité gagnée dans l’exploitation des applications critiques.

5e éditeur mondial en quelques années
VMWare (propriété d’EMC) se comporte en véritable éditeur indépendant. Paul Maritz a ainsi rappelé qu’il dirigeait désormais le 5ème éditeur mondial de logiciels en termes de chiffre d’affaires. Avec des revenus annuels de prés de 3 milliards de dollars, le leader mondial des logiciels de virtualisation continue d’enregistrer une forte croissance. Au premier trimestre de son exercice fiscal 2011, la société américaine a annoncé des revenus en hausse de 33 % par rapport au même trimestre de l’année précédente.

Un discours qui projette également VMWare vers cette prochaine étape en positionnant plus directement l’éditeur au cœur de l’évolution des systèmes d’information. Confirmation ainsi, par son dirigeant, le virage pris par l’éditeur qui, à force de rachats, est en passe de proposer une offre de solutions cloud complète comme nous l’écrivions il y a tout juste quelques jours. Pour mieux appuyer cette approche globale et orientée solution, au-delà de l’infrastructure, le directeur général de la filiale française, Hervé Huzan, a d’ailleurs annoncé une référence française majeure dans la virtualisation des applications SAP.

Et Paul Maritz ne semble pas vouloir en rester là. D’étape en étape, le patron de VMware dessine les contours d’une transformation radicale des systèmes d’information. Selon lui, elle s’appuie sur trois piliers : des infrastructures simplifiées, optimisées et automatisées, une forte agilité dans le provisioning de ressources informatiques et de logiciels (en mode SaaS) et enfin une forte capacité à intégrer les plateformes mobiles (smartphones, tablettes) avec un maximum de sécurité.

Sur le chemin de cette mutation, il rappelle en passant que VMware vFabric et CloudFoundry (la plateforme PaaS ouverte de VMware) seront des solutions pour mieux tirer parti des architectures Cloud Computing. Et cela, quel que soit le choix des entreprises entre Cloud Hébergé, Cloud Privé, Cloud Hybride ou encore Cloud Public. Sur le Cloud Public, Paul Maritz a d’ailleurs une vision d’avant-garde, considèrant notamment qu’il s’agit du nouveau « rate card » de l’industrie informatique. Le mètre étalon des futurs systèmes d’information pour lesquels les DSI vont devoir s’habituer à acheter et facturer autrement leurs services informatiques. Une vision d’ores et déjà partagée par les grands fournisseurs d’infrastructure du marché mais moins, semble-t-il, par les leaders des logiciels d’applications.

mardi 3 mai 2011

Aujourd'hui c'était vForum au CNIT



Eric Debray, Cyril Dachon, Alexei Kounine & Kareen Frascaria sur le stand Cisco

Stéphane Croix & Sylvain Siou

Paul Maritz, CEO de VMware et pour la première fois à Paris,
nous a (re)présenté sa vision du Cloud


Philippe Incherman en pleine démonstration

Sylvain & Julien. Question : serons-nous vExpert 2011 ???


Eric Monjoin prodiguant ses conseils pour l'usage de VMware View


Beaucoup de succès pour les démonstrations technologiques


Une petite visite en vidéo ... (attendez la fin !)