samedi 31 juillet 2010

Hadopi : les spécifications super top secrètes ...

En lisant ce document des spécifications fonctionnelles, trois choses me viennent à l'esprit :
- on y trouve des spécifications techniques ....
- les gens qui ont rédigé les spécifications techniques ont-elles des actions chez Netasq ou Fortinet ?
- On va imposer l'achat de boitiers IPS/IDS à la maison pour les particulier parce que ça m'étonnerait qu'un soft puisse traiter 20 Mo/s de flux en niveau 7 sans avoir d'impact sérieux sur la fluidité du surf. Bref, comme d'hab ce sont les mêmes qui vont trinquer pécunièrement parlant.

Telex : inaccessible nouvel épisode

Il avait été évoqué un mauvais dimensionnement de l"infrastrtucture qui aurait mené à l'indisponibilité. En fait, pages inaccessibles et traduction en ligne seraient la cause de tous les maux.

vendredi 30 juillet 2010

FCoE, la suite !

Après un an d'utilisation en production de FCoE, je peux dire que c'est plutôt pas mal pour une version 1 : aucun arrêt de production, upgrades de firmware sans histoire, souplesse en terme de cablage et performances à l'avenant.

Au passage, le Nexus 1000v ne déroge pas à la règle avec un léger bémol pour les montées de version qui mériteraient d'être mieux intégrés aux outils d'upgrade de vSphere.

End-to-end FCoE storage a work in progress - 29 Jul 2010 Carol Sliwa

Plans for Fibre Channel over Ethernet storage (FCoE storage) started to gel more than three years ago, and while many of the pieces to allow IT shops to run LAN and SAN traffic over a 10 Gigabit Ethernet (10 GbE) converged network are in place, they're not all ready: Multi-hop, switch-to-switch FCoE involving a core switch isn't yet possible. But FCoE prospects should improve toward the end of this year as key standards inch closer to finalization.

In the meantime, the most common approach is to go with FCoE between the servers and top-of-rack switches that separate Ethernet LAN traffic from Fibre Channel (FC) SAN traffic. The SAN traffic continues via FC to the core switches and storage arrays. Only the access layer between the servers and switches is 10 GbE.

Far fewer IT shops have blazed the full FCoE trail from the front-end servers to the back-end disk arrays. NetApp Inc. claims that a small number of its customers run FCoE end-to-end from top-of-rack switches directly to its storage. But enterprise IT shops tend to prefer a more sophisticated, scalable architecture that includes one or more core switches, such as Brocade Communications Systems Inc.'s DCX Backbone or Cisco Systems Inc.'s MDS Multilayer Directors or Ethernet-based Nexus 7000, to aggregate their data storage traffic.

Last fall, Brocade began shipping an FCoE 10-24 blade switch for its DCX Backbone that enables customers to do end-to-end FCoE if used with NetApp storage. But Stuart Miniman, principal research contributor at The Wikibon Project, advises against using the switch in production until Brocade has a high-availability solution later this year. Meanwhile, Brocade rival Cisco has pledged FCoE support for its Nexus 7000 and MDS switches by year's end. Cisco currently supports FCoE in its Nexus 5000 top-of-rack switch and Nexus 4000 blade switch for x86-based blade servers.

The Nexus 4000 and Nexus 5000 are among the few switch pairs that can go FCoE-to-FCoE. The Nexus 4000 supports the FCoE Initialization Protocol (FIP) and, as a result, can connect to the Nexus 5000, an FC Forwarder (FCF). But standards that enable FCoE between multiple FCFs remain under development.

An FCoE standard is a concern of more than a few IT shops as they weigh the merits of the technology. The main standard allowing Fibre Channel to run over Ethernet was approved a year ago and finally reached ANSI standardization this year. However, the Data Center Bridging (DCB) Ethernet enhancements to ensure that FCoE traffic can be transported without packet loss and that bandwidth can effectively be shared between LAN and SAN traffic have yet to reach completion.

"The position of the networking component vendors is that even though the standards are not finally signed off, they have been stable and debated to the point of stability for quite some time," said Robert Passmore, a research vice president at Gartner Inc. "Their belief is that, if there are last-minute changes, they'll be able to deal with them in firmware. Whether that's true or not, we'll know when it's all over."
Once all of the pieces for the converged network fall into place, the potential upside includes fewer cables and adapters, consolidated switch ports and lower power consumption.
Those who want to get started with FCoE storage right now will need the following:

The main FCoE cable options are twinaxial copper, known as twinax, and OM2 and OM3 fiber optic. The black twinax needs less power and costs less than the OM2 and OM3, but its distance limitations will likely restrict its use to server racks. For especially large or geographically dispersed data centers, some users may need to forego multi-mode fiber optic cable in favor of single-mode fiber optic, which can traverse greater distances.

Users also need SFP+ transceivers for FCoE, but their resellers or server or storage vendors will likely take care of the details once they make the choice of copper or optical cabling.

A move to FCoE will likely dovetail with the purchase of new servers, and the equation will factor in converged network adapters (CNAs). The CNAs combine the functionality of an Ethernet network interface card (Ethernet NIC) and Fibre Channel host bus adapters (Fibre Channel HBA), and reduce the number of adapters an IT shop needs to purchase.
Brocade, Emulex Corp. and QLogic Corp. initially delivered CNAs to their OEM partners and resellers in the traditional form factor that slides into a PCI Express (PCIe) slot. More recently, they've been working on CNAs for the server motherboard and CNAs embedded as mezzanine cards in blade servers. Hewlett-Packard (HP) Co., for instance, announced a partnership with Emulex to integrate its Universal CNA (UCNA) on server motherboards.
The price differential isn't insignificant between CNAs for copper and short-reach optical. The manufacturer's suggested retail price (MSRP) for an Emulex dual-port OneConnect UCNA for FCoE with direct-attach copper is $1,775 and $2,695 with short-reach optical. QLogic's MSRP for its dual-port CNA for copper is $2,795; short-reach optical is $4,130.
Users typically get their CNAs from resellers, or their enterprise server or storage vendors. EMC Corp., for instance, resells CNAs from Brocade, Emulex and QLogic, while NetApp offers CNAs from Brocade and QLogic.

Brocade and Cisco have supported FCoE in their fabric switches since last year, but uniform support in chassis-based, director-class switches and multi-hop capabilities are still missing.
Customers still can't go Fibre Channel over Ethernet from a top-of-rack switch to a core switch, or from one top-of-rack switch to another top-of-rack switch such as Cisco's Nexus 5000 or Brocade's 8000. Switch-to-switch FCoE communication is restricted mainly to switches embedded in blade servers and top-of-rack switches.
Until its Nexus 7000 and MDS add FCoE support, the Cisco FCoE switch products consist of the Nexus 5020 with 40 fixed 10 GbE ports and two expansion modules; the Nexus 5010 with 20 fixed 10 GbE ports and one expansion module; the Nexus 4000 switch for blade servers; and the Nexus 2232PP fabric extender.
The Brocade 8000 top-of-rack switch supplies 24 10 GbE ports and eight FC ports, while its FCoE 10-24 blade switch for the DCX Backbone has 24 enhanced 10 GbE ports. Servers can connect directly to the 10-24 blade switch, with the potential to go FCoE to NetApp storage.

In June, Hewlett-Packard announced a deal with QLogic for a new FCoE switch in its Virtual Connect FlexFabric 10 GbE/24-port module for its c-Class BladeSystem. The new offering, which is currently shipping, marks QLogic's entry into the FCoE switch market.
IT shops often purchase switches through their resellers or storage vendors. NetApp, for instance, resells Cisco and Brocade switches. EMC rebrands switches from Brocade and Cisco and sells them through its Connectrix product line.

NetApp was the first storage vendor to promote FCoE support, offering QLogic dual-port unified target adapters to plug into the PCIe slots of its high-end FAS6000 series; midrange FAS3100, FAS3040 and FAS3070 series; as well as the low-end FAS2050. The vendor's V6000 and V3100 also support Fibre Channel over Ethernet.
NetApp's long-term goal is to offer built-in 10 GbE ports on its controllers, but the company declined to specify a time frame.
In the meantime, NetApp claims it can allow not only FCoE traffic, but iSCSI and NAS, through a single port via unified target adapters. So far, the company has made available iSCSI via a product variance for proof-of-concept purposes only. NetApp has said it will add NAS support this year.
Beyond NetApp, data storage vendors haven't been in any mad rush to support FCoE. EMC, for instance, isn't due to add native FCoE support to its Clariion and Symmetrix arrays until later this year.

One potential drawback with Fibre Channel over Ethernet is the lack of management capabilities. Gartner's Passmore said the storage resource management (SRM) tools IT shops use to manage their Fibre Channel networks aren't able to monitor 10 GbE networks.
"The tools that normally show you the entire path, end to end, can't see the insides of the Ethernet network. It looks like a cloud," Passmore said. "And the tools that manage the Ethernet network aren't aware of storage. So, at least in the short term, the use of FCoE makes you blind to part of the path."

mercredi 28 juillet 2010

Processeur : le photon pour remplacer l'électron

C'est marrant, on en parlait il y a quelques jours avec mon ami Parcal B. ....

Vu sur l'

Les laboratoires d’Intel à Santa Clara avancent vite et viennent de confirmer que la lumière sur des faisceaux lasers peut être utilisée dans des processeurs sur des liens photoniques.

Jusqu’à présent les processeurs fonctionnent par le transfert d’électrons qui transportent les données dans et autour des ordinateurs. Ces électrons connaissent cependant des limites et certains défauts comme l’échauffement. De plus le recours à des métaux comme le cuivre comme support de ce transfert induit des pertes de signaux et de puissance. Les câbles sont de plus de tailles limitées n’autorisant que des espaces contraints où les composants nécessaires au fonctionnement de l’ordinateur ne sont distants que de quelques centimètres.

Depuis des années, les scientifiques cherchent donc des alternatives qui permettraient de transférer les données plus vite et dépassant ces différentes contraintes. La photonique et le recours aux fibres optiques sont une des alternatives envisagées. Intel vient de faire la démonstration d’une puce exploitant la technologie de laser silicium hybride autorisant des liaisons jusqu’à 50 Gigabits par seconde. La puce supporte 4 de ces lasers. Ces rayons sont ensuite associés pour être réunis sur une seule fibre optique. A la réception une autre puce resépare les 4 rayons et les redirigent vers des photodétecteurs qui les convertissent en signal électronique.

Selon Intel cette démonstration n’est qu’une étape pour atteindre des liaisons à 1 tbits/s à terme. Les applications possibles sont alors quasiment sans barrière en particulier dans les environnements de HPC.

Jailbreaker devient légal aux Etats-Unis

Vu sur :

Le DMCA régit le droit d’auteur aux États-Unis. Il vient d’être modifié et bascule en faveur des consommateurs qui peuvent désormais jailbreaker leurs mobiles, n’en déplaise à Apple.

PublicitéLe Digital Millenium Copyright Act (DMCA), la loi américaine régissant le droit d’auteur, fait des émules. Les opérations de type jailbreak et desimlock d'un smartphone ne sont pas encore légion outre-Atlantique mais cela ne saurait tarder puisque c’est désormais légal, dixit le Congrès le 26 juillet. Comme le stipule la loi américaine, il revoyait les closes du DMCA.

La possibilité de déverrouiller les systèmes des téléphones portables et l’extraction de séquences d’un DVD, si elle est réalisée à des fins documentaires ou éducatives, feront partie des passe-temps légaux des petits (et des plus grands) américains. Des pratiques qui ne réjouissent ni The Motion Picture Association of America, qui défend les intérêts de l'industrie cinématographique américaine, ni Apple, qui craint pour ses iPhone.

Désormais, les détenteurs d’iPhone qui souhaitent installer sur leur smartphone des applications et logiciels non reconnus par Apple pourront le faire et sans risquer de perdre la garantie accordée par la firme. De même, les américains ne seront plus cantonnés, dans le cas de l’iPhone, à l’unique distributeur d’Apple, AT&T. Liberté !

Electronic Frontier Foundation (EFF), une organisation de défense des libertés électroniques, a donc sabré le champagne. En témoignent les déclarations sur son site : « en accordant toutes les demandes de l'EFF, le Bureau du droit d'auteur et la bibliothèque du Congrès a pris trois mesures importantes aujourd'hui pour atténuer certains des préjudices causés par le DMCA », a déclaré Jennifer Granick, directrice des libertés civiles au sein de l'EFF.

Téléphones portables désimlockés donc, mais aussi extraction de séquences d’un DVD lorsqu’elles sont destinées à des fins éducatives et documentaires ou à l'intégration dans une vidéo non commerciale.

Apple n’a pas encore fait de déclarations mais The Register rappelle qu’en mai 2009, Apple se déchainait contre le jailbreaking. La firme de Cupertino citait les risques liées à cette pratique : « l'instabilité des systèmes, la sécurité des produits (recharge de la batterie entre autres), l'invasion possible de la vie privée, les virus, l’impossibilité de mettre à jour des logiciels, et - bien sûr - le porno. »

lundi 26 juillet 2010

La virtu ça parle, le Cloud moins ....

La virtualisation plus concrète et plus attractive que le cloud

Edition du 23/07/2010 - par Jean Elyan / IDG News Service

Selon les analystes, les technologies de virtualisation continue de se propager, alors que le cloud computing souffre d'une moins bonne visibilité.

La virtualisation facilite la consolidation et la maintenance d'un ensemble de serveurs. Elle justifie ainsi des coûts élevés par rapport à des évolutions matérielles conséquents. " L'un de nos clients a pu justifier un renouvellement de serveurs, car il n'avait pas besoin de payer des licences serveurs VMware supplémentaires " a déclaré Chris Wolf, analyste infrastructures au Gartner. " Ils se sont équipés de serveurs à 12 coeurs pour remplacer des serveurs 4 coeurs et peuvent désormais exécuter plus de machines virtuelles sur moins de serveurs, représentant ainsi des économies importantes."

Paul McWilliams, rédacteur en chef de, un site financier axé sur les investissements technologiques souligne que " la plupart des technologies de rupture aboutissent à d'importantes économies uniquement lors de la première implémentation. Toutefois, l'amélioration de la puissance des serveurs x86, de meilleurs mécanismes d'accélération des serveurs virtuels à base de processeurs Intel et AMD, ajouté au nombre croissant de produits spécifiquement conçus pour les machines virtuelles, autorisent des réductions de coûts, même pour la seconde ou la troisième génération d'infrastructures virtuelles." Il ajoute que " si la première génération de solutions de virtualisation était concentrée sur les processeurs, aujourd'hui, elles s'étendent au niveau matériel, réseaux et stockage pour travailler plus efficacement."

Une sémantique difficile à appréhender

Un rapport d'IDC publié en juin estimait qu'en 2009 les services Cloud comptaient pour 16 milliards de dollars dans les 2,5 trilliards de dollars de dépenses mondiales consacrées à l'informatique, prévoyant que ce chiffre atteindrait les 55,5 milliards de dollars d'ici à 2014, soit 12% de toutes les dépenses en IT. Pour sa part, un rapport publié le 6 juillet par Forrester Research indique que "nombre de clients prêts à investir dans le Cloud Computing et les technologies afférentes, souffrent de la confusion qui règne autour du Cloud."

Selon ses conclusions, le trouble vient d'une part des fournisseurs qui appliquent le terme " cloud " à tous les produits de leur catalogue, d'autre part de l'incapacité des vendeurs à expliquer clairement les avantages de cette technologie. " De nombreuses entreprises hésitent à se lancer dans le cloud computing. Au contraire, ils connaissent les avantages concrets qu'ils peuvent tirer des technologies de virtualisation sur lequel les services cloud devraient être construits," explique Bernard Golden, PDG du cabinet de consultant Hyperstratus et blogueur de " Vous démarrez la virtualisation avec un niveau de base et vous ajoutez plusieurs couches pour obtenir plus de souplesse ou de la résilience, jusqu'à avoir éventuellement une automatisation complète, une gouvernance et d'autres éléments que vous associez au cloud computing," déclare t-il.

Un phénomène inéluctable

Chris Wolf indique qu' "il existe un écart sur l'adoption des services de base de la virtualisation " et d'ajouter " Les primo-adoptants affichent un taux de virtualisation situé entre 60 et 100 % ; les tardifs se situent généralement entre 20 et 40 %." La concurrence reste vive, explique-t-il, sur ces outils primaires de virtualisation. " Les clients qui planifient des projets Cloud sur le court terme ont tendance à exécuter VMware; ceux plus axés sur les coûts se tournent souvent vers Microsoft ou Citrix."

Même si les investisseurs optimistes placent la valeur marchande de VMware à 29 milliards de dollars avec un ratio coût/bénéfice "gonflé" à 140," déclare Paul McWilliams, " la virtualisation va continuer à stimuler les ventes des stocks et des produits IT. " J'aurais du mal à citer une entreprise de technologie qui dit avoir vu baisser la demande matériel. En général la plupart disent plutôt que la demande reste forte ou qu'elle est meilleure," dit encore Paul McWilliams. " La virtualisation est particulièrement attractive. Une fois que vous l'avez essayé, vous ne pouvez plus vous en passer."

dimanche 25 juillet 2010

Mon copain Julien : a google celebrity !

Telex : WPA2 aurait une faiblesse ...

A lire sur PC Inpact. Si ça continue, on va bientôt pouvoir tous s'installer à la maison des contrôleurs wifi avec IDS pour éviter de se faire pirater la ligne ....

A quand le reset de magnétoscope chez Orleans TV ?

Sur le canal 25, les orléanais dispose encore des restes d'une chaine locale appelée Orleans TV.

A son lancement en 2007, l'effectif comprenait 25 employés qui nous proposait des programmes locaux dont un journal quotidien et quelques émissions intéressantes comme Eco & CO ...

Mais l'entreprise, comme nombre d'autres homologues, n'a jamais pu trouver son équilibre financier et après une longue agonie l'ensemble du personnel a été licencié. Depuis son rachat par Concord Telecom une filiale de Bernard Krief Consulting déjà propriétaire de Cap 24, nous n'avons plus droit qu'à des rediffusions qui sont franchement inregardable depuis des semaines faute à une image saccadée comme si les magnétoscopes vivaiant leur vie, le site Web reste lui désespérément vide ... CSA, lève-toi !

Exemple de ce que nous subissons, si c'est saccadé c'est 'normal' ...

Crash d'un F18 à Lethbridge County Airport

Photos : Ian Martens / Lethbridge Herald

Impressionnant shoot du crash d'un F18 Canadien qui a eu lieu vendredi 23 juillet, le pilote est sain et sauf

samedi 24 juillet 2010

Dell en route vers les Clouds ?

Avez-vous tout ce que Dell a acquis ne serait-ce que depuis 12 mois ? Quelques exemples :

- Perot Systems, société spécialisée dans les services
- Ocarina Networks qui n'a pas à rougir face à Data Domain dans le domaine de la dédup
- Scalent éditeur d'un ensemble de logiciel pour créer et piloter des datacenters dynamiquement
- Exanet, le NAS réparti hautement scalable
- Kace éditeur d'un outil d'assets Management.

Couplés à ses offre serveurs, postes de travail, réseaux et stockage Equalogic, celà nous donne une offre très prometteuse de bout en bout .

Prenez par exemple les produits Equalogic PS6000, couplez-y le NAS Exanet sur des switchs Power Connect, vous obtenez une offre de produits hautement évolutive apte à répondre aux besoins allant du SMB jusqu'à un Cloud Public massif. On pourrait presque dire que Dell pourrait réussir là ou NetAPP a échoué avec Spinnaker ... Ajoutez Ocarina pour les aspects backup VTL et la compression sur les volumes au-delà du Tier 2, ça pourrait vraiment avoir de la gueule ! J'imagine le tout aux prix Dell ....

Que manquerait-il à Dell pour boucler son offre .... un hyperviseur peut-être ?

jeudi 22 juillet 2010

RIM2APPLE : Nos antennes à nous vont bien

RIM Co-CEOs in response to misleading comments by Apple

Apple’s attempt to draw RIM into Apple’s self-made debacle is unacceptable. Apple’s claims about RIM products appear to be deliberate attempts to distort the public’s understanding of an antenna design issue and to deflect attention from Apple’s difficult situation. RIM is a global leader in antenna design and has been successfully designing industry-leading wireless data products with efficient and effective radio performance for over 20 years. During that time, RIM has avoided designs like the one Apple used in the iPhone 4 and instead has used innovative designs which reduce the risk for dropped calls, especially in areas of lower coverage.

One thing is for certain, RIM’s customers don’t need to use a case for their BlackBerry® smartphone to maintain proper connectivity. Apple clearly made certain design decisions and it should take responsibility for these decisions rather than trying to draw RIM and others into a situation that relates specifically to Apple.
Mike Lazaridis and Jim Balsillie

Dedup : un point à lire sur le MagIT

Un article bien intéressant à lire ici.

Clin d'oeil au passé

Au détour d'un site local d'informations, je suis tombé sur cet article ou un habitant d'une petite ville de champagne répare quelques inexactitudes relatées dans un ouvrage traitant de ma cité natale. La phrase "Nos lecteurs pourront-ils confirmer ces propos ?" en fin d'article m'a beaucoup fait rire puisque Gilbert Delalandre fut ni plus ni moins que l'un de mes profs d'histoire avec un look improbable ou dans mes souvenirs une corde lui faisait office de ceinture. A la fois passionné de pêche, de chasse, d'écologie, d'une gentillesse sans pareille il est surtout l'un des plus érudit qu'il m'ait été donné de cotoyer et je ne doute pas une seule seconde de ses affirmations. ... Comme quoi il ne faut pas se fier aux apparences.

Vu sur L'est Eclair : « Regards croisés » croise l'avis d'un Baralbin

Prochain ouvrage de Jean-Claude Czmara Regards croisés n'a pas manqué d'être salué par la presse locale, ce qui est naturel quand il s'agit du livre d'un auteur local. Mais quand on touche au patrimoine baralbin, à son histoire et son vécu, il y a de nombreux lecteurs attentifs, souvent érudits et qui sont de véritables mémoires vivantes du passé.

Sacré Montagnard !

Pour Gilbert Delalandre, il y a une confusion émise lors de la présentation de la photo d'aujourd'hui et celle d'hier (notre édition du 18 juillet dernier). En effet, selon Gilbert Delalandre : « Les derniers seniors, natifs de Bar-sur-Aube qui ont lu l'annonce de « Regards croisés » doivent savoir que l'ancien café du centre, « Le Montagnard », 59 rue de la rue Nationale, n'a pu remplacer le café « Dangin-Hadey » qui était situé au 7 de la même rue, c'est-à-dire vingt-cinq immeubles plus loin en direction de Chaumont. « Le Montagnard » n'est donc pas l'ancien café Dangin-Hadé. »

Peut-être qu'un autre lecteur contestera les affirmations de Gilbert Delalandre, mais si ce débat enrichissant permet à chaque Baralbin de mieux connaître sa ville et sa riche histoire, l'intérêt n'est pas négligeable. Gilbert Delalandre assure même que le 59 rue Nationale fut la maison natale de Gaston Bachelard qui y vit le jour au premier étage.

Nos lecteurs pourront-ils confirmer ces propos ? Une page de l'histoire locale s'ouvre.

Update du 29/7/10 :

Mais où est né Gaston Bachelard ?

L'échoppe de cordonnier du père de Gaston Bachelard serait bien au numéro 59 rue Nationale

Les précisions de Gilbert Delalandre la semaine dernière sur l'antériorité de l'actuel restaurant « Le Montagnard », et ses commentaires sur le lieu de naissance de Gaston Bachelard, a relancé le débat. Gilbert Delalandre assure devoir une autre explication aux lecteurs et nous lui prêtons bien volontiers ce petit espace dédié à l'histoire de Bar-sur-Aube.

Refonte des rues

« Faire naître notre philosophe au 59 de la rue Nationale a de quoi surprendre, assure Gilbert. D'autant que de mémoire populaire, on désigne plutôt le 119 ; c'est-à-dire la boutique Maës comme sa maison natale. Mes recherches m'ont, par hasard, conduit à corriger l'erreur que je partageais avec le plus grand nombre. En exploitant l'état civil des années 1884 et 1888, je découvris que Louis Bachelard (1851-1925) eut deux fils qu'il déclara devant le maire Léon Berrard. Le premier Gaston naquit le 27 juin 1884 rue Saint-Michel (acte n°45). Le second, Georges, vit le jour le 19 novembre rue Notre-Dame (acte n°85). Les rues Saint-Michel (entre l'hôtel de ville et le faubourg de Belfort) et Notre-Dame (entre l'hôtel de ville et le faubourg de Paris) seront réunies en 1981 pour former l'actuelle rue Nationale avec sa numérotation. Le premier logis des Bachelard qui vit naître Gaston comportait une échoppe de cordonniers au rez-de-chaussée. Il était sis entre une boucherie et un atelier de menuiserie. Il reçut le numéro 59. Peu de temps après la naissance de Gaston, le cordonnier déménage pour s'installer rue Notre-Dame qui, faite Nationale, prit le numéro 119, là où Georges naquit. Notre célèbre philosophe n'a connu en réalité que le numéro 119 rue Nationale qui le vit grandir ». Voilà un éclairage intéressant et passionnant !

Telex : Présence involontaire d'un code malicieux dans certains serveurs DELL

Vu sur :
Dell has confirmed that some of its PowerEdge server motherboards were shipped to customers with malware code on the embedded server management firmware.

The infected motherboard was found on replacement Dell PowerEdge R410 rack servers, according to a post on a Dell support forum.

A Dell representative confirmed the issue after a customer received a call warning about the infected motherboard.

As part of Dell’s quality process, we have identified a potential issue with our service mother board stock, like the one you received for your PowerEdge R410, and are taking preventative action with our customers accordingly. The potential issue involves a small number of PowerEdge server motherboards sent out through service dispatches that may contain malware. This malware code has been detected on the embedded server management firmware as you indicated.

We take matters of information security very seriously and believe that any impact to a customer’s information security is unlikely. To date we have received no customer reports related to data security. Systems running non-Windows operating systems are not vulnerable to this malware and this issue is not present on motherboards shipped new with PowerEdge systems.

The company did not provide any additional details.

UPDATE: After the publication of this story, Dell emailed the following statement from Forrest Norrod, vice president and general manager of server platforms.:

Dell is aware of the issue and is contacting affected customers. The issue affects a limited number of replacement motherboards in four servers - PowerEdge R310, PowerEdge R410, PowerEdge R510 and PowerEdge T410 – and only potentially manifests itself when a customer has a specific configuration and is not running current anti-virus software. This issue does not affect systems as shipped from our factory and is limited to replacement parts only. Dell has removed all impacted motherboards from its service supply chain and new shipping replacement stock does not contain the malware. Customers can find more information on Dell’s community forum.

mercredi 21 juillet 2010

Il y en a qui ont des idées, mais surtout des idées ....

Au détour d'une discussion au sein d'un groupe Linkedin, une personne pose la bête question de ce qu'il devrait déployer en termes de stockage pour enregistrer autour de 500 caméras de surveillance . Déjà une belle config. Ayant déployé ce genre de configuration, je lui ai recommandé Pillar avec chiffres et arguments factuels à l'appui.

Et là, tous les suggestions tombent surtout des plus inappropriées (farfelues) aux plus judicieuses :

- Le cluster de stockage Linux XIV
- EMC Atmos ????
- DDN, l'outil sans aucune intelligence, impliquant 3 jour de tuning et orienté calcul intensif pour des cluster s'appuyant par exemple sur Lustre
- Clariion EMC, qu'un fournisseur de gros systèmes vidéo qui avait l'habitude d'en déployer s'apprète à remettre en cause du fait qu'une simple relecture nécessite simplement un arrêt complet de l'ensemble des enregistrements sous peine de mettre à plat les contrôleurs
- Nexenta mais qui s'appuie sur OpenSolaris à l'avenir incertain
- le Nas HP Ibrix, pourquoi pas, mais sans la QOS et sans prédictibilité des performances
- Cleversafe ou Isilon, choix nettement plus judicieux mais qui impose pour ce dernier d'intégrer des APIs pour en tirer parti ....

Au-delà de cet exemple ce qui me navre ce sont ces gogos racoleurs qui viennent polluer les groupes de discussions pour vendre leur sauce et arrondir leur quarter en faisant fi de la problématique voir des intérêts d'un éventuel client : je vends mon truc, et puis dans deux ans il se débrouillera puisque je ne serai plus là pour gérer, j'en laisse le soin à mon successeur ....

J'espère que la crise aura au moins la vertue de remettre un peu d'ordre face à ces dérives et forcera les prospects à ouvrir définitivement les yeux face à des pseudo-évidences.

lundi 19 juillet 2010

Les macros du jour

Une mouche et une guèpe dans le jardin ...

samedi 17 juillet 2010

Beau coucher de soleil

Hier, nous avons eu droit à un beau coucher de soleil sur Pornic. : illustration du syndrôme looser

A l'heure ou l'état français s'apprète à consolider son système d'information (ça me gêne un peu d'ailleurs de voir IBM 'sponsor' du dossier ...) nous voilà revenu aux tristes temps de la France pré-98 qui perdait. Après être devenu la risée mondiale du monde footbalistique, ne voici pas que cette belle initiative visant à donner envie au monde entier à venir découvrir notre beau pays tourne au fiasco à son tour. 17 juillet, 9h00 du mat j'ai des frissons, est toujours dans le noir. Pensez, le site aurait été victime de son 'imprévisible' succès et se serait écroulé au-delà de la 50 000e connexion !! Pourtant on est plus au temps du minitel que je sache, et 50 000 c'est largement ce que supporte quelques pauvres serveurs virtuels hebergés sur un hyperviseur ESXi ou XenServer gratuit ... Il faudrait peut-être apprendre à dimensionner un load-balancer non ? Mon premier portail installé en 99 supportait 150Mo/s en continu et 250 000 connexions finger in the noze. C'est vrai qu'on avait pas mégoté : la commutuation de niveau 7 était assurée par un Arrowpoint (devenu Cisco 11000 par la suite) qu'on avait tuné au petits oignons. En attendant, je n'ai qu'un mot à dire, faisons appel aux forces vives de ce pays : Willy Tarreau au secours ! la France à besoin de toi ...

vendredi 16 juillet 2010

Iphone 4 : Cachez cette antenne que je ne saurais voir

Au final, l'Iphone 4 héritera d'un caoutchouc design se présentant sous la forme d'une coque de protection pour plaquer son antenne au plus près du corps de l'appareil, ce qui diminuera d'autant la perte de réception.
Il fallait oser ! En tout cas c'est moins cher qu'une campagne massive de rappel. A défaut, gardez votre bon vieux 3GS même plombé par l'Iphone OS 4 (j'ai du mal à dir IOS, c'est dans les gènes) qui vous plante toutes les 2 heures et vous mange la batterie deux fois plus rapidement.

Telex : Cloud Privé = Réorganisation de l'IT

La virtualisation a induit une première réorganisation de la DSI en élevant les équipes IT des basses besognes de type 'Ghost de PC ' vers la responsabilité de VMs à destination des utilisateurs. L'avènement officiel du Cloud privé permet d'entamer la phase 2 : à lire sur le Blog Cisco Datacenter de Eric Debray.

jeudi 15 juillet 2010

Telex : Nomination chez Pillar Data

A lire chez Julien et sur Global Security Mag. En outre, j'ai appris que les équipes françaises se renforçaient pour faire face à une très forte croissance : à vos CV !

mercredi 14 juillet 2010

NetAPP Metro Cluster vs Pillar Data w/IpStor

Un petit point sur deux technos de continuté de service pour le SAN d'entreprise que j'ai eu la chance de mettre en oeuvre ces dernières semaines dans le cadre de mon auto-entreprise. Si elles répondent toutes deux à la même problématique, elles ne s'architecturent pas du tout de la même manière de part leur fonctionnement interne respectif.

Pour rappel, les produits NetAPP sont des produits appartenant à la catégorie des stockages monolithiques tandis que Pillar appartient à celle des modulaires.

Dans un NetAPP, toutes les fonctionnalités sont intégrées dans la tête NAS ici en rouge. Si un manque de puissance se fait ressentir durant la vie de la machine, il faudra changer la tête et son logiciel pour passer à la version supérieure plus puissante. On appelle celà l'effet de gamme.

Chez Pillar, c'est strictement l'inverse, toutes les fonctionnalités sont réparties dans des éléments physiques et l'on complète la machine en fonction de ses besoins comme avec un jeu de LEGO. Par exemple si l'on manque de puissance, on ajoutera un nouveau slammer pour augmenter la capacité de traitement. A l'inverse, il ne sera jamais demandé d'upgrade logiciel pour offirir plus de capacité disque, de possibilité de connexion ou de puissance.

NetAPP ne supporte la redondance Métro qu'à partir de la série FAS 3XXX (oubliez les 2XXX) et elle peut-être de deux types :

- 'Split-Brain' ou 'Stretch' pour une distance inter-site faible (270m à 4Gb/s, 500m à 2Gb/s)

- ou Fabric Cluster autorisant de longues distances pouvant atteindre les 100Km mais n'acceptant pas de shelves de type ATA :

Le Fabric Metro-cluster nécessite l'intégration de 4 switchs FC Brocade strictement dédiés et avec un code supporté par Netapp. Les têtes deviennent propriétaires de la moitié des shelves locaux et distants. Ca revient à faire du RAID 1 entre baies, chacune pouvant comporter au maximum 670 disques. L'utilisation des ports est très stricte et impose d'en définir certains en mode traffic isolation exclusivement dédiés au fonctionnement propre du cluster - ce dernier étant constitué par le couple des deux têtes - les autres ne se chargeant que du flux des données à traiter sur disque.

Si pour la bascule en cas de problème tout se passe facilement, le retour arrière après déclenchement du PRA obligera à manipuler le CLI et à rebooter l'ensemble lorsque tout le monde se verra de nouveau.

aggr status -r (quel est l'état des aggérgats locaux)
partner (on va sur le survivant)
aggr status –r (on lit les aggrégats survivants)
aggr offline disaster_aggr (on les mets offline)
aggr mirror aggr_name -v disaster_aggr (on recrée les aggrégats mirrorés à la mano)
partner (on revient )
cf giveback (le noeud du site de PRA reboot)
reboot (local pour resynchro des IDs des volumes)

Ceci peut se faire de manière automatique mais impose de créer un script sur mesure qui devra (heureusement) être validé par le support NetAPP.

Chez Pillar, courte ou longue distance, le fonctionnement reste le même et n'impose pas de limitation particulière pour le stockage (de 4,5To à 1,6 Po, disques SATA ...) par machine puisque l'outil de mise en mirroir est une brique dédiée supplémentaire qui ne vient pas en rupture entre les contrôleurs disques et le(s) contrôleurs d'entrée/sortie. Cette brique se nomme IPSTOR.

- Courte distance en FC 4 Gb/s :

- Longue distance FC 2Gb/s ou FC 4 Gb/s :

Ici, les switchs Brocade ou Cisco ne font office que d'extender (extension des liens) et n'interviennent pas dans le back-end de la baie. Il faudra toutefois prévoir la license buffer credits ad-hoc pour compenser la latence au-delà de plusieurs kilomètres et la license ISL pour trunker les liens.

Les IPSTOR fonctionnent par couple et sont propriétaires tous les deux des deux baies. Les WWN ou les IQN des LUNs présentés aux serveurs sont spoofés, la resynchronisation des volumes est automatique et n'impose pas de manoeuvre complexe en CLI ou dans le GUI. . Au passage, on abuse de cette fonctionnalité lors des upgrades en pleine journée sans se poser plus de question La remise en état du mirroir se fait très rapidement. Bref c'est de l'écriture synchrone en 'Y' tout ce qu'il y a de plus bête

En résumé, si ces deux solutions ont largement fait leurs preuves, celle de NetAPP nécessitera d'être plus vigilant pour son implémentation de part ses contraintes intrinsèques qui induiront quelques manipulations lors de la procédure de failback (retour à l'état nominal après bascule). Toujours chez NetAPP, concernant la volumétrie utilisable, si vous souhaitez disposer de 20To utile de chaque côté il vous faudra acquérir 70LienTo (RAID DP + RAID1).

Quelques liens concernant Pillar :

mardi 13 juillet 2010

VMware vSphere 4.1 pour être sur un petit nuage

Update :

Drôle d'idée que cette annonce en pleine vacances mais bon. Comme suggéré depuis quelques jours sur, notre vSphere préféré profite d'un petit update d'été. Alors quoi de neuf ?

- SAN Offload pour certaines tâches grâce à de nouvelles extensions aux APIs vStorage (VAAI)
- QOS entre VMs pour l'accès au stockage
- Le boot from SAN disponible (enfin) pour ESXi
- Support des cartes Tcp Offload Engine ISCSI
- Support des jumbo frame dans les vNics dur Nexus 1KV
- Support du cluster Failover Windows avec HA
- Dorénavant, on peut lancer plusieurs sessions DataRecovery
- Compression accrue de la mémoire
- Accélération de vMotion
- Intégration des comptes ESX(i) dans l'AD
- Support de l'USB Passthrough
- Intégration d'un outil de reporting des Licenses pour les produits VMware
- Importation dorénavant possible des machines Hyper-V.

Bref, on a bien tous bossé dans ce programme bêta, y'a plus qu'à installer en pré-prod pour voir en rentrant de vacances.

lundi 12 juillet 2010

Les Coons se défoulent

En ce frais matin, rien de tel que de se défouler avec un nouveau jouet ...

mercredi 7 juillet 2010

SRM 4 sur NetAPP

Update : (Merci à Marc Rousseau pour ses remarques)
Ce n'est pas de SnapClone dont il s'agit mais de FlexClone, sinon NetApp a sorti un SRA unifié SAN/NAS .

Quelques petits trucs et rappels bien utiles pour faire fonctionner SRM avec NetAPP en SAN / NDRA 1.4.2 (SRA SAN) du premier coup :

-RTFM et
- Bien installer le SRA après vCenter, attention il en existe deux, une version pour le fonctionnement en mode NAS et une version pour le SAN
- Acquérir le bundle logiciel intégrant SnapMirror pour la réplication des volumes et SnapClone pour créer leurs snapshots lors des tests de scripts de PRA.
- Réaliser la réplication des volumes préalablement au paramétrage de SRM les formater VMFS et les présenter aux différents hosts vSphere.
- Il est normal que les volumes présentés sur le site de PRA soient read-only. Il faut créer un autre datastore RW local qui hébergera les .vmx.

Lorsque l'on aura déclaré le 1er et le second FAS, ...

... on verra la correspondance entre les volumes sous DataONTAP dans SRM. Notez que si aucune VM n'existe dans le datasore source, vous aurez un message d'erreur.

Le protection group est créé sur le vCenter primaire, le Recovery Plan sur le secondaire. Lorsque tout est en place, on clique sur TEST et c'est bonheur !

Par contre, il n'existe pas de plug-in de Fail-back intégrable dans vCenter comme ceux pour les Clariion, Celerra et autre FalconStor (il a été commencé puis abandonné), il faut suivre la procédure indiquée dans le readme du NDRA. Impossible d'utiliser un script Perl ou PowerShell car SRM n'intègre pas (encore) d'APIs de ce genre pour automatiser la chose, dommage ... Il faut éteindre les VMs, resynchroniser le volume source, supprimer les .vmx dans le Datastore du vCenter du site de secours, supprimer puis recréer un nouveau Recovery Plan.

lundi 5 juillet 2010

On ne fait pas un tram sans casser des noeuds ...

Tandis que le quartier Montparnasse (y compris la tour infernale) est dans le noir suite à un feu sur des câbles électriques d'alimentation, Orléans n'est pas en reste mais uniquement pour l'accès Internet.

Vu sur le MagIT : Orléans coupé d’Internet pour cause de... travaux publics - Le 05 juillet 2010 (18:19) - par La rédaction

Selon nos informations, un « malheureux coup de pelleteuse » a coupé un fourreau multitubulaire (qui doit abriter fibres optiques, mais aussi alimentation électrique), vendredi après-midi, place Charles de Gaulle, à Orléans. Cette pelleteuse intervenait dans le cadre de travaux relatifs à l’installation du tramway dans la ville et, plus précisément, du croisement entre les lignes 1 et 2.

La réparation, engagée ce lundi matin, toujours selon nos informations, a étendu l’interruption de service. Plusieurs DSLAM de Free dans le Loiret seraient indisponibles depuis ce matin. Mais Medialys, opérateur du réseau fibré local, aurait également été touché. Le doute subsiste sur les conséquences de ces opérations de génie civil pour SFR et Orange, notamment.

Telex : Cisco FabricPath, l'autre TRILL

FabricPath est une sorte de TRILL destiné à s'affranchir de l'antédilluvien(ne vérue) Spanning tree en autorisant le support de 16 chemins actifs simultanés entre deux points au sein du réseau. FabricPath est en quelque sorte une évolution du vPC. Plus d'infos sur cet excellent article du MagIT.

dimanche 4 juillet 2010

Nouvelle billetique à la (SEM)TAO

Déjà des adeptes pour la nouvelle carte de bus-tram « sans contact » - Publié le 04 juillet 2010 - 00:58 par Grégory Legrand

Les clients sont pris en photo, via une webcam, pour bénéficier d'une carte « sans contact » nominative.Alors qu'il ne sera mis en service que le 1er décembre prochain, le système de billetterie version « hi-tech » de la Semtao séduit déjà la clientèle. Plus pratique et plus fiable, il devrait doper la fréquentation.
On connaissait le ticket cartonné avec sa petite bande magnétique. À partir du 1er décembre, le système de billétique des transports urbains orléanais, devenu obsolète, laissera progressivement sa place à une carte « sans contact » type Navigo (connu des habitués du métro parisien). Comme à Paris, les Orléanais fréquentant le réseau de la Semtao pourront donc recharger à loisir leur carte nominative.

C'est donc une petite révolution qui va s'opérer, avec pour conséquence immédiate quatre avantages indéniables. La validation du titre se fera d'une manière plus fluide, fini donc la queue à l'oblitérateur aux heures de pointe. L'usager aura également la possibilité de stocker plusieurs titres de transport sur une même carte. Les contrôles s'effectueront aussi dans une plus grande transparence. Enfin, les risques de démagnétisation, et donc de falsification, disparaîtront.

« Marre des tickets »

La démarche est simple : depuis le 17 mai, il suffit de se rendre à l'agence Martroi (rue de la Hallebarde) ou sur le site Internet ( pour toute demande de carte nominative (voir ci-contre). Si l'on opte pour la carte déclarative, il faudra alors patienter jusqu'en décembre pour effectuer une demande en agence. Et justement, les demandes affluent depuis quelques jours !

Pour le moment, si ce sont surtout les abonnés actuels au réseau qui réalisent cette démarche, de nouveaux clients semblent conquis par le système, à l'image d'Élodie, étudiante à La Source : « Enfin ! Ça sera comme à Paris. J'en avais marre des tickets qui parfois ne fonctionnaient pas. Je pense franchement que je prendrai le tram plus souvent quand ce sera mis en service. »

Même son de cloche pour Hervé, un Fleuryssois qui hésite souvent entre la voiture et les transports en commun : « Une carte, c'est carrément plus pratique. On la recharge et après il n'y a rien à faire. Les tickets sont souvent écornés ou pliés et une fois sur deux on ne peut pas les oblitérer. Sincèrement, je pense que je laisserai ma voiture plus facilement au garage qu'avant. »

Si cette nouvelle billétique s'apparente à un vrai virage à 180 degrés pour l'AgglO et la Semtao, elle bousculera aussi les habitudes des dépositaires. En effet, la société des transports de l'agglomération orléanaise est chargée d'installer d'ici-là le lancement officiel d'une nouvelle machine : le terminal point de vente simplifié.

Une petite machine de type Carte bleue qui permet de recharger la carte « sans contact » des usagers. Des réunions d'information, ainsi qu'une formation, sont prévues dans ce sens pour les dépositaires afin que tout soit opérationnel le jour J. Le 1er décembre sera donc à marquer d'une pierre blanche pour le réseau orléanais après 21 ans d'utilisation d'un système aujourd'hui bien révolu.

Coup de gueule : la synthèse des pseudo-analystes sur la virtualisation et le Cloud.

En ce beau dimanche ensoleillé, je me suis laissé aller à consulter l'actualité IT et je suis tombé sur cet article :

Virtualisation et cloud computing, oui mais - Par Alain Bastide le 30/06/2010 -
Le récent débat à l'Assemblée nationale ainsi que la nouvelle étude du cabinet Solucom soulignent les avantages mais aussi les limites du cloud computing et de la virtualisation. Sécurité et réversibilité sont les mots clés.

Tiens, nos élus se penchent sur le sujet. Petit gratouillage d'oreille : deux entreprises à vocation strictement commerciale, qui publient une étude qui n'irait pas dans leur intérêt, c'est pas un peu (beaucoup trop) louche ?

Relevés pèle mèle dans l'étude :

"TSE et Citrix c'est de la virtualisation !!"
-> mais bien sûr, 40 terminaux série derrière un HP 9000 aussi, hein ?

Larry Ellison n'aime pas le Cloud : bande de naïfs, quand Larry dit qu'il n'aime pas quelque chose c'est qu'au contraire il s'intéresse de prêt au sujet ...

"Un ROI diffcile à établir
La multiplicité des méthodes
d’évaluation suivant l’axe fnan-
cier (TCO, ROI et autres business
case) de l’intérêt de solutions et
les chiffres publiés un peu partout
contribuent tantôt à promettre des
économies importantes, tantôt à
créer l’effet inverse."

-> mettre en place 25 serveurs logiques au lieu de 25 serveurs physiques dans une salle informatique pour répondre aux mêmes besoins ne constitue dont pas une source d'économie évidente pour l'espace au sol, les ports réseaux, la clim et l'énergie d'alimentation utilisée ???

"Un serveur virtuel coûtera toujours moins cher qu’un
serveur physique classique, mais l’écart peut ne pas
être si important : pas de quoi faire du low cost sans
dispositions particulières. Globalement, les coûts de
l’infrastructure serveurs et sa gestion peuvent augmen-
ter, la gestion de la demande étant globalement le
meilleur levier d’économie."

-> faux archi faux, c'est l'inverse !!!
Un serveur virtuel coûte aussi cher à l'achat, voir plus cher du fait de la mutualisation des moyens pour consolider qui ne sont pas eux low-cost. En revanche, le MCO fait un bon largement quantifiable pour l'entreprise.

Heureusement, quelques verbiage sur la sécurité et la confidentialité des données que je dénonce depuis deux ans un peu partout ouf ... mais pas de propositions concrètes et pratiques comme d'hab. Pas de définition du Cloud computing. Bref un truc de théoricien qui n'a jamais virtualisé un serveur de sa vie et qui se permet de se la jouer spécialiste. Avec ça, c'est vrai que nos élus sont bien conseillés, j'espère juste que ce n'est pas le genre de personnes auxquelles ils vont faire appel pour éventuellement légiférer.

vendredi 2 juillet 2010

Telex : App-V Fab de nouveau MVP !!

Mon plus tout jeune Padawan est de nouveau MVP cette année. Comme quoi un MVP ça cohabite bien avec un vExpert dans le bureau. Mais où va-t-il poser son trophée cette année ???

jeudi 1 juillet 2010

3G : Aux fontières de l'illimité

Vu sur 01net par Coralie Cathelinais le 01/07/2010 à 19h05

L'UFC-Que Choisir souhaite mettre fin au déficit d'informations dont sont victimes les abonnés aux forfaits 3G et 3G+. L'association estime que les opérateurs utilisent abusivement les termes d'Internet et d'illimité pour vanter leurs forfaits mobiles, alors que dans les faits, les consommateurs n'ont accès qu'à un service restreint.

Pour en venir à cette conclusion, l'association s'appuie sur les résultats d'une étude, menée en ligne entre la mi-mars 2010 et la mi-avril 2010, à laquelle 2 107 détenteurs d'un forfait Internet mobile 3G ont participé.

« Au départ, nous voulions mener une enquête sur la seule qualité du réseau 3G. Nous avons été étonnés du nombre de commentaires portant sur le déficit des services et des usages, qui faisaient pourtant partie des promesses commerciales », explique Edouard Barreiro, chargé de mission à l'UFC-Que Choisir. Autre surprise, le nombre d'internautes ayant répondu au questionnaire, qui a été mis en ligne sur le site sans promotion, montrant que le sujet préoccupe nombre de consommateurs.

Une connexion 3G tout juste digne de la 2G
Un des motifs d'insatisfaction des utilisateurs de smartphones est la difficulté qu'ils rencontrent pour surfer et recevoir des e-mails. Même l'accès aux réseaux sociaux et aux messageries instantanées, qui fait pourtant partie des applications phares mises en avant par les opérateurs, ne serait pas si aisé.

Ce sont les débits qui sont à l'origine de ces soucis. 700 utilisateurs de smartphone ont bien voulu installer l'application proposée par l'UFC-Que Choisir pour les mesurer. Il en ressort que très peu bénéficient des 7,2 Mbit/s annoncés par les opérateurs ayant déployé un réseau 3G+. L'association ne précise pas si cette limitation est liée ou pas aux capacités des téléphones, certains modèles plafonnant à 3,6 Mbit/s. Pour 45 % des personnes ayant répondu au questionnaire, leur vitesse de connexion ne dépasse pas 380 kbit/s, le plancher pour un réseau 3G !

Les plus mal lotis sont les abonnés de Virgin Mobile (36 ont participé à l'étude). 78 % d'entre eux ont un débit inférieur à 400 kbit/s, et les autres ne vont jamais au-delà de 1 Mbit/s. Ce qui fait supposer à l'UFC-Que Choisir que l'opérateur a mis en place un bridage.

A ces problèmes de vitesse, viennent se greffer des soucis sur la qualité de la connexion. De fréquentes coupures perturbent la navigation et gênent la réception de flux de musique ou de vidéos. Sans compter l'impossibilité de faire de la voix sur IP, la réception des e-mails proposée parfois en option ou encore l'existence d'un quota de données mensuel alloué par les opérateurs au-delà duquel la vitesse de connexion est bridée.

Une réglementation pour encadrer les termes d’Internet illimité
« Les consommateurs sont en fait très bien informés des usages possibles d'un smartphone et nombreux sont ceux qui cherchent à savoir pourquoi ils ne peuvent pas faire certaines choses. Et c'est là qu'ils découvrent que leur opérateur a bridé certains services, sans pour autant l'annoncer », détaille Edouard Barreiro. Il cite ainsi l'exemple de Bouygues Telecom qui ne permet pas de télécharger un fichier dépassant les 5 Mo et qui n'en fait mention nulle part.

Pour l'UFC-Que Choisir, il est urgent de clarifier la situation pour que les consommateurs sachent clairement quels services sont compris dans leurs forfaits 3G et 3G+. Elle souhaite qu'un encadrement réglementaire soit mis en place, notamment dans le code de la consommation, pour que le terme d'Internet ne soit utilisé que pour les forfaits offrant un accès universel à tous les contenus sur le Web. Et que les offres soumises à un quota de données ne soient plus qualifiées d'illimitées.

L'UFC-Que Choisir n'est pas la seule à dénoncer l'emploi abusif de la mention « Internet illimité ». L'Association française des utilisateurs de télécommunications (Afutt), qui reçoit des centaines de plaintes d'abonnés affolés de voir leur facture exploser alors qu'ils ont souscrit un forfait « tout compris », souhaite elle aussi voir disparaître ces dérives du langage marketing.