vendredi 31 décembre 2010

Bonne année 2011


Avec un peu d'avance chez nous et avant que tous les liens télécoms ne soient saturés, je vous présente mes meilleurs voeux pour cette nouvelle année, que ce soit du point point de vue personnel ou professionnel ainsi qu'à vos proches.


Olivier alias DS45.

jeudi 30 décembre 2010

Telex : Bobby Farrell nous a quitté

Une fin d'année Daddy pas Cool, Bobby Farrel, le quart masculin de Boney M est décédé ce jeudi à 61 ans. Encore une légende de la musique en moins pour nous pauvres terriens ...

Restrospective 2010 : des Clowns, des Glaudes et des Clouds

Voici ce que mon petit cerveau a retenu de cette année 2010.

Le marché du stockage en pleine consoldation
- 3Par mangé par HP après une rude bataille avec Dell.
- SUN Digéré par Oracle (mais que reste-t-il des OEMs HDS ?)
- Exanet, Ocarina et Compellent absorbés par Dell (Pillar Data est toujours en vie lui !)
- Isilon racheté par EMC
- EMC annonce vPlex
- IBM sort le storwise v7000 : un contrôleur traditionnel mais avec du 2"5 et du SVC dedans
- Sortie du firmware AxiomOne 4.0 chez Pillar
- Sortie de Data Ontap 8.01 chez NetAPP : une presque concrétisation de l'intégration de spinaker
- Brocade fait face à Cisco sur le marché de la convergence LAN/SAN

L'IT se cloudifie
- Le génial Steve Jobs change la donne sur le marché du terminal et du notebook avec l'IPAD
- VMware démocratise le système d'information on-demand

Le climat fait des siennes
- Xinthia nous rappelle 1999 et l'art du PRAi
- En début et fin d'année, de la neige comme on en a pas eu depuis 20 ans
- Baisse d'activité du soleil qui ne fait plus de tâches : annonce d'une micro-glaciation en dépit du réchauffement planétaire annoncé ?

La virtu : vous rependrez bien encore une peu de VMware ?
- ESX est bientôt mort, vive ESXi !
- Présentation de vCloud Director
- Enorme le VMworld cette année ....
- 1er meeting des leaders de vMugs européens (on est les seuls d'Europe du sud)
- Sortie de View 4.5 tirant partie du SSD
- plus de 2500 membres sur www.vmug.fr

Pour le reste
- Adieu Voxan
- 1er Pillar Summit en Arizona
- HADOPI mis en musique (beurk)
- Naissance ratée de www.france.fr
- Le cablegate : quand les fuites diplomatiques publiées par wikileaks dans les mondes virtuels secouent le monde physique
- La NASA prouve que la vie peut exister avec de l'ADN dont l'un des composants est de l'arsenic
- le tram CLEO se déploie dans l'agglo d'Orléans avec lancement en décembre de la nouvelle billetique sans contact
- Ils m'auront tout fait : 8 PRAi déclenchés pour de vrai cette année. RPO 0, RTO 3 à 9 minutes .... qui dit mieux ?

mercredi 29 décembre 2010

Un peu de Catnews


Tout va bien dans le chatquarium


Moments de tendresse entre Eclipse et bébé Flocon

Le secret d'Elliot pour faire de beaux chatons :
boire du lait dans un vMug !

lundi 27 décembre 2010

Vague label pour les logiciels HADOPI

Vu sur numerama.com : Le label que délivrera l'HADOPI aux éditeurs de logiciels de sécurisation sera moins bien encadré que les certificats délivrés selon la procédure normale suivie par l'Agence nationale de sécurité informatique, en principe compétente. Alors qu'il concernera des logiciels fortement suggérés à des millions d'abonnés à Internet en France... décret n°2010-1630 du 23 décembre 2010

Comme nous l'indiquions dimanche matin dans une première analyse, le décret qui définit la procédure de labellisation des moyens de sécurisation par l'Hadopi a été publié au Journal Officiel. Les labels pourront être attribués lorsque la Haute Autorité aura publié la liste des fonctionnalités pertinentes que les logiciels de filtrage doivent revêtir, ce qui selon nos informations ne devrait pas être le cas avant encore plusieurs mois. Les éditeurs devront faire établir un rapport d'évaluation par un centre agréé par l'Agence nationale de la sécurité des systèmes d'information (ANSSI), et l'Hadopi délivrera le label en fonction des conclusions.
Il est donc intéressant de comparer le décret n° 2010-1630 du 23 décembre 2010, relatif aux labels de l'Hadopi, avec le décret n°2001-492 du 18 avril 2002, qui vise plus largement "l'évaluation et la certification de la sécurité offerte par les produits et les systèmes des technologies de l'information". En principe, tous les labels délivrés par l'Etat aux logiciels de sécurité sont attribués par l'ANSSI, selon une procédure définie par le décret de 2002, via des centres agréés. Mais l'Hadopi fait exception puisque c'est elle, et non l'ANSSI, qui délivrera les labels aux logiciels de filtrage qu'elle suggère fortement d'installer lorsqu'elle avertit les internautes soupçonnés d'avoir illégalement mis à disposition des oeuvres sur les réseaux P2P.
Or on remarque des différences notables entre les deux procédures, qui ne sont pas indifférentes sur le fond. Ainsi par exemple, sous la procédure standard, il est spécifié que l'ANSSI "veille à la bonne exécution des travaux d'évaluation" et "peut à tout moment demander à assister à ces travaux ou à obtenir des informations sur leur déroulement". Ca n'est pas le cas avec le label de l'Hadopi, qui n'a aucun pouvoir de contrôle sur la manière dont le rapport est établi - cela alors même que l'éditeur choisit lui-même son centre d'évaluation, ce qui place ce dernier dans une situation de dépendance économique. Le décret de 2002 dit à ce propos que le demandeur du label et l'ANSSI "valident les rapports d'évaluation en liaison avec le centre d'évaluation intervenant", ce qui n'est pas le cas de l'Hadopi qui se contente de réceptionner le rapport, et d'en étudier les conclusions, sans discussion tripartite.

Beaucoup plus grave. Comme nous le notions hier, le décret sur le label Hadopi dit que le rapport rédigé par le centre d'évaluation "revêt un caractère confidentiel". Le label sera ainsi incontestable, puisque les arguments techniques qui ont permis de l'accorder ou de le rejeter ne sont pas publics. Or la procédure classique prévue par le décret de 2002 aurait été plus rassurante, si elle avait été imitée par le décret Hadopi. Car si le texte de 2002 dispose lui aussi que le rapport du centre d'évaluation est confidentiel, il prévoit en revanche que "lorsque l'ensemble des rapports prévus a été validé, l'Agence nationale de la sécurité des systèmes d'information élabore un rapport de certification dans un délai d'un mois", lequel n'est pas couvert par le secret. Ce rapport, contestable devant les tribunaux, "précise les caractéristiques des objectifs de sécurité proposés, conclut soit à la délivrance d'un certificat, soit au refus de la certification".

Un tel rapport interne n'est pas prévu pour l'Hadopi, alors-même que le décret de 2002 dit qu'il "peut comporter tout avertissement que ses rédacteurs estiment utile de mentionner pour des raisons de sécurité". Ca n'est comme si l'on parlait d'un logiciel espion imposé à des millions d'abonnés à Internet...

Enfin, la procédure normale de l'ANSSI prévoit que la certification remise "atteste que l'exemplaire du produit ou du système soumis à évaluation répond aux caractéristiques de sécurité spécifiées", et "atteste également que l'évaluation a été conduite conformément aux règles et normes en vigueur, avec la compétence et l'impartialité requises". Il y a une double attestation, qui engage la responsabilité du Premier ministre lorsqu'il délivre la certification, via l'ANSSI.

Or le décret publié dimanche est beaucoup plus laxiste avec l'Hadopi, qui n'atteste de rien, mais "délivre" simplement le label "lorsqu'elle estime établi, au vu du rapport d'évaluation, que ce moyen est efficace et conforme aux spécifications fonctionnelles qu'elle a rendu publiques". On fait difficilement plus prudent...

vendredi 24 décembre 2010

Case study apport du SSD dans le SAN

A lire sur le MagIT, petit retour d'expérience PILLAR/SATA/SSD dans la vraie vie ....

Vous pouvez cliquer sur l'image pour élargir ou lire l'article directement ici.

Joyeux noël à tous


Flocon, Maine Coon Bleu Solid et blanc, notre dernier bébé se joint à moi pour vous souhaiter un joyeux noël

mercredi 22 décembre 2010

Répartition des LUNs dans une baie PIllar

Pour continuer encore un peu plus avant dans l'architecture de cette ultra performante baie de stockage, je vous propose de comprendre cette fois la répartition des LUNs en fonction de la QOS désirée. Comme vous les savez, les données ne sont pas écrites n'importe où sur les disques contrairement aux autres machines du marché. Mieux, chaque enclosure de disques dispose de ses propres contrôleurs RAID matériels autorisant une augmentation des performances au fur et à mesure des ajouts de disques et pas un effrondrement total menant inéluctablement au fameux changement disruptif de tête pour un modèle dit "plus rapide" agrémenté de son augmentation conséquent de license : ben oui quoi , c'est normal, c'est plus rapide donc c'est plus cher ! En effet, le phénomène s'explique par le fait que les contrôleurs en question sont aussi en charge du RAID ... logiciel et que leur bande passante se voit grévée au fur et à mesure des ajouts de disques successifs qui consomment leur lot de bande passante jusqu'à l'asphyxie totale. Le moins que l'on puisse dire, c'est que ce type d'architecture d'il y a vingt ans n'est plus du tout au goût du jour et ne se prête pas à la sacalibilité. :(
Mais je m'égare, revenons à nos LUNs. Donc, en fonction de la QOS que vous aurez choisis pour votre applicatif, et bien il se verra réparti sur plusieurs groupes RAID physiques appelés VLUNs : 8 pour la QOS haute, 6 pour la moyenne et basse et 4 pour la QOS archive et ceci dynamiquement. Bien entendu, si vous ajoutez des tiroirs, les nouveaux disques se verront affublés automatiquement de VLUNs pour équilibrer la charge entre les contrôleurs : oubliez l'expert SAN payé à prix d'or censé vous faire du tuning parce que votre machine rame, ceci se réalise tout seul pour le plus grand bien de votre TCO.

Tiens, on dirait moi-même ...


Vu dans le dernier MagIT par François Cointe

lundi 20 décembre 2010

TELEX : Un peu débordé en ce moment ...

Vous avez probablement noté une certaine baisse d'activité ces jours-ci sur mon blog et sur http://www.vmug.fr/. N'ayez crainte, j'ai survécu aux intempéries neigeuses de ces derniers jours, mais j'ai eu aussi à gérer quelques petites mises au point sur notre nouvelle billetique sans contact ainsi qu'un déménagement provisoirement sans accès ADSL et encore moins 3G, me donnant le sentiment d'être revenu à l'age du surf sauce Compuserve/modem V22Bis. Heureusement, la montagne de cartons à ouvrir ma rapidement fait oublier ma frustration et l'accès haut-débit devrait arriver ces jours-ci.

mercredi 15 décembre 2010

Case study SSD ...

Vu sur SearchStorage Solid-state storage technology : App needs dictate choice of arrays, cache, appliances or servers - 07 Dec 2010 Carol Sliwa, Features Writer

IT shops that implement solid-state storage technology must decide whether to use it in traditional disk arrays, as cache, in appliances or in servers. Application needs generally determine the solid-state storage choice that will bring the greatest performance boost. Types of I/O-intensive applications that tend to benefit from solid-state storage technology include database, data warehouse, data mining, analytics and Web serving. If the I/O bottleneck is isolated to a single server or application, server-based solid-state storage might be the best approach, whether that's with 2.5-inch or 3.5-inch solid-state drives (SSDs), PCI Express cards or dual in-line memory modules (DIMMs). An IT shop with data sets that are intermittently hot might select NAND flash cache, in which the system typically determines the hottest data to accelerate. If an IT shop has several I/O-intensive applications that need a performance boost, it might opt for SSDs in a shared storage array. A solid-state appliance or solid-state-only array is another option, when an IT shop wants to isolate the data to a single device. The notion of a solid-state appliance dates back to the earliest dynamic random access memory (DRAM) systems from Texas Memory Systems Inc., which now also makes NAND flash-based products. Framingham, Mass.-based IDC continues to track solid-state-only appliances from Texas Memory and other vendors, including Dataram Corp., Nimbus Data Systems Inc., Violin Memory Inc. and Whiptail Technologies Inc. But, some vendors, analysts and users prefer to call the appliances solid-state-only arrays or dedicated solid-state storage devices.

SETAO: SSDs in storage arrays facilitate performance boost for several applications

Background: The private company that operates the public transportation network for the city of Orleans, France -- Société d'Exploitation pour les Transports de l'Agglomération Orléanaise (SETAO) -- replaced its NetApp Inc. storage with Pillar Data Systems Inc.'s Pillar Axiom disk arrays about three years ago and began using SSDs last year. SETAO manages and stores data from buses and trams, vehicle radios, video surveillance cameras, traffic lights, billing systems and electrical systems. The company makes available real-time traffic information via mobile devices and surveillance data to law enforcement.

Technology: At Pillar's suggestion, SETAO purchased its first solid-state drive enclosure in July 2009. The company now has 600 GB of SSDs in each of its three Pillar arrays: an Axiom 500 that also has 100 TB of SATA disks, an Axiom 500 with 16 TB of SATA and an Axiom 600 with 16 TB of SATA. Two arrays are located at the primary site in Orleans; another is approximately 12 miles away. SETAO also upgraded its servers and storage network with cutting-edge technology. The company runs Fibre Channel over Ethernet (FCoE) between its servers (which are equipped with Emulex Corp. converged network adapters, or CNAs) and Cisco Systems Inc. Nexus 5000 top-of-rack switches, which split the 10 Gigabit Ethernet (10 GbE) and Fibre Channel (FC) traffic. The storage traffic connects over 4 Gbps Fibre Channel to Brocade 300 FC switches and to the Pillar Axiom arrays. SETAO uses FalconStor Software Inc.'s IPStor storage virtualization technology to replicate between the arrays. The company also used IPStor to migrate data from the NetApp systems to Pillar arrays.

Why SSDs in arrays: Olivier Parcollet, director of systems information at SETAO, prefers SSDs in a shared storage environment because he wants to improve the performance of several applications, some Windows-based and other Linux-based. Using solid-state storage technology in a server would have restricted the performance boost to a single application, unless he used virtual servers. Parcollet said he isn't comfortable using SSDs in a physical server with virtual machines (VMs) because of the risk of application loss in the event of a server failure.
"Because I have shareable storage on Fibre Channel, if I lose a server, an application could run on another one very, very quickly," he said.
Results/benefits: SETAO uses SSDs with four of its most important applications. Its initial use was for the traffic simulation software that plots bus and tram routes, as well as the optimal number of vehicles and drivers. Application response time was approximately two hours on SATA disks, but it's nearly instantaneous on SSDs, allowing SETAO to run a greater number of simulations per day, according to Parcollet.
"We use three buses and seven drivers less than the year before to do the same work," said Parcollet, noting that SETAO's financial team claimed the one-year savings amounted to approximately 1 million Euros ($1.39 million USD).
SETAO's VMware Inc. virtual desktop infrastructure (VDI) also benefited from SSDs. Provisioning/booting 200 virtual desktops took about 20 minutes with SATA drives and takes about five seconds with SSDs, Parcollet said.

Results were similar for queries to the Oracle databases that store metadata about video images (which are archived on SATA disks) from 300 municipal surveillance cameras installed throughout the metropolitan transportation network. A search for a particular image, such as men wearing blue trousers and a red hat, might have taken 30 minutes with SATA drives. The search completes instantly with SSDs, he said.
More recently, SETAO shifted approximately 100 GB of financial data from SATA disks to solid-state drives. Processing that once took three hours; now it finishes in about two minutes, according to Parcollet.
Greatest challenge with SSDs: Implementing SSDs wasn't especially difficult for SETAO. The staff installed the SSD enclosure, adjusted the graphical user interface and changed the LUN's quality of service (QoS) to premium. Shifting to premium QoS triggered the Pillar Axiom array to automatically move the designated data from SATA disks to SSDs.


The greater challenge was deciding which application data to prioritize onto SSDs. Parcollet had no interest in solid-state storage technology with automatic tiering to shift the hottest data to the SSDs. Auto-tiering could potentially put unimportant data onto the SSDs, he reasoned. He wanted to make the application decisions himself. Parcollet consulted Pillar's built-in monitoring tools to determine the most I/O-intensive applications, but he didn't move several applications to SSDs at the same time, nor did he shift entire applications.
"Only some parts of the applications need to be on SSD," Parcollet said. "All the data doesn't need to stay in SSDs, only the more accessed [data does]."
For instance, only the control files, indexes and "redo" logs of SETAO's Oracle databases make use of SSDs. With VDI, SETAO stores only the gold image on SSDs and spreads the end-user data across SATA drives.
"One VM per user consumes only about five I/O per second," Parcollet said. "There's no need to use SSD every time for VDI. But SSD is good to generate the images very, very quickly for provisioning."
Peer advice: Parcollet recommends SSDs for small, high transaction, I/O-intensive applications rather than large applications. "We cannot install all applications on SSD because it's very, very expensive," he said, noting the company's SSDs cost approximately five times more than its SATA disks. Pillar's list price for a "brick" with 64 GB SSD drives (12 active drives, one hot spare) is $49,000.
Parcollet cautioned that all storage features may not be available when using SSDs. He said he can't use Pillar's thin provisioning with SSDs, for instance.

Addressing another potential downside of SSDs, Parcollet said he's not worried about the drives wearing out. "I asked Pillar the question when I bought the SSD drives, and they guaranteed that the [SSD] life will be as long as a traditional drive because there's a [memory] reserve on each drive," he said.

lundi 13 décembre 2010

Telex DELL achète Compellent pour 820 millions de $

27,75$ par action, voilà ce que va coûter Compellent à DELL. A présent qu'il manque à la firme du stockage high-end on peut se poser la question de savoir à qui le tour ....

vendredi 10 décembre 2010

Maine Cool


On se détend les papattes ...

On se repose a côté de la copine Terre-neuve Luna

jeudi 9 décembre 2010

Telex : Compellent bientôt chez DELL ???

Il semble que les deux sociétés discutent chiffons et budget rachat. on tourne entre 700 et 800 millions de $ pour l'instant.

Update 1 : Merci julien
Update 2 :

Je pense que Compellent pourrait avantageusement remplacer EMC sur le Midrange, cependant il reste un trou à combler dans l'offre high-end. Quand à nos amis de Pillar, à la veille de pas mal d'annonces ils vont rester comme les seuls rescapés des visionnary leaders mais avec une source de financement appelée larry Ellison qui ne semble pas disposé à lâcher son bébé.

Vu sur Silicon.fr le 10 décembre 2010 à 9:11 par Pierre Mangin

Dell déclare être en discussion exclusive avec Compellent, fournisseur de solutions de stockage. Remplacera-t-il EMC?...

Ce 9 décembre, Dell a fait savoir que des négociations exclusives et avancées sont actuellement en cours avec Compellent. A 27,50 dollars par action, le montant de l’acquisition s’élèverait à moins d’un milliard, environ 876 millions de dollars. Depuis près de deux mois, on savait que ces deux constructeurs étaient discussion. Mais rien n’était officiel. Selon plusieurs spécialistes du secteur, ces négociations devraient assez vite aboutir sans qu’il y ait nécessairement de surenchère. On ne voit pas HP, ni EMC, en particulier, se positionner face à cette offre de rachat. HP est en train de finaliser le rachat de 3PAR. Et EMC vient de se lancer, pour 2,25 milliards, dans celui d’Isilon. Mais l’imprévu peut toujours surgir. Parmi les questions qui se posent déjà, revient celle de savoir comment l’intégration du portefeuille de Compellent, si elle est signée, viendra compléter l’offre de Dell et modifier la donne. Dell continuera-t-il de se fournir auprès d’EMC? Pour Dell, cette acquisition serait une juste compensation après la compétition, perdue face à HP il y a quelques mois, pour l’acquisition de 3PAR, au terme de surenchères épiques. Et Dell a prévu de doubler son chiffre d’affaires dans les solutions de stockage d’ici à 2014 pour atteindre le seuil des 30 milliards de dollars sur ce créneau de marché. IDC il y a quelques jours a confirmé la bonne tendance de ce secteur: les ventes mondiales de disques de stockage se sont élevées à 7 milliards de dollars, en croissance de +18,5, par rapport à 2009.

mardi 7 décembre 2010

Publi-reportage EMC à lire ...

Joint à votre 01 informatique de cette semaine, je vous conseille de lire le petit fascicule rattaché qui vous dira tout sur le Cloud privé et ses enjeux.


Non, c'est involontaire ce n'est pas une allusion subliminale au partenariat EMC/Dell.

Vous y retrouverez aussi Sly soi-même ...
PS : va falloir quand que tu songes à donner une autre photo que celle du jour ou tu as quitté la FAC :)

lundi 6 décembre 2010

Affaire Cablegate ou quand le net se rebiffe

Décidément, que de bruits autour de cette affaire Wikileaks, surtout beaucoup d'annonces et d'effets. De ce que j'en ai compris, nous assisterions à un véritable 11 septembre numérico-diplomatique. Des centaines de milliers de telex échangés entre les ambassades américaines et leur gouvernement auraient été illicitement mis à disposition du public et des médias via Wikileaks, un site d'analyse politique qui serait enfin qui était disons plutôt spécialisé dans les fuites d'informations de préférence confidentielles. Le site a été du coup été frappé d'attaques par Deni de service, de suppression de son nom de domaine en un temps record car le fournisseur ne pouvait visiblement supporter le nombre de connexions DDOS , de suspension d'hébergement ; même le fondateur du site se trouve subitement sous le coup d'une plainte suite à un délit commis sur une suédoise ... On entend à la radio un ministre suggérant l'interdiction de l'hébergement du site en France (OVH est en première ligne). Résultat : l'ensemble des informations se trouvent mises à disposition sur des centaines de sites miroirs qui se multiplient eux-mêmes comme des petits pains. A suivre ...

dimanche 5 décembre 2010

vendredi 3 décembre 2010

Encore un peu de neige cette nuit à Orléans ....


C'est pas mal la galère la neige, mais ça fait de jolies images : enjoyez !

jeudi 2 décembre 2010

Telex : La NASA nous ferait une annonce majeure ce soir

Celà concernerait un schema de vie s'appuyant sur l"arsenic et pas le phosphore, de quoi révolutionner notre compréhension de la vie. Réponse à 20h00 chez nous sur NasaTV




Update : Vu sur lefigaro.fr par Tristan Vey
Une nouvelle forme de vie découverte sur Terre

Une bactérie dénichée dans un lac en Californie est capable de remplacer une des briques élémentaires de la vie, le phosphore, par l'arsenic. Une révolution pour les scientifiques à la recherche de vie extraterrestre. Lorsque la Nasa a annoncé mardi une conférence de presse sur une découverte d'astrobiologie* majeure qui aurait «un impact sur la recherche des preuves de l'existence d'une vie extraterrestre», les rumeurs les plus farfelues ont circulé sur le web. En résumé, des internautes étaient persuadés que la Nasa allait annoncer l'existence d'une intelligence venue d'ailleurs...

Si la vérité est bien loin de ce fantasme, elle n'en est pas moins bouleversante: les scientifiques ont découvert dans un lac californien une nouvelle forme de vie qui parvient à utiliser l'arsenic comme brique élémentaire constitutive. L'organisme en question est une simple bactérie, mais son métabolisme révolutionnaire ouvre de nouvelles perspectives aux astrobiologistes chargés d'imaginer à quoi pourrait ressembler la vie extra-terrestre dans une atmosphère très différente de la nôtre.

D'autres modèles du vivant restent à découvrir
La vie est normalement basée sur six principaux éléments: le carbone, l'hydrogène, l'azote, l'oxygène, le soufre et le phosphore. «L'idée que l'arsenic pourrait théoriquement remplacer le phosphore dans le fonctionnement des microbes n'est pas nouvelle en soi, mais nous avions toujours pensé que de tels organismes seraient très instables», explique Marie-Claire Lett, microbiologiste spécialiste de l'écophysiologie des micro-organismes à l'université de Strasbourg. Or l'équipe emmenée par Felisa Wolfe-Simon de l'institut d'astrobiologie de la Nasa est parvenue à montrer que de telles bactéries pouvaient en réalité se reproduire et fonctionner normalement en intégrant cet élément fortement toxique pour la plupart des êtres vivants.

«Ils sont allés chercher des bactéries dans un environnement extrême, le lac Mono, en Californie, très concentré en arsenic. Ils les ont ensuite placés dans un milieu dépourvu de phosphore pour les forcer à utiliser l'arsenic comme brique élémentaire», explique Frances Westall du centre de biophysique moléculaire d'Orléans. L'arsenic est alors venu remplacer le phosphore dans l'ADN, mais aussi dans l'ATP, la réserve énergétique des cellules. Une nouvelle forme de vie, basée en partie sur l'arsenic, a ainsi vu le jour. La difficulté de trouver des atmosphères propices à la vie telle que nous la connaissons pourrait donc bien être contrebalancée par l'existence de formes de vie basées sur d'autres éléments. Cette bactérie qui remplace le phosphore par l'arsenic est la première preuve tangible que la vie pourrait exister sous des formes qui restent à découvrir.

*L'astrobiologie, appelée aussi exobiologie,est une discipline visant à étudier la vie dans l'univers, mais aussi son origine sur Terre et son évolution.

mercredi 1 décembre 2010

Oracle Exadata, céquoitèce ???

Allez, après ce brève épisode neigeux (qui reprend), continuons nos périgrinations sur le stockage. C'est d'Exadata dont il s'agit cette fois, j'avoue d'ailleurs que vu la spécialisation de la machine, je suis un peu borderline sur le sujet mais attendu que mes amis de Cheops Technology m'ont emmenée en séminaire à Bordeaux pour traiter du sujet en compagnie de Chris Baker (VP Oracle) et de Franck Poulain, j'en profite.


Chris Baker (à gauche) répondant aux questions

Alors qu'est-ce qu'Exadata et à quoi ça sert ? Et bien on pourrait définir cette machine comme du hardware qui embarquerait des composants de base Oracle au plus près du matériel permettant au serveur de sous-traiter des tâches liées au stockage. En effet, dans les bases Oracle hautement transactionnelles, le frein c'est la vitesse du lien fiber channel associé à la latence des disques !!!! Savez-vous que lorsqu''on interroge une table, le serveur hébergeant le moteur SGBD balaie en fait l'intégralité des enregistrements sur disque et ne fait que filtrer l'affichage pour purger ce qui ne correspond pas à la requête. Et bien Exadata gomme ce problème de perte de charge en utilisant exclusivement de l'infiniband à 40 Gb/s et en déportant la sélection des enregistrement au plus près des disques grace à un protocole appelé smart-scan. Au passage, les données sont systématiquement compressées jusqu" à un taux pouvant aller à 1 pour 50. Une baie Exadata peut embarquer 14 cellules équipées de disques HP (hautes performances) ou HC (haute Capacité) du SAS ou du SATA quoi ....

Si des fois la perf était encore, par le plus grand des hasards insuffisante, on peut toujours interconnecter 8 racks entre eux. Enfin, pour améliorer la maintenance, le top c'est qu'un seul patch est à passer pour upgrader matériel et logiciel : du bonheur, fini de se prendre la tête avec les matrices de compatibilité HW/SW. Bref, Exadata c'est pas réellement du stockage, ce serait plutôt du SGBD Ready-in-a-box et ça marche fort, très fort entre 7 et 25 fois plus vite pour vos bases Oracle molles du genou.

Un détour par le tout nouveau Datacenter Bordelais de Cheops s'imposait :


Dans cette allée, 1000 U vous attendent ...

L'offre d'hébergement Cloud porte le nom d’ICOD (Infrastructure Cheops On Demand). Les baies APC a refoidissement à eau utilisées ici supportent 7 fois plus de kw que dans des baies traditionnelles. Plus d'infos sur le site de l'intégrateur. En tout cas c'est beau, c'est propre, c'est éco-efficient, c'est Cloud.