vendredi 29 mars 2013

XtremIO officiellement dévoilé

NdB : Je confirme que pour le provisionning VDI c'est de la balle !

Vu sur le MagIT : EMC accélère sa stratégie de développement dans le stockage Flash. Le 29 mars 2013 (14:10) - par Christophe Bardy

Moins d’un an après le rachat de l’Israélien XtremIO, EMC a officiellement dévoilé la première génération de ses baies 100% Flash en cluster, prenant une longueur d’avance sur ses grands concurrents. Le constructeur a également rafraichi sa gamme de cartes PCI-e Flash. Marchés principaux visés : les applications transactionnelles à haute performance et le VDI
.

EMC a refondu en profondeur son offre de stockage Flash en dévoilant courant février sa première baie de stockage 100% Flash et en renouvelant son offre de cartes Flash PCI-express. Le n°1 mondial du stockage n’entend visiblement pas céder de terrain face aux petits nouveaux du secteur comme Fusion-io dans le monde des cartes Flash, ou SolidFire, Whiptail et Violin dans le monde des baies de stockage 100% Flash. Il prend aussi un peu d’avance sur ses grands concurrents dans le secteur des baies 100% Flash. NetApp ne devrait ainsi dévoiler sa nouvelle génération de baies 100% Flash en cluster que vers la fin d’année, tandis qu’HP travaille toujours à une déclinaison Flash de ses baies StoreServ (ex-3Par). IBM ne dispose à ce jour d’aucune offre équivalente à celle d’EMC et n’a pour l’instant pas communiqué clairement sur ses intentions suite au rachat de Texas Memory Systems. Hitachi travaille sur sa propre technologie et Dell n’a pour l’instant à son catalogue aucune baie Flash, même si la firme a un partenariat avec Violin et a récemment investi dans Skyera.

(XtremIO en action)

XtremIO : une architecture conçue pour la Flash

La baie Xtremio est le fruit du rachat de la start-up israélienne éponyme en 2012. Comme EMC l’avait annoncé, il s’agit d’une baie 100% Flash à architecture scale-out dont l’objectif est de délivrer des services de stockage avec une latence garantie inférieure à la milliseconde. Les principaux marchés visés sont celui des applications transactionnelles très sensibles à la latence ainsi que celui de la virtualisation de postes de travail. La force des baies XtremIO tient dans leur système d’exploitation spécifiquement optimisé pour le stockage Flash. Ce système embarque en natif des services de déduplication « inline », la gestion du Thin provisioning, le support des API VAAI et fournit des services basiques de protection de données via un système de snapshot et de clonage. Les baies XtremIO sont optimisées pour traiter des blocs de 4K et minimiser les opérations d’écriture sur la Flash (la baie utilise des SSD à base de Flash MLC).


Chaque nœud d’un cluster XtremIO (ou XBrick) embarque deux contrôleurs à base de puces Xeon E5 en mode actif/actif (ce qui fournit une redondance interne au nœud) ainsi que 16 disques SSD de 200 Go. Soit une capacité brute de 3,2 To par nœud ou 1,9 To utiles, soit 15, 2 To utiles pour un cluster de 8 XBrick (sans prendre en compte les bénéfices de la déduplication, qui, selon le constructeur, peut atteindre des ratios de 5 :1 à 30 :1 en fonction des applications).

D’après EMC, chaque XBrick délivre 150 000 IOPS (bloc de 4K mix d’écritures et de lectures) ou 250 000 IOPS (blocs de 4K en lecture uniquement). Huit XBrick peuvent être agrégés au sein d’un même système en cluster (chaque nœud étant alors relié aux autres via Infiniband) pour délivrer près de 1,2 million d’IOPS (mix lecture et écriture) – 2 millions d’IOPS (en lecture). Chaque nœud du cluster est à la fois un nœud de stockage et de traitement d’I/O et les contrôleurs de chaque nœud voient les disques de l’ensemble du cluster. Les données et les I/O sont distribuées de façon équitable entre les nœuds par un mécanisme de load balancing. L’accès aux données depuis les serveurs s’effectue soit via des interfaces Fibre Channel 8Gigabit, soit via des interfaces 10 Gigabit Ethernet en mode iSCSI.


En l’état des développements, la baie XtremIO ne dispose d’aucune intégration directe avec les baies de disques existantes du constructeur. Selon Barry Ader, directeur du marketing chez EMC, le groupe a toutefois validé sa baie 100% Flash avec le contrôleur de virtualisation VPLEX et avec les appliances de réplication et de protection continue de données EMC Recoverpoint. Cette compatibilité avec Recoverpoint pourrait à terme servir de passerelle avec les autres systèmes de stockage d’EMC, même si le constructeur se refuse à toute promesse.

La baie XtremIO devrait arriver ce printemps dans un mode baptisé Directed Availability par EMC, et qui permet un suivi de proximité des premiers déploiements afin de faire remonter d’éventuels problèmes et les traiter de façon accélérée.

jeudi 28 mars 2013

Internet vient de vivre une grosses attaque


Vu sur le Figaro.fr - Benjamin Ferran - Mis à jour le 28/03/2013 à 01:01 Publié le 27/03/2013 à 21:1

Des pirates ont déclenché une attaque Internet d'une ampleur inédite. Ils ciblent l'organisation Spamhaus, qui milite contre le spam. Leur attaque entraîne des congestions sur Internet

Si Internet vous a semblé un peu plus lent que d'habitude ces derniers jours, votre fournisseur d'accès n'est peut-être pas à blâmer. Selon le spécialiste des réseaux CloudFlare, une bataille homérique se tient depuis une dizaine de jours au cœur des infrastructures d'Internet et a pu affecter «des centaines de millions de personnes», notamment en Europe.

L'organisation Spamhaus, qui milite contre le spam sur Internet, est victime d'une attaque d'une ampleur rarement vue, qui entraîne une congestion sur les réseaux.
Les attaques ciblent Spamhaus. Cette organisation internationale à but non lucratif, créée en 1998, traque les hébergeurs peu scrupuleux par lesquels transite le spam et fournit des listes noires aux fournisseurs d'accès à Internet. Dernièrement, Spamhaus a ajouté à ses listes un hébergeur néerlandais dont les serveurs sont nichés dans un ancien bunker de l'Otan, Cyberbunker. Cette société à la réputation sulfureuse accueille «n'importe quel service Web s'il n'est pas lié à la pédophilie et au terrorisme» et se montre très peu sensible à la lutte pour la cybersécurité.

Le bannissement de Cyberbunker a déclenché une contre-offensive d'une force rarement vue. Dès le 18 mars, le site de Spamhaus est tombé une première fois sous les assauts d'une attaque par déni de service distribué (DDoS). Dans ce scénario, des dizaines de milliers d'ordinateurs assaillants se connectent aux serveurs de la victime, pour le surcharger de connexions.

«Une des plus importantes attaques à ce jour»

Pour se défendre, Spamhaus a souscrit aux services de CloudFlare, paré pour défendre des sites contre ce genre d'attaque. Les assaillants n'ont pas été découragés. Ils ont ciblé les opérateurs de réseau auxquels CloudFlare achète sa bande passante. L'un d'eux aurait constaté un sursaut de trafic de 300 gigabits par seconde. Des points d'échange Internet de Londres, Amsterdam, Francfort et Hongkong, où les réseaux s'interconnectent dans les grandes villes, ont aussi été pris pour cible.

Les niveaux atteints «feraient de cette attaque l'une des plus importantes à ce jour», écrit CloudFlare sur son blog, ce que confirme la société spécialisée dans la sécurité informatique Kaspersky Lab, dans un communiqué. La charge serait trois à six fois plus importante que des attaques récentes qui ont perturbé l'accès à des banques américaines. Cette congestion pourrait être «une raison» de ralentissements observés sur Internet ces derniers jours. L'effet sur les infrastructures d'Internet, si l'attaque venait encore à s'amplifier, est inconnu.

Une enquête dans cinq pays

D'après les experts de CloudFlare, les assaillants utilisent l'attaque par amplification de DNS. Comme l'explique cet article, cette technique peut être comparée à une mauvaise blague, où l'on commanderait un grand nombre de pizzas à faire livrer au domicile de sa victime, qui aurait à les payer.
«Personne n'a jamais délégué à Spamhaus le fait de déterminer ce qui doit transiter sur Internet» Sven Olaf Kamphuis, activiste Internet, présenté comme un porte-parole des pirates.

Concrètement, les pirates se font passer pour leur victime (en l'occurrence Spamhaus) et expédient un grand nombre de demandes de conversions à des serveurs DNS «récursifs ouverts». Ces annuaires convertissent les adresses entrées dans le navigateur (comme www.lefigaro.fr) en adresses IP, pour joindre les ordinateurs sur lesquels les sites sont hébergés. Les fichiers de réponse sont alors envoyés à la victime, qui croule sous les connexions. L'effet est démultiplié, car la taille de ces réponses est plus importante que les requêtes. «Un paquet de 20 octets a grossi jusqu'à peser 8,5 kilo-octets», précise un article de l'université de Lille.

Cyberbunker ne s'est pas exprimé en son nom. Rien n'indique encore que l'hébergeur soit lui-même responsable. Un activiste d'Internet, présenté par le New York Times comme le porte-parole des assaillants, a toutefois confirmé que les représailles étaient menées contre Spamhaus, pour «abus d'influence». «Personne n'a jamais délégué à Spamhaus le fait de déterminer ce qui doit transiter sur Internet. Ils sont parvenus à cette place en prétendant combattre le spam», ajoute-t-il. Cinq pays enquêtent déjà sur ces attaques, indique la BBC.

dimanche 24 mars 2013

VMware Forum le 6 juin 2013 à Paris



Le prochain VMware Forum français aura lieu le 6 juin 2013 au Carrousel du Louvre

Le VMUG France à l’honneur de vous annoncer en avant première la présence de Pat Gelsinger, CEO de VMware, lors de cet évènement.

Le VMUG France sera aussi présent avec des surprises.

Le salon VMware Forum 2013 est l’occasion unique de rencontrer VMware, le leader mondial de la virtualisation et de l’infrastructure du Cloud. 

Que vous soyez intéressé par le Cloud, la virtualisation ou la mobilité, le salon VMware Forum 2013 vous aidera dans votre transition vers le Cloud.  Les différentes sessions de présentations ainsi que les démonstrations sur un large espace d’exposition vous aideront à mieux cerner les avantages des infrastructures du Cloud selon VMware et ses partenaires associés : simplification de l’informatique, renforcement de la sécurité et accélération du développement et du déploiement d’applications à travers l’entreprise.

Les grandes thématiques de l’événement :

L’espace de travail multipériphérique intégré au service de la productivité des collaborateurs mobiles
Le « software-defined datacenter », ou comment étendre la virtualisation aux serveurs, au stockage, au réseau et aux dispositifs de sécurité pour davantage de flexibilité
L’automatisation des opérations et du provisionnement des services sur le Cloud pour une réduction des coûts d’exploitation
La virtualisation d’applications stratégiques comme SAP, vecteur de qualité de service et de continuité d’activité pour les clients VMware. VMware et le choix des suites intégrées de type vCloud Suite, un positionnement unique.

Pour vous inscrire cliquez ICI

Date :
6 juin 2013

Lieu :
Carrousel du Louvre
99 Rue de Rivoli
75001 Paris

samedi 23 mars 2013

HADOPI cherche maintenant sa justification dans Youtube


Vu sur le Figaro.fr - par Benjamin Benoit

La Haute autorité a analysé la nature et l'audience des vidéos postées sur YouTube. Les plus regardées ne sont pas forcément celles qui sont présentes en plus grand nombre.

Quel genre de vidéos trouve-t-on en plus grand nombre sur YouTube? Dans une étude publiée jeudi, la Hadopi cherche à mieux comprendre le contenu mis en ligne sur le premier site de partage de vidéos. Pour cela, la Haute autorité a sélectionné au hasard plus de 3300 vidéos, analysé sa catégorie (musique, films, série ou média) et observé l'évolution de son nombre de vues.

Premier constat, les vidéos les plus présentes du panel sont toujours les créations d'amateurs (22,60%), qui ont fait le succès de YouTube à ses débuts. Viennent ensuite les extraits issus de la télévision ou la radio (22,18%), les clips musicaux (13%) puis les publicités (12,82%).

En termes de vues, le classement est clairement différent. Les clips musicaux bondissent en première position avec 40.000 vues par jour en moyenne. À titre de comparaison, les créations d'amateurs peinent à atteindre le quart. Les vidéos de type livres audios, cours, conférences, extraits de séries et spectacles ne génèrent presque pas de consultations.

Voici les observations de l'Hadopi sur quatre catégories:

• Les clips musicaux (13% du panel). Dans cette catégorie, qui génère le plus de vues, les clips officiels ne sont pas les plus nombreux (24%). On trouve avant tout des vidéos créées par les internautes, en associant le morceau original à d'autres images (29%). Cet écart est encore plus net dans les lives. Les performances officielles représentent 1% de ces 432 vidéos, tandis que les enregistrements réalisés par le public montent à 21%! On trouve aussi 14% de vidéos originales postées sur des comptes non officiels.

Les clips originaux sont en revanche, de très loin, les plus vus: 12.000 par jour en moyenne, devant les versions «altérées», six fois moins consultées. L'étude précise que plus du tiers des vidéos redirigent vers une plate-forme pour acheter le titre en question.

• Les films(2,75% du panel). Ils représentent, à l'inverse, une infime parcelle du panel. L'étude distingue les films classiques, en plus grand nombre, des œuvres d'animation. Parmi les films complets postés, 15% seulement sont animés. En terme de vues, c'est l'inverse: 5500 vues pour les animés contre 2000 pour les films classiques. Ce qui marche avant tout, ce sont les extraits de films reliés entre eux, qui caracolent à 12.000 vues par jour. Ils permettent de regarder l'intégralité du film par petits bouts.

• Les séries (5% du panel). Cette catégorie compte un ratio de deux épisodes de série animée pour un épisode classique, selon les observations de l'Hadopi. Les animes japonais ou les épisodes de dessins animés sont légion sur YouTube. Ces contenus dominent aussi en nombre de vues, à la fois sous forme de morceaux choisis ou de parties reliées entre elles. Les épisodes complets d'animes totalisent ainsi près de 8000 vues par jour.

• Les médias (22,18% du panel). Les contenus des médias sont très nombreux, mais génèrent peu de vues. Ça n'empêche pas cette catégorie d'être la plus équilibrée: sport, divertissement et informations cohabitent presque équitablement. Les vues sont assez homogènes, seules les vidéos liées à l'information sont en retrait, presque deux fois moins vues que les divertissements et documentaires.

Les 3323 vidéos ont été choisies sans contrainte de langue ou d'origine, mais excluent par définition les vidéos privées. Le responsable de la recherche, docteur de l'école Telecom Paritech, met en garde sur un biais de la collecte de son échantillon, qui se fonde sur les vidéos suggérées par YouTube.

La Hadopi a mené cette étude dans le cadre de sa «mission légale d'observation des utilisations licites et illicites». Elle n'a pas analysé la catégorie des créations «amateurs», qui sont en plus grand nombre sur YouTube, mais ne posent généralement pas de problème de droits d'auteur. L'étude s'est concentrée sur YouTube car il s'agit de la première plateforme de vidéo dans le monde et en France, avec près de 30 millions de visiteurs uniques en janvier 2013.

Cette étude intervient alors que Pierre Lescure rendra le 15 avril son rapport sur «l'acte II de l'exception culturelle», qui dessinera le futur et la lutte contre le piratage en ligne et devrait comprendre des mesures pour lutter contre le streaming illégal.

Les bébés coons grandissent

Le bébés font plus de 600g, commencent à manger de la pâtée et ont définitivement abandonnés le nid. A présent ils explorent ll explorent l'ensemble de la pièce et ont choisi de se reposer sur le tapis d'éveil mise à leur disposition.
Ipanema
Ilona et In-Low
 Ilona cherche sa future nouvelle famille
 Ipanema et Ilona intriguées par l'appareil photo
In-Low, Ipanmea, Ilona
Dis, tu viens me crapouiller le bidou ?

Planck ouvre la voie d'une nouvelle physique



Vu sur Lesoir.be : L’énigme cachée dans la lumière du fond des âges

Olivier Dessibourg / Le Temps- Mis en ligne Vendredi 22 Mars 2013, 11h13

Le satellite de l’ESA Planck, lancé en 2009, révèle les premiers jets de lumière de l’Univers, émis lorsque celui-ci était âgé de 375 000 an seulement. Aux confirmations prévues s’ajoutent des données mystérieuses, qui pourraient indiquer l’existence possible d’une «nouvelle physique» et d’Univers parallèles.
La voie la plus courte pour aller vers l’avenir est celle qui passe par l’approfondissement du passé.» Le directeur de l’Agence spatiale européenne (ESA) Jean-Jacques Dordain a fait appel à Aimé Césaire pour présenter, jeudi à Paris, les résultats attendus du télescope spatial Planck. Le futur que permettra l’engin, selon lui, est de disposer d’informations précises comme jamais pour aborder les questions fondamentales sur l’origine de l’Homme. Quant au passé évoqué, il ne concerne rien de moins que le cosmos tel qu’il se présentait quelque 375 000 années seulement après sa naissance.


Planck : l'art de rendre visible l'invisible - Photo ESA

La sonde européenne vient de révéler la carte la plus détaillée des premiers soubresauts lumineux de l’Univers. Et ces résultats, s’ils confirment les théories, bousculent aussi les connaissances. Au détour des déclarations, on évoque l’existence d’Univers parallèles et d’Ages ayant précédé le grand boum originel…
Selon les modèles, tout aurait commencé il y 13,7 milliards d’années. Quelques micropoussières de nanosecondes après le Big Bang, l’Univers s’étend en un temps indescriptiblement court. Les distances sont multipliées par un facteur immense (10e25, soit «1» suivi de 25 «0»); c’est la période d’«inflation». Dans cette fournaise d’alors 100 000 milliards de milliards de milliards de degrés (10e32 °C), les particules baignent dans une soupe opaque et bouillonnante de laquelle rien ne sort. Petit à petit, l’Univers se refroidit. Vers 2700°C, des atomes (hydrogène, hélium) se forment. Les interactions entre les particules qui les constituent libèrent des photons, des «grains de lumière». Cette illumination primordiale, nommée «fond diffus cosmologique», parcourt un cosmos devenu transparent. Et depuis, à la faveur de l’expansion de l’Univers, cette lumière a été étirée inexorablement, si bien que sa longueur d’onde correspond aujourd’hui, dans l’œil du télescope, à celle (invisible dans celui de l’homme) émise par un corps dont la température serait de 2,7°C au-dessus du zéro absolu, soit -270°C.

C’est en 1989 que la NASA lance le satellite COBE, pour observer cet imperceptible flamboiement du ciel. Et trois ans plus tard, George Smoot, son responsable, de s’exclamer devant les résultats: «C’était comme voir le visage de Dieu!» COBE avait repéré d’infimes fluctuations de température parsemées sur l’image du fond cosmologique. Des miettes de densité légèrement différente qui seraient autant de germes portant toutes les structures célestes (galaxies, étoiles, planètes…). Enfin, dès 2003, le satellite WMAP fournit une carte complète de ces anisotropies, avec une précision déjà prodigieuse de 0,3°C. Jusqu’à ce que Planck, engin à 600 millions d’euros, soit lancé en 2009.

La finesse du satellite européen est dix fois meilleure. S’il travaillait dans le visible, Planck serait capable de repérer des cailloux d’un millimètre sur une colline de 1000 m d’altitude. «L’image obtenue, qui ressemble à un ballon de rugby sale, est une mine d’or, s’est réjoui George Efstathiou, de l’Université de Cambridge. Nous avons extrait les émissions lumineuses d’avant-plan situées entre nous et la lumière originelle émise par l’Univers, ce qui a fait apparaître le rayonnement de fond cosmologique avec une précision encore jamais atteinte.»

Recette affinée

Qu’y lisent les scientifiques? «Tout d’abord une répartition des composants de l’Univers un peu différente que celle admise jusqu’ici», explique l’astrophysicien Marc Türler, de l’Integral Science Data Center à Versoix. On savait que la matière visible (étoiles, galaxies, etc.) n’en constituait qu’une fraction; celle-ci se monte désormais à 4,9%. Ensuite, la «matière sombre», à la nature encore inconnue mais repérée à travers ses effets gravitationnels, correspond à 26,8%, soit près d’un cinquième de plus qu’estimé jusque-là. Enfin, le dernier composant est l’énergie sombre, force mystérieuse responsable de l’accélération de l’expansion de l’Univers, dont le pourcentage passe à 68,3%, contre 72,8% avant son estimation par Planck. Tel un plat aux ingrédients jusque-là approximatifs, la recette cosmique a été affinée.

Autre résultat: «Les données ont permis de réviser une valeur de référence, la «constante de Hubble», qui décrit l’expansion de l’Univers, et donc son âge, dit George Efstathiou. Celui-ci serait de 13,82 milliards d’années.» Soit un vieillissement de quelque 80 millions d’années.
De manière générale, «tout concorde avec ce qu’on savait déjà, simplement plus précisément », commente Alan Guth, physicien théorique au MIT de Boston. Mieux: «Les données continuent de corroborer parfaitement nos modèles décrivant l’inflation. Surtout, il semble même que les plus simples de ces modèles soient les plus appropriés.»

«C’est vrai, dit Jan Tauber, scientifique à l’ESA. Mais nous observons aussi des structures étranges qui nous forcent à revoir nos assomptions de base.» L’une des constatations les plus surprenantes est que, sur de grandes échelles, les fluctuations de température du «fond cosmologique» ne correspondent pas exactement à celles que prévoit le Modèle Standard, la «notice de construction» de l’Univers affinée au fil des décennies par les physiciens des particules. De plus, il existe une asymétrie entre la température moyenne observée dans les demi-sphères Nord et Sud du ciel. «Vu que l’inflation est supposée homogène dans toutes les directions, on s’attendrait à ce que ce ne soit pas le cas», s’interroge George Efstathiou. Enfin, la tache froide repérée sur une partie du ciel est plus étendue qu’escompté. «C’est pourquoi l’on évoque, avec Planck, l’image d’un Univers «presque parfait»…

Une physique plus vaste

«La détection de ces anomalies est suffisamment significative pour écarter tous les doutes qui auraient pu subsister quant à leur réalité, indique Paolo Natoli, de l’Université de Ferrara. Impossible d’avancer qu’il pourrait s’agir d’un biais introduit par les instruments. Elles sont bien réelles et il nous faut leur trouver une explication crédible.»

A demi-mot, l’on évoque l’existence possible d’une «nouvelle physique». «Peut-être ces larges structures énigmatiques sont-elles les signes de l’existence d’autres Univers, et indiquent que le nôtre ferait partie d’un «multivers» [amas d’Univers], dit George Efstathiou. Et peut-être y avait-il quelque chose avant le Big Bang. Mais cela reste spéculatif.» Cette hypothèse a déjà été évoquée en 2007 notamment par un célèbre physicien, l’Américain Leonard Susskind*: «Existe-t-il un mécanisme de la Nature qui aurait peuplé un multivers de tous les environnements possibles en transformant les possibilités mathématiques en réalités physiques? C’est ce que pensent de plus en plus de théoriciens – moi compris.»

Marc Türler, lui, ne veut pas imaginer si loin. Mais il admet l’existence possible d’une physique plus vaste: « C’est d’ailleurs aussi ce que semblent indiquer certains résultats du LHC, au CERN, autour du boson de Higgs…» 

vendredi 15 mars 2013

News de petits Coons

Les bébés de Féeline et Flocon  ont 3 semaines et demi et commencent à vouloir explorer hors du nid

 INLOW
 IPANEMA
ILONA

jeudi 14 mars 2013

Quatre METTIS livrés à Metz

Les livraisons dans le cadre du projet de BHNS METTIS se poursuivent à Metz. Trois nouveaux véhicules de 24m couleur "Prune" ont été livrés. il s'agit des No 65669, 65670 et 65671.







Le futur remisage du nouveau CDM de Woippy
L’aménagement du futur PCC commence
Lumineux et fonctionnel ce futur PCC
 Le dépôt de Blida, bientôt un ancien souvenir ...

lundi 11 mars 2013

Réseaux convergés : Infiniband, l'autre voie


Avec l'apparition de la consolidation liée à la virtualisation, l'arrière de nos serveurs est devenu un véritable plat de spaghettis du fait du nombre de câbles nécessaires pour irriguer les machines virtuelles. L'usage de réseaux très hauts débits 10 giga Ethernet scindés au travers de VLANs puis l'initiative Cisco FCOE fédérant SAN et LAN sur un même câble 10 Base CX4  permit d'atténuer le phénomène. A présent que les périphériques notamment disques se sont adaptés pour offrir la bande passante nécessaire aptes à affronter les IO Storms de centaines de machines nous voici face à une double problématique : une nouvelle inflation de câbles qui menace et une augmentation du temps de réponse du fait du très important volume de données à traiter. Oracle a proposé il y a quelques temps ses engineered systems EXA associant au plus près logiciel et matériel tout en consolidant les licences d'utilisation. Pour autant, ses solutions software in-the-box ne s'appliquent que si vous utilisez  les produits de l'éditeur. Que faire si vous utilisez d'autres produits ?  


Ce qui fait la force des EXA-machines d'Oracle, c'est leur backend à base de technologie Infiniband. Qu'est-ce ? Infiniband n'est pas à proprement parler un réseau mais plutôt un bus parallèle externe à très haut débit un peu comme si vous étendiez le bus de communication PCI de votre carte mère à l'extérieur du boitier de votre serveur permettant d’écrire directement dans la mémoire du voisin. Cette technologie est le fruit de la fusion des recherches sur le projet Future I/O, développé par feu Compaq, IBM, Hewlett-Packard, et celles de Next Generation I/O (ngio), menées par Intel, Microsoft, et Sun Microsystems à la fin des années 90. Pour la petite histoire, INTEL ne croyant pas à l'avènement de cette technologie quittera les festivités, préférant travailler sur son propre bus maison : le bien connu bus PCI / PCI-Express ... Le coeur du bus Infiniband s'appuie sur un switch appelé directeur infiniband apte à véhiculer sur un même média les protocoles SAN (FCOE compris), LAN. Les cartes d'interface sont des Host Canal Adapter ou HCA offrant une connectivité à 10 Gbit/s (SDR, Single Data Rate), 20 Gbit/s (DDR, Double Data Rate) ou 40 Gbit/s (QDR, Quad Data Rate) mais avec une latence inférieure à 100 nanosecondes, la vitesse de fonctionnement de la mémoire RAM !  Ainsi, un serveur équipé d'une HCA bi-canal QDR bénéficie de 80 Gbit/s de bande passante pour l'ensemble de sa connectivité. 


L’un des autres atouts de l’infiniband contrairement à FCOE, c’est d’autoriser deux sauts depuis le serveur jusqu’au target tout en faisant office de passerelle vers les autres médias traditionnels.La Fabric étant au centre de l’infrastructure, elle peut attribuer elle-même les World Wide Name (WWN), les Media Access Control (adresses MAC), ainsi que les adresses IP permettant ainsi une totale virtualisation au niveau hardware. Ce n’est donc peut-être pas tout-à-fait par hasard qu’Oracle a racheté l’un des chantres de cette technologie, j’ai nommé XSIGO. lui offrant une réponse crédible dans le domaine du Software Defined Datacenter/


dimanche 3 mars 2013

Comment vont nos derniers bébés Coons ?

Toute la chatterie Katoochat était en effervescence, ils se sont fait attendre mais ont finalement décidés de venir au monde le 19 février dernier pour notre plus grand plaisir : bienvenu à Ilhona, Imotep et Ipanema. A présent les bébés de Féeline et Flocon commencent à ouvrir les yeux et à ramper dans le nid.

 Ilhona, petite coon blanche comme maman
 Imotep, petit coon blanc
 Ipanema, une petite brown et aussi la plus téméraire

Avec maman Féeline, très attentionnée