samedi 31 décembre 2011

Plein de bonnes choses pour 2012


Je vous souhaite une bonne année et surtout une bonne santé

mercredi 28 décembre 2011

Canon vs Nikon : la vidéo qui tue !

Petite visite au palais de la découverte

Une de mes premières passions de gamin : astronomie et astronautique. Vu les (très) faibles conditions d'éclairage, cela m'a fait un bon exercice pour m’entraîner à shooter au Nikon.


"Le visage de Dieu", tel est le nom qu'a donné l'astrophysicien Georges Smoot à l'image entourée ci-dessus qui représente le rayonnement fossile du Big Bang capté par le satellite Cobe
Début de la galerie de magnifiques photos de l'univers
Rien que pour les yeux ...

Maquette d'un rover russe d'exploration lunaire Lunakhod

Maquette d'un découvreur : le satellite d'exploration de l'espace profond appelé Plank

Maquette du très célèbre téléscope en orbite Hubble

Maquette de l'un des rovers martiens de la Nasa : Curiosity

Espace réservé aux missions lunaires Apollo

Conseil : un passage au planétarium s' impose. Le système solaire n'aura plus de secret pour vous !

Photos réalisée au Nikon D300s + Fish Eye 8mm f5.6 400 ISO.

Quels stockages pour 2012 ?

Une synthèse proposée par Christophe Bardy sur le MagIT. Etat du monde IT : Quelles tendances pour le stockage en 2012

L'année à venir devrait être porteuse de nombreuses évolutions dans le monde du stockage. Certaines liées au changement de la nature des données stockées par les entreprises, d'autres liées aux évolutions des technologies. Le MagIT fait le point sur cinq tendances qui devraient marquer l'année et revient sur l'actualité qui a marqué l'année écoulée.

Le volume des données stockées dans les entreprises progresse inexorablement à un rythme d'environ 50 % par an. C'est donc un déluge de données qui s'abat sur les entreprises, un déluge qui influent en profondeur sur la façon dont les entreprises doivent penser leur stockage.??Quelques constats s'imposent. Il y a quelques années, la majorité des données des entreprises étaient stockées sous forme structurée (en clair dans des bases de données) et la problématique essentielle n'était pas tant de gérer l'accroissement des capacités, que de répondre au besoin de performance des applications traitant ces données, tout en garantissant leur intégrité. Ces besoins de protection et de performances ont contraint les grands constructeurs à des prouesses d'ingénierie et ont donné naissance à des baies comme les Symmetrix d'EMC, les VSP d'Hitachi, les DS8000 d'IBM ou les baies 3PAR d'HP. Ces systèmes sont extraordinairement coûteux, mais leurs utilisateurs s'accordent en général sur le fait qu'ils remplissent leur fonction??Sans conteste, le besoin de stocker de façon sûre et performante des jeux de données structurées critiques pour l'entreprise est toujours présent. Mais ce n'est plus le problème majeur. Les entreprises ont aujourd'hui deux autres défis majeurs. Le premier est de bâtir une couche de stockage flexible et performante adaptée aux besoins d'architectures de plus en plus virtualisées. Le second est de disposer d'une architecture de stockage à grande échelle, facilement évolutive et peu coûteuse, capable de stocker les importants volumes de données non structurées (e-mails, images, photos, vidéos, informations en provenance des réseaux sociaux et des outils collaboratifs,...) provenant d'applications internes à l'entreprise, comme d'applications (ou de fournisseurs de données) externes. Car ces données non structurées représentent déjà près de 80 % du volume de données des entreprises et devraient compter pour plus de 95 % d'ici 5 ans.???Comme rien n'est jamais simple dans le monde du stockage, ces changements dans les besoins des entreprises s'accompagnent d'une vraie révolution en matière de technologies. Depuis déjà plusieurs années les constructeurs abandonnent leurs architectures propriétaires pour se convertir à des architectures basées sur des puces x86 signées AMD ou Intel. De plus en plus, les baies de stockage ressemblent à des PC (ou à des clusters de PC) bourrés de disques et pilotés par des systèmes d'exploitation spécialisés.

Ensuite, les périphériques de stockage évoluent. Peu à peu, les disques durs font place au stockage Flash pour les applications les plus exigeantes en matière de performance. Peu à peu les architectures SMP massives cèdent du terrain aux architectures en cluster. La convergence vantée par les constructeurs se traduit aussi par un rapprochement des serveurs et du stockage. Le mainframe, si longtemps moqué (note de l'auteur : mea culpa, mea maxima culpa) redevient un modèle d'intégration. Car en plaçant les capacités de calcul au plus près des disques, un ordinateur convergent profite d'avantages uniques en matière de bande passante et de latence d'accès aux données. Et pour cause, au lieu d'accéder aux données via une interface externe "lente" (type Fibre Channel ou Ethernet), il le fait à la pleine puissance du bus PCI-express (pour autant que le support de stockage puisse suivre…).

Enfin, il y le cloud et sa promesse de capacités de stockage infinies, à un coût défiant toute concurrence. La promesse, c'est vrai ressemble, à celle d'un bonimenteur de foire. Mais elle est largement vraie. Depuis vingt ans, les grands spécialistes du stockage vendent le Gigaoctet de données à un prix 10 à 20 fois supérieur à celui des disques durs (le prix disent-ils de l'ingénierie et de la R&D nécessaire à protéger ces données dans une baie de stockage). Sur le cloud, ce multiple est plus proche d'un facteur de 2 ou 3.

Certes, rares sont encore les entreprises prêtes à confier leurs données les plus critiques à un fournisseur de cloud public. Mais pour certaines données non critiques ? D'autant que vu le prix, il est possible de stocker sur deux cloud différents tout en restant moins cher qu'en stockant ses données en local.

Notons pour terminer que cette émergence du stockage en cloud s'accompagne de celle d'une nouvelle génération d'acteurs spécialisés dans les passerelles (plus ou moins intelligentes) vers le cloud. Ces appliances visent à tenter de gommer les principaux inconvénients du cloud en créant un étage de cache et d'intelligence local conçu pour palier la pauvreté fonctionnelle et la latence élevée du stockage en cloud. Ces équipements sont à première vue séduisants, à condition que le surcoût qu'ils engendrent ne rende pas le stockage en cloud plus coûteux que le stockage local…
Que faut-il donc attendre de 2012 ? ??D'un point de vue technologie, Le MagIT entrevoit cinq tendances phares pour l'année à venir :

• L'explosion du stockage Flash

La première sera l'explosion de l'usage de la mémoire flash par les entreprises, une explosion qui devrait aussi être aidée par la pénurie conjoncturelle de disques durs causée par les innondation en Thaïlande (où se trouvait plusieurs usines de fabricants de disques et de composants).
Utilisée dans des baies SAN ou NAS en conjugaison avec des technologies de "tiering", la flash permet de doper les performances des baies de stockage tout en améliorant leur consommation énergétique. Un disque SSD permet en effet de délivrer les performances d'une quinzaine de disques SAS à 15 000 tr/mn. Utilisée dans les serveurs (sous forme de cache ou stockage local), elle permet aussi de doper les performances des serveurs.
On devrait aussi voire se multiplier les baies de stockage conçues spécifiquement pour tirer parti du stockage flash comme celles proposées par Kaminario (rendu par Dell), Nimbus, Pure Storage, RamSan ou Violin (revendu par HP et IBM). Ces baies font en effet sauter les verrous de performances qu'imposent les baies traditionnelles aux serveurs pour les applications hautement transactionnelles et leur prix élevé et souvent larguent compensé par les gains de performances, la réduction du nombre de serveurs et les économies d'énergies permises dans le Datacenter.

Il sera intéressant de voir quel impact ces nouvelles offres auront sur l'avenir des grandes baies de stockage hautes performances historiques pour lesquelles elles devraient être de redoutables concurrents. Certains constructeurs comme EMC ou Oracle ont d'ailleurs déjà annoncé leurs propres baies de stockage 100 % Flash et il est fort probable que les autres ne pourront attendre éternellement.

• L'adoption du stockage NAS et objet en cluster

La seconde sera la montée en puissance du stockage NAS et objet en cluster. Le stockage en cluster a fait ses preuves dans le monde du HPC avec des solutions comme Lustre ou GPFS. Désormais, il s'attaque au monde des entreprises afin de fournir une solution flexible et économique au problème de l'explosion du volume de données non structurées.
Tous les grands constructeurs ont aujourd'hui à leur catalogue une solution de stockage NAS en cluster à commencer par EMC avec Isilon. HP dispose de son côté d'IBrix, tandis que Dell s'appuie sur le Dell Scalable File System (hérité du rachat d'Exanet). Hitachi a racheté la solution NAS en cluster de BlueARC et dispose aussi de la technologie de ParaScale. IBM enfin, s'appuie sur sa solution SONAS dérivée de son système de gestion de fichier GPFS.
D'autres acteurs convoitent aussi ce marché avec notamment Red Hat (qui a racheté Gluster), Quantum (qui s'appuie sur son file System StorNext) ou Huawei (qui s'appuie sur le SAN File System de Symantec pour ses baies OceanSpace de la série N). À cette liste on peut aussi ajouter des start-ups comme Amplidata ou le français Scality, avec.

Et il faudra aussi surveiller de près l'émergence de solutions combinant Lustre et ZFS, un vieux rêve de Sun poursuivi par Oracle sur Solaris et par Whamcloud et les Lawrence Livermore National Laboratories sur Linux (après qu'Oracle a enterré le portage de ZFS sur Linux). Whamcloud entend d'ailleurs banaliser les solutions de cluster de stockage basées sur Lustre via son outil d'administration Chroma, dont l'objectif est de mettre la configuration de cluster de stockage Lustre à la portée " de tous".

• L'émergence des virtual Storage Appliances

La troisième tendance sera la montée en puissance des virtual Storage Appliances, en conjonction avec l'arrivée de nouvelles fonctions dans les hyperviseurs et leurs outils (comme la réplication basée sur l'hôte de VMware SRM 5). Depuis plusieurs années, des fournisseurs comme HP (avec Lefthand) ou le français Seanodes (avec Exanodes) proposent des solutions de stockage SAN partagées fonctionnant au-dessus de VMware ESX ou Hyper-V. Des acteurs comme DataCore, Nexenta font de même pour des solutions de stockage unifiées. Ils ont récemment été rejoints par VMware avec son appliance de stockage VSA.
Dans un futur plus ou moins proche, il est fort probable que des acteurs comme NetApp ou EMC, pourraient s'attaquer au marché d'entrée de gamme avec des appliances logicielles s'appuyant sur le code de leurs OS de stockage (d'ailleurs ces deux constructeurs proposent déjà de telles appliances à des fins de test ou de formation). De telles appliances seraient une conséquence logique de la convergence croissante des différents équipements d'infrastructure.
On pourrait ainsi imaginer un serveur virtualisé, doté de multiples CPU multicœurs, d'un grand nombre de disques et de cartes réseau faisant tourner un assortiment de VM, qui dédiées aux fonctions réseaux (type Vyatta), qui dédiées au stockage et qui dédiée aux fonctions de "calcul". Toute référence au mainframe est fortuite, avec toutefois une différence fondamentale : le prix…

Le cloud appliqué au stockage

La quatrième tendance sera le renforcement des offres de stockage en cloud. Dans le monde du cloud public, des acteurs comme Amazon, Microsoft, Nirvanix, GoGrid et RackSpace ont déjà une offre de stockage objet éprouvée et ils devraient être rejoints par de multiples acteurs en 2012, dont HP (avec un service de stockage basé sur OpenStack "Swift"). Autour de cet écosystème de fournisseurs de "capacité de stockage" en cloud, un large écosystème de fabricant d'appliances et de passerelles cloud devrait commencer à prospérer.

LeMagIT a déjà mentionné plusieurs sociétés prometteuses comme StorSimple et TwinStrata (iSCSI vers le cloud) et Panzura (NAS global). On peut aussi citer Ctera et Gladinet (CIFS vers le cloud), Riverbed (avec sa passerelle Whitewater), Hitachi (Hitachi Cloud Ingestor).
Une automatisation grandissante du stockage
Enfin la cinquième tendance sera l'automatisation croissante de la gestion du stockage afin de faire permettre la gestion de ressources de stockage de plus en plus conséquente par un nombre d'administrateurs limité. Déjà, certaines entreprises ont vu avec l'émergence des fonctions de "tiering" automatisé de données, les bénéfices de l'automatisation appliquée à une baie de stockage.
Avec l'adoption croissante des technologies cloud, cette automatisation va s'étendre à l'ensemble des ressources et fonctions de stockage. VMware a ouvert la voie en développant de façon agressive des interface de programmation pour gérer les ressources des baies de stockage dans ses API vStorage et vCloud. Mais c'est aujourd'hui toute l'industrie qui se préoccuppe d'automatisation, afin de permettre la gestion du stockage par des frameworks comme OpenStack ou par les grands outils d'orchestration de clouds.
Tous les grands constructeurs travaillent ainsi sur des API REST, mais comme à l'accoutumée ce sont les petits acteurs qui ont souvent avancé le plus vite, comme Coraid, Mezeo, Nexenta ou Scality. Il faut dire que ces acteurs ont une large partie de leurs clients dans le monde du cloud, un monde où l'automatisation de l'infrastructure est la règle.

Les autres évolutions à surveiller

Quelques autres tendances de fond de 2011 devraient aussi se poursuivre comme la migration progressive de la sauvegarde primaire vers le disque (avec son incontournable corollaire, la déduplication), la généralisation du "tiering" sur les baies de stockage, la montée en puissance d'Ethernet dans le monde du stockage (essentiellement liée à la popularité du NAS et d'iSCSI et bien moins à celle de FCoE).

Notons aussi que la crise devrait continuer à favoriser la croissance du marché d'entrée de gamme, où les géants du secteur ont intensifié leur bataille en 2011 (avec par exemple l'arrivée des VNXe d'EMC ou le renforcement de l'offre FAS 2000 et 3000). Reste que les géants du secteur devront y affronter des acteurs agressifs comme Drobo, OverLand, QNap ou NetGear, mais aussi des solutions d'intégrateurs basées sur des OS de stockage séduisants comme Nexenta (une solution s'appuyant sur ZFS distribuée en France par l'intégrateur Alyseo) ou DataCore San Symphony.

mardi 27 décembre 2011

Chat Telecom, chat va l'faire !

Pertes de données = notification SVP

Vu sur le MagIT - Les pertes de données bientôt notifiées aux régulateurs et aux victimes, le 27 décembre 2011 (11:40) - par Valery Marchive

Selon un projet de règlement, dont nos confrères de PCINpact ont obtenu copie, la Commission Européenne s’apprête à rendre obligatoire la notification aux autorités de protection des données personnelles compétentes - la CNIL, en France - et aux victimes de toute perte de données.
La rumeur fait état d’un tel de projet de règlement encadrant les pertes de données personnelles depuis plusieurs semaines. Outre-Manche, le Financial Times a même, un temps, évoqué une éventuelle amende pour défaut de sécurisation des systèmes de traitement des données personnelles. Le document obtenu par nos confrères n’en fait pas état. Mais il prévoit une obligation d’information aux autorités de protection des données personnelles compétentes sous 24h, avec description de la nature et du volume des données perdues, ainsi que des conséquences potentielles de l’incident de sécurité. Le responsable du traitement devra parallèlement avertir les propriétaires des données concernées, à savoir les individus dont les données auront été dérobées ou égarées. Tout en leur suggérant des mesures visant à prévenir l’utilisation frauduleuse de ces données. Mais uniquement si des données sensibles accessibles en clair dans les fichiers sont concernées.

En France, la législation prévoit déjà des mesures comparables, mais elles ne concernent que les opérateurs de services de télécommunication. Là, la Commission Européenne vise une extension du principe à l’ensemble des acteurs traitant des données personnelles.

En lui-même, le projet ne comporte pas de surprise majeure : le 14 juillet dernier, Bruxelles avait ouvert une consultation sur les règles pratiques de notification des pertes de données personnelles. Consultation close le 9 septembre dernier.

Enfin, le 7 décembre, Viviane Reding, vice-présidente de la Commission Européenne et Commissaire à la Justice, évoquait le besoin d’un cadre réglementaire «qui protège les individus et stimule l’économie numérique.» En particulier, elle indiquait vouloir que les citoyens soient «toujours en capacité de prendre des décisions informées sur la manière dont leurs données personnelles sont utilisées. Les entreprises Internet doivent assurer la transparence.» Surtout, pour Viviane Reding, il apparaît essentiel que «les entreprises prennent la sécurité des données personnelles plus au sérieux. [...] Lorsque qu’une fuite de données survient, l’entreprise responsable devra en informer l’autorité compétente nationale immédiatement ainsi que les individus dont les données ont été compromises ou volées. [...] Rien ne peut excuser que l’on n'informe pas les personnes concernées de ce qui est arrivé à leurs données personnelles. Ce risque de fuites de données est préjudiciable à la confiance des personnes dans l’économie numérique.»

vendredi 23 décembre 2011

Prometheus : le retour du retour d'Alien le 8eme passager




Le bout de vaisseau que l'on voit dans le 1er film de la saga initiale
J'ai hâte de voir ça, merci Ridley.

mardi 20 décembre 2011

Orléans vue d'en haut

La grande star cette année sur le marché de noël d'Orléans, c'est la grande roue qui permet de prendre un peu de hauteur et de voir la ville sous un autre angle.



La cathédrale vue depuis la roue

La cathédrale profite de l'occasion pour s'habiller de lumière

La statue de notre pucelle n'est pas en reste

lundi 19 décembre 2011

Installation de Solaris 11 sous vSphere

Ayant besoin de faire quelques tests de SAM-QFS (Storage Archive Manager - Quick File System), j'ai eu l'idée -oui je sais- saugrenue d'installer Solaris 11 sur mon infra VMware. Comme celà ça a l'air facile, mais je vous soumets une procédure qui fonctionne ...Créez une VM Solaris avec 2 vCpu et 4 Go de Ram. Téléchargez l'image Solaris Live Media x86 à l'adresse http://www.oracle.com/technetwork/server-storage/solaris11/downloads/index.html?ssSourceSiteId=ocomen (Compte OTN obligatoire). Montez l'image ISO en tant que CD après avoir démarré la VM.



Choisissez le driver vidéo VESA


Lorsque Solaris à démarré, lancez un Xterm

Faites un su root (mot de passe: solaris)
Lancez l'installeur /usr/bin/gui-install

Pour le mot de passe, un caractère spécial obligatoire ...

Ca sent bon !

On reboot et ...
£
Enjoy !

mardi 13 décembre 2011

Quelques nouvelles du Chatquarium


Notre étalon Elliot fait ses 7 kilos et arbore une magnifique collerette
Notre chatoune miniature Geisha est toujours aussi câline et joueuse
Notre reine Eclipse pose

Eclipse et son "petit bébé" Flocon de 6 Kg et tout juste 1 an

Enzo, notre chat des forêts norvégiennes de 7 kg surveille la meute. Le norvégien a le museau plus pointu que le coon, pas de plumeaux aux oreilles mais est tout aussi imposant !

Figaro, le demi-frère de Flocon se cache

Fantasia et Flocon essaient d'attraper le plumeau
Fée-line se prend pour une duchesse

Cassiopée joue la curieuse

FanFan prend la pose

Photos réalisées au Nikon D300s + Nikkor 50mm 1.8

lundi 12 décembre 2011

Upgrade SLAMMER 500 vers 600v3 : résultat

Le dimanche a été bien occupé par l'upgrade de nos machines Oracle Pillar AXIOM de 4 ans d'âge. Mais est-ce que le résultat est à la hauteur ?


En haut l'ancien slammer, en bas le nouveau : au programme 48 Go de cache dédié, HBA 8 Gb/s et SFP pour la switch fabric

Test à la VMware : 64 sessions, taille de bloc 1Mo, 100% aléatoire, 50% Read/ 50% Write

1064 IOPS et 1Go/s de bande passante

Que demande le peuple ?