dimanche 31 juillet 2011
samedi 30 juillet 2011
jeudi 28 juillet 2011
Au député Néri, HADOPI ne dit pas merci ...
Vu sur Numerama.fr : Hadopi et TMG dans la ligne de mire d'un député
Julien L. - publié le Mercredi 27 Juillet 2011 à 10h43 - posté dans Société 2.0
Le député socialiste Alain Néri a posé une série de questions sur l'Hadopi et TMG à Frédéric Mitterrand. Le parlementaire se demande notamment si TMG est logé à la même enseigne qu'un simple citoyen et peut aussi, en cas de négligence caractérisée, être averti par l'Hadopi. Alain Néri vise expressément le défaut de sécurisation qui a frappé TMG en mai dernier.
Le député socialiste Alain Néri, qui avait présidé la séance de l'Assemblée nationale lors du rejet de la loi Hadopi le 9 avril 2009, est revenu sur la suspension de l'interconnexion entre la Haute Autorité et Trident Media Guard (TMG), suite à la découverte d'un défaut de sécurisation des données privées. La situation fut jugée suffisamment grave pour que la CNIL elle-même mette en demeure TMG et les ayants droit.
À travers quatre questions publiées mardi au Journal officiel, le parlementaire relève que TMG "a fait preuve de négligence en laissant en libre accès des adresses IP sur un de ses serveurs". Le député demande en conséquence "quelles mesures le gouvernement compte imposer à l'Hadopi pour renforcer la sécurité des systèmes informatiques et de l'accès aux fichiers dont cette Haute Autorité dispose, ainsi que celle de ses prestataires privés".
Dans une deuxième question, plus malicieuse, le député socialiste revient à la charge et souhaite savoir si Trident Media Guard "va recevoir un mail d'avertissement de l'Hadopi, ou si, comme cette négligence n'a pas porté atteinte aux ayants droit puisqu'elle n'a pas permis de téléchargements illégaux, l'Hadopi va ignorer cette négligence".
Le parlementaire ajoute, dans une troisième question, si l'excuse utilisée par les ayants droit peut être reprise par les citoyens. "Pour se dédouaner de l'avertissement de la CNIL, les ayants droit, principaux bénéficiaires de la loi Hadopi, reconnaissent qu'il n'y a pas de sécurité absolue en matière informatique". Alain Néri souhaite savoir si les citoyens mis en cause par la Haute Autorité peuvent avancer cet état de fait pour éviter une quelconque sanction.
Le député demande enfin au ministre de la culture, Frédéric Mitterrand, "si, au cas où la société TMG ne serait pas avertie par l'Hadopi, un simple citoyen doit comprendre que la négligence caractérisée s'apprécie uniquement par rapport aux torts qu'elle pourrait causer aux ayants droits, et que la protection du droit d'auteur (ou du revenu des ayants droit) est plus importante que la protection des données individuelles des citoyens".
Les ayants droit impliqués dans la riposte graduée avaient enjoint leur prestataire, TMG, de se conformer au plus vite à la mise en demeure de la CNIL. Les ayants droit avaient toutefois passé sous silence leur propre responsabilité, alors qu'ils avaient indiqué qu'un contrôle trimestriel de TMG serait effectué. Il a fallu qu'un incident soit rendu public pour qu'un audit soit enfin réclamé, neuf mois après le début de la riposte graduée.
Et pendant ce temps, malgré la mise en demeure de la CNIL et la suspension de l'interconnexion entre l'Hadopi et TMG, la lutte contre le téléchargement illicite continue son petit bonhomme de chemin.
Julien L. - publié le Mercredi 27 Juillet 2011 à 10h43 - posté dans Société 2.0
Le député socialiste Alain Néri a posé une série de questions sur l'Hadopi et TMG à Frédéric Mitterrand. Le parlementaire se demande notamment si TMG est logé à la même enseigne qu'un simple citoyen et peut aussi, en cas de négligence caractérisée, être averti par l'Hadopi. Alain Néri vise expressément le défaut de sécurisation qui a frappé TMG en mai dernier.
Le député socialiste Alain Néri, qui avait présidé la séance de l'Assemblée nationale lors du rejet de la loi Hadopi le 9 avril 2009, est revenu sur la suspension de l'interconnexion entre la Haute Autorité et Trident Media Guard (TMG), suite à la découverte d'un défaut de sécurisation des données privées. La situation fut jugée suffisamment grave pour que la CNIL elle-même mette en demeure TMG et les ayants droit.
À travers quatre questions publiées mardi au Journal officiel, le parlementaire relève que TMG "a fait preuve de négligence en laissant en libre accès des adresses IP sur un de ses serveurs". Le député demande en conséquence "quelles mesures le gouvernement compte imposer à l'Hadopi pour renforcer la sécurité des systèmes informatiques et de l'accès aux fichiers dont cette Haute Autorité dispose, ainsi que celle de ses prestataires privés".
Dans une deuxième question, plus malicieuse, le député socialiste revient à la charge et souhaite savoir si Trident Media Guard "va recevoir un mail d'avertissement de l'Hadopi, ou si, comme cette négligence n'a pas porté atteinte aux ayants droit puisqu'elle n'a pas permis de téléchargements illégaux, l'Hadopi va ignorer cette négligence".
Le parlementaire ajoute, dans une troisième question, si l'excuse utilisée par les ayants droit peut être reprise par les citoyens. "Pour se dédouaner de l'avertissement de la CNIL, les ayants droit, principaux bénéficiaires de la loi Hadopi, reconnaissent qu'il n'y a pas de sécurité absolue en matière informatique". Alain Néri souhaite savoir si les citoyens mis en cause par la Haute Autorité peuvent avancer cet état de fait pour éviter une quelconque sanction.
Le député demande enfin au ministre de la culture, Frédéric Mitterrand, "si, au cas où la société TMG ne serait pas avertie par l'Hadopi, un simple citoyen doit comprendre que la négligence caractérisée s'apprécie uniquement par rapport aux torts qu'elle pourrait causer aux ayants droits, et que la protection du droit d'auteur (ou du revenu des ayants droit) est plus importante que la protection des données individuelles des citoyens".
Les ayants droit impliqués dans la riposte graduée avaient enjoint leur prestataire, TMG, de se conformer au plus vite à la mise en demeure de la CNIL. Les ayants droit avaient toutefois passé sous silence leur propre responsabilité, alors qu'ils avaient indiqué qu'un contrôle trimestriel de TMG serait effectué. Il a fallu qu'un incident soit rendu public pour qu'un audit soit enfin réclamé, neuf mois après le début de la riposte graduée.
Et pendant ce temps, malgré la mise en demeure de la CNIL et la suspension de l'interconnexion entre l'Hadopi et TMG, la lutte contre le téléchargement illicite continue son petit bonhomme de chemin.
lundi 25 juillet 2011
La virtualisation largement répandue dans les grands comptes
Vu sur le MagIT, le 25 juillet 2011 (13:21) - par Christophe Bardy
Selon IDC, 90% des grands comptes français utilisent la virtualisation de serveurs
Les grandes entreprises françaises utilisent massivement la virtualisation de serveurs, mais affichent leur défiance vis à vis du cloud public, lui préférant les solutions de cloud privé.
Selon une étude IDC commandée par VMware, Accenture et EMC, la plupart des grandes entreprises françaises utilisent la virtualisation au sein de leurs environnements informatique. Menée auprès d'un échantillon d'entreprises de plus de 2000 salariés, l'étude révèle que 90 % des sociétés interrogées utilisent la virtualisation de serveurs. Elle montre aussi que 25 % de ces sociétés ont déjà virtualisé une partie de leurs postes clients (IDC ne précise pas si l'on parle de virtualisation de poste de travail façon VDI - au sens VMware View ou CItrix XenDesktop - ou façon Citrix XenApp) et que 17 % y réfléchissent pour les 18 mois à venir.
L'étude explique que les entreprises voient dans la virtualisation plus qu'une technologie pour réduire leurs coûts. Près de la moitié des entreprises interrogées espèrent ainsi améliorer la disponibilité des applications avec la virtualisation ou améliorer la capacité de montée en charge de leurs applications.
Faute de cloud public, les entreprises françaises plébiscitent le cloud privé
L'étude confirme aussi la préférence des entreprises françaises pour le Cloud privé (il est vrai aussi qu'à défaut d'une offre publique à grande échelle offerte par un acteur national à des conditions aussi abordables que celle d'Amazon ou de RackSpace, elles n'ont guère le choix, N.D.L.R.).
Selon la taille des entreprises, entre 67 % et 71 % des responsables interrogés préfèrent que la mutualisation des ressources IT reste confinée aux entités de leur groupe présentes en France. Moins de 15 % sont prêts à considérer un environnement de Cloud public.
Selon IDC, 49 % (seulement ?) des entreprises ont mis en place des engagements en matière de niveaux de services (SLA) sur tout ou partie du périmètre d’activité. Près de 44 % ont simplifié les démarches de mise en service de nouveaux environnements en mettant à la disposition de leurs utilisateurs un catalogue de services via un portail web. Enfin, 40 % des DSI réfléchissent avec les directions utilisatrices à de nouveaux modèles de facturation.
Selon IDC, 90% des grands comptes français utilisent la virtualisation de serveurs
Les grandes entreprises françaises utilisent massivement la virtualisation de serveurs, mais affichent leur défiance vis à vis du cloud public, lui préférant les solutions de cloud privé.
Selon une étude IDC commandée par VMware, Accenture et EMC, la plupart des grandes entreprises françaises utilisent la virtualisation au sein de leurs environnements informatique. Menée auprès d'un échantillon d'entreprises de plus de 2000 salariés, l'étude révèle que 90 % des sociétés interrogées utilisent la virtualisation de serveurs. Elle montre aussi que 25 % de ces sociétés ont déjà virtualisé une partie de leurs postes clients (IDC ne précise pas si l'on parle de virtualisation de poste de travail façon VDI - au sens VMware View ou CItrix XenDesktop - ou façon Citrix XenApp) et que 17 % y réfléchissent pour les 18 mois à venir.
L'étude explique que les entreprises voient dans la virtualisation plus qu'une technologie pour réduire leurs coûts. Près de la moitié des entreprises interrogées espèrent ainsi améliorer la disponibilité des applications avec la virtualisation ou améliorer la capacité de montée en charge de leurs applications.
Faute de cloud public, les entreprises françaises plébiscitent le cloud privé
L'étude confirme aussi la préférence des entreprises françaises pour le Cloud privé (il est vrai aussi qu'à défaut d'une offre publique à grande échelle offerte par un acteur national à des conditions aussi abordables que celle d'Amazon ou de RackSpace, elles n'ont guère le choix, N.D.L.R.).
Selon la taille des entreprises, entre 67 % et 71 % des responsables interrogés préfèrent que la mutualisation des ressources IT reste confinée aux entités de leur groupe présentes en France. Moins de 15 % sont prêts à considérer un environnement de Cloud public.
Selon IDC, 49 % (seulement ?) des entreprises ont mis en place des engagements en matière de niveaux de services (SLA) sur tout ou partie du périmètre d’activité. Près de 44 % ont simplifié les démarches de mise en service de nouveaux environnements en mettant à la disposition de leurs utilisateurs un catalogue de services via un portail web. Enfin, 40 % des DSI réfléchissent avec les directions utilisatrices à de nouveaux modèles de facturation.
dimanche 24 juillet 2011
vendredi 22 juillet 2011
EMC cherche à faire du Pillar
NDB : Le VMAXe 20% - cher qu'un VMAX, c'est toujours 8 fois le prix d'un AXIOM 600 pour 2 fois moins de performances ; 4H de déploiement, c'est deux fois plus long. Pendant ce temps Oracle Pillar finalise l'AXIOM 800 avec de l'EXADATA dedans pour faire converger le SAN, le NAS ... et l'application ! Par contre le marketing ne vous dira pas combien coûte un administrateur de VMAX même "e" et vous passera bien sûr sous silence les coûts de l'évolution disruptive
Vu sur le MagIT : EMC dévoile un "bébé" Symmetrix et une nouvelle application de gestion du stockage ProSphere Le 20 juillet 2011 (16:18) - par Christophe Bardy
Rubriques : SAN et NAS - Stockage - Administration du stockage Tags : stockage - emc - administration - san - Symmetrix - VMAX - VMAX
EMC a officiellement dévoilé une version "miniaturisée" de son système de stockage haut de gamme Symmetrix VMAX et présenté une nouvelle application d'administration du stockage baptisée ProSphere. Cette dernière a vocation, à terme, à remplacer la gamme ControlCenter.
La semaine dernière, EMC a officiellement dévoilé un bébé Symmetrix VMAX, baptisé VMAXe, dont l'objectif est de contrer les baies 3Par d'HP et XIV d'IBM. La principale différence avec la baie de stockage haut de gamme de la marque est que le VMAXe n'intègre pas le support des connexions mainframe et fait l'impasse sur la technologie de réplication synchrone (SRDF) de son grand frère.
Le VMAxe utilise une déclinaison spécifique du système d'exploitation Enginuity des Symmetrix VMAX et sa capacité est d'emblée thin provisionné. La machine supporte également FAST VP la technologie de déplacement automatique de données ("Tiering") d'EMC et inclut un bundle logiciel qui comprend Timefinder pour VMAXe et RecoverPoint (en lieu et place de SRDF pour la réplication distante). Open Replicator et Open Migrator sont ausi disponibles pour la réplication et la migration de données vers des baies tierces. Selon EMC, un VMAXe peut être configuré en moins de quatre heures et 1 To de stockage peut être provisionné en moins de trois minutes.
15 à 20% moins cher qu'un VMAX
Une baie VMAXe peut accueillir jusqu'à quatre contrôleurs (ou "engines" en langage Symmetrix) et jusqu'à 960 disques (soit une capacité brute totale proche de 2 Po et une capacité utile de l'ordre de 1,3 To). Une baie de base inclut un contrôleur et 150 disques. Par comparaison, un Symmetrix VMAX peut accueillir jusqu'à 8 contrôleurs et 2400 disques. Notons au passage que les contrôleurs du VMAXe utilisent des processeurs différents de ceux des VMAX et que chaque contrôleur dispose de deux fois moins de coeurs qu'un contrôleur VMAX (une différence sans doute partiellement compensée par le fait que les coeurs du VMAXe, basés sur des puces Xeon "WestMere" sont plus récents que ceux du VMAX). De même, la mémoire cache par contrôleur n'est que de 96 Go contre 128 Go pour le VMAX. Enfin, le nombre de ports réseau maximum d'un VMAXe est deux fois inférieur à celui d'un VMAX. Cette réduction a quelques bénéfices comme le support d'une alimentation monophasée, l'insertion dans des racks standards de 19 pouces ou une réduction de la consommation énergétique.
Le Symmetrix VMAXe devrait coûter environ 15 à 20% de moins qu'une configuration VMAX d'entrée de gamme et s'insérer plus ou moins gracieusement entre le haut de gamme VNXe et l'entrée de gamme VMAX, avec bien sûr un certain niveau de recouvrement (que certains verront selon leur point de vue comme une bonne ou une mauvaise chose).
ProSphere : une nouvelle application de SRM pour succéder à ControlCenter
L'arrivée du VMAXe s'accompagne de celle de Prosphere une nouvelle application d'administration du stockage (SRM, Storage Ressource Management) dont la vocation est à terme de remplacer la gamme ControlCenter, familière des utilisateurs de Symmetrix.
La première version de ProSphere est conçue pour remplacer ControlCenter Performance Manager et fournit une vue de l'esnemble des ressources du stockage connectées au SAN. Selon, Kevin Gray, le responsable marketing de l'offre SRM d'EMC, ProSphere a été intégré étroitement avec les outils de virtualisation de VMWare et avec les systèmes de stockage d'EMC. Basé sur une technologie sans agents, ProSphere s'installe selon Gray en moins d'une heure et peut gérer jusqu'à 1,2 million de volumes, 36 000 ports SAN et 18 000 serveurs. Son interface a été totalement revue pour coller aux canons du moment et devrait aussi grandement simplifier l'utilisation du produit par rapport à ControlCenter.
ProSphere devrait progressivement s'enrichir de nouvelles fonctions de supervision et de gestion d'alertes, ainsi que de fonctions de gestion de capacité et de validation de configuration. Les utilisateurs actuels de ControlCenter disposant d'un contrat de maintenance à jour pourront accéder à ProSphere gratuitement dans le cadre de leur contrat à compter du mois d'août.
Rubriques : SAN et NAS - Stockage - Administration du stockage Tags : stockage - emc - administration - san - Symmetrix - VMAX - VMAX
EMC a officiellement dévoilé une version "miniaturisée" de son système de stockage haut de gamme Symmetrix VMAX et présenté une nouvelle application d'administration du stockage baptisée ProSphere. Cette dernière a vocation, à terme, à remplacer la gamme ControlCenter.
La semaine dernière, EMC a officiellement dévoilé un bébé Symmetrix VMAX, baptisé VMAXe, dont l'objectif est de contrer les baies 3Par d'HP et XIV d'IBM. La principale différence avec la baie de stockage haut de gamme de la marque est que le VMAXe n'intègre pas le support des connexions mainframe et fait l'impasse sur la technologie de réplication synchrone (SRDF) de son grand frère.
Le VMAxe utilise une déclinaison spécifique du système d'exploitation Enginuity des Symmetrix VMAX et sa capacité est d'emblée thin provisionné. La machine supporte également FAST VP la technologie de déplacement automatique de données ("Tiering") d'EMC et inclut un bundle logiciel qui comprend Timefinder pour VMAXe et RecoverPoint (en lieu et place de SRDF pour la réplication distante). Open Replicator et Open Migrator sont ausi disponibles pour la réplication et la migration de données vers des baies tierces. Selon EMC, un VMAXe peut être configuré en moins de quatre heures et 1 To de stockage peut être provisionné en moins de trois minutes.
15 à 20% moins cher qu'un VMAX
Une baie VMAXe peut accueillir jusqu'à quatre contrôleurs (ou "engines" en langage Symmetrix) et jusqu'à 960 disques (soit une capacité brute totale proche de 2 Po et une capacité utile de l'ordre de 1,3 To). Une baie de base inclut un contrôleur et 150 disques. Par comparaison, un Symmetrix VMAX peut accueillir jusqu'à 8 contrôleurs et 2400 disques. Notons au passage que les contrôleurs du VMAXe utilisent des processeurs différents de ceux des VMAX et que chaque contrôleur dispose de deux fois moins de coeurs qu'un contrôleur VMAX (une différence sans doute partiellement compensée par le fait que les coeurs du VMAXe, basés sur des puces Xeon "WestMere" sont plus récents que ceux du VMAX). De même, la mémoire cache par contrôleur n'est que de 96 Go contre 128 Go pour le VMAX. Enfin, le nombre de ports réseau maximum d'un VMAXe est deux fois inférieur à celui d'un VMAX. Cette réduction a quelques bénéfices comme le support d'une alimentation monophasée, l'insertion dans des racks standards de 19 pouces ou une réduction de la consommation énergétique.
Le Symmetrix VMAXe devrait coûter environ 15 à 20% de moins qu'une configuration VMAX d'entrée de gamme et s'insérer plus ou moins gracieusement entre le haut de gamme VNXe et l'entrée de gamme VMAX, avec bien sûr un certain niveau de recouvrement (que certains verront selon leur point de vue comme une bonne ou une mauvaise chose).
ProSphere : une nouvelle application de SRM pour succéder à ControlCenter
L'arrivée du VMAXe s'accompagne de celle de Prosphere une nouvelle application d'administration du stockage (SRM, Storage Ressource Management) dont la vocation est à terme de remplacer la gamme ControlCenter, familière des utilisateurs de Symmetrix.
La première version de ProSphere est conçue pour remplacer ControlCenter Performance Manager et fournit une vue de l'esnemble des ressources du stockage connectées au SAN. Selon, Kevin Gray, le responsable marketing de l'offre SRM d'EMC, ProSphere a été intégré étroitement avec les outils de virtualisation de VMWare et avec les systèmes de stockage d'EMC. Basé sur une technologie sans agents, ProSphere s'installe selon Gray en moins d'une heure et peut gérer jusqu'à 1,2 million de volumes, 36 000 ports SAN et 18 000 serveurs. Son interface a été totalement revue pour coller aux canons du moment et devrait aussi grandement simplifier l'utilisation du produit par rapport à ControlCenter.
ProSphere devrait progressivement s'enrichir de nouvelles fonctions de supervision et de gestion d'alertes, ainsi que de fonctions de gestion de capacité et de validation de configuration. Les utilisateurs actuels de ControlCenter disposant d'un contrat de maintenance à jour pourront accéder à ProSphere gratuitement dans le cadre de leur contrat à compter du mois d'août.
La neutralité du Net définitivement menacée
La mort d'internet se confirme un peu plus à Bruxelles
Vu sur numerama.com par Guillaume Champeau - publié le Lundi 18 Juillet 2011 à 10h39
Les grands patrons des télécoms réunis par Bruxelles pour plancher sur les modes de financement du très haut débit à court terme dans l'Union Européenne ont accouché, sans surprise, d'une série de propositions qui enterrent la neutralité du net au profit d'un accès à plusieurs internets, plus ou moins riches selon l'abonnement payé. Des propositions qui enfoncent la porte déjà ouverte par la Commission Européenne.
Souvenez-vous. C'était en mars dernier. Sans grand bruit, la Commission Européenne réunissait à Bruxelles près d'une quarantaine de grands patrons des télécoms : Steve Jobs (Apple), Xavier Niel (Free), Stéphane Richard (Orange), Jean-Phillipe Courtois (Microsoft), Jean-Bernard Lévy (Vivendi), Stephen Elop (Nokia),..
La réunion avait pour but de demander aux industriels comment, selon eux, "assurer au mieux les investissements de très haut niveau du secteur privé nécessaires pour le déploiement des réseaux haut-débit de prochaine génération pour maintenir la croissance d'internet". La Commission souhaite en effet rendre possible l'objectif fixé par l'Agenda Numérique de l'Europe, qui prévoit que tous les Européens aient accès à Internet à 30 Mbps minimum d'ici 2020, et au moins la moitié d'entre eux à 100 Mbps.
Pour élaborer les propositions, un groupe de pilotage composé avait été désigné, composé par Jean-Bernard Lévy de Vivendi, Ben Verwaayen d'Alcatel-Lucent, et René Obermann de Deutsche Telekom. "Preuve qu'il y a dès la composition du groupe la volonté de trouver un équilibre entre le financement des réseaux et le financement des contenus, ce qui n'est jamais très bon signe pour la neutralité du net", pressentions-nous alors.
Le résultat est encore pire que nos craintes de l'époque, et confirme la tendance exprimée par la Commission Européenne le mois dernier, lorsqu'elle a dit vouloir privilégier le libre marché à la défense de la neutralité du net.
11 propositions pour enterrer la neutralité des réseaux
Lors d'une seconde réunion le 13 juillet dernier, les trois compères ont en effet remis une série de 11 propositions, insoutenables pour les partisans de la neutralité du net. Prenant l'objectif européen comme une aubaine pour prétendre que le déploiement du très haut-débit à court terme ne peut se faire sur les mêmes bases que précédemment, le groupe conclut que l'Europe "doit encourager la différenciation en matière de gestion du trafic pour promouvoir l’innovation et les nouveaux services, et répondre à la demande de niveaux de qualité différents". Il s'agit donc de faire payer plus cher ceux qui souhaitent accéder sans bridage à certains services qui demandent davantage de bande passante, ou "une moindre latence, ce qui est capital dans le jeu vidéo", explique le patron de Vivendi à la Tribune.
Il est aussi clairement envisagé de permettre aux éditeurs de services d'acheter un accès privilégié aux abonnés à Internet, pour que leur service soit plus rapide que celui des concurrents qui ne paieraient pas la dîme. "La valorisation du potentiel des marchés bifaces apportera plus d’innovation, d’efficacité et un déploiement plus rapide des réseaux de nouvelle génération, au bénéfice des consommateurs et des industries créatives", croit pouvoir affirmer le groupe de travail.
Par ailleurs, il justifie l'absence de représentants d'organisations de citoyens et de consommateurs parmi la quarantaine de dirigeants consultés par Bruxelles. "Les intérêts à long terme des consommateurs coïncident avec la promotion de l’innovation et l’investissement". Ils n'ont qu'à subir la mort de la neutralité du net, c'est au final dans leur intérêt, assurent les patrons des télécoms.
Dans La Tribune, Jean-Bernard Lévy raconte que la réunion du 13 juillet s'est "formidablement mieux passée que l'on ne pensait", et qu'elle a parmi de découvrir "un degré de consensus remarquable et inattendu entre ces acteurs de toute la chaîne de valeur, opérateurs, fabricants, agrégateurs, éditeurs de chaînes, etc". En oubliant, au passage, que les internautes sont les premiers acteurs de cette chaîne de valeur. Non seulement parce qu'ils payent leur accès à Internet. Mais aussi parce qu'ils sont aujourd'hui, et de très loin, les premiers producteurs des contenus qui y circulent.
Vu sur numerama.com par Guillaume Champeau - publié le Lundi 18 Juillet 2011 à 10h39
Les grands patrons des télécoms réunis par Bruxelles pour plancher sur les modes de financement du très haut débit à court terme dans l'Union Européenne ont accouché, sans surprise, d'une série de propositions qui enterrent la neutralité du net au profit d'un accès à plusieurs internets, plus ou moins riches selon l'abonnement payé. Des propositions qui enfoncent la porte déjà ouverte par la Commission Européenne.
Souvenez-vous. C'était en mars dernier. Sans grand bruit, la Commission Européenne réunissait à Bruxelles près d'une quarantaine de grands patrons des télécoms : Steve Jobs (Apple), Xavier Niel (Free), Stéphane Richard (Orange), Jean-Phillipe Courtois (Microsoft), Jean-Bernard Lévy (Vivendi), Stephen Elop (Nokia),..
La réunion avait pour but de demander aux industriels comment, selon eux, "assurer au mieux les investissements de très haut niveau du secteur privé nécessaires pour le déploiement des réseaux haut-débit de prochaine génération pour maintenir la croissance d'internet". La Commission souhaite en effet rendre possible l'objectif fixé par l'Agenda Numérique de l'Europe, qui prévoit que tous les Européens aient accès à Internet à 30 Mbps minimum d'ici 2020, et au moins la moitié d'entre eux à 100 Mbps.
Pour élaborer les propositions, un groupe de pilotage composé avait été désigné, composé par Jean-Bernard Lévy de Vivendi, Ben Verwaayen d'Alcatel-Lucent, et René Obermann de Deutsche Telekom. "Preuve qu'il y a dès la composition du groupe la volonté de trouver un équilibre entre le financement des réseaux et le financement des contenus, ce qui n'est jamais très bon signe pour la neutralité du net", pressentions-nous alors.
Le résultat est encore pire que nos craintes de l'époque, et confirme la tendance exprimée par la Commission Européenne le mois dernier, lorsqu'elle a dit vouloir privilégier le libre marché à la défense de la neutralité du net.
11 propositions pour enterrer la neutralité des réseaux
Lors d'une seconde réunion le 13 juillet dernier, les trois compères ont en effet remis une série de 11 propositions, insoutenables pour les partisans de la neutralité du net. Prenant l'objectif européen comme une aubaine pour prétendre que le déploiement du très haut-débit à court terme ne peut se faire sur les mêmes bases que précédemment, le groupe conclut que l'Europe "doit encourager la différenciation en matière de gestion du trafic pour promouvoir l’innovation et les nouveaux services, et répondre à la demande de niveaux de qualité différents". Il s'agit donc de faire payer plus cher ceux qui souhaitent accéder sans bridage à certains services qui demandent davantage de bande passante, ou "une moindre latence, ce qui est capital dans le jeu vidéo", explique le patron de Vivendi à la Tribune.
Il est aussi clairement envisagé de permettre aux éditeurs de services d'acheter un accès privilégié aux abonnés à Internet, pour que leur service soit plus rapide que celui des concurrents qui ne paieraient pas la dîme. "La valorisation du potentiel des marchés bifaces apportera plus d’innovation, d’efficacité et un déploiement plus rapide des réseaux de nouvelle génération, au bénéfice des consommateurs et des industries créatives", croit pouvoir affirmer le groupe de travail.
Par ailleurs, il justifie l'absence de représentants d'organisations de citoyens et de consommateurs parmi la quarantaine de dirigeants consultés par Bruxelles. "Les intérêts à long terme des consommateurs coïncident avec la promotion de l’innovation et l’investissement". Ils n'ont qu'à subir la mort de la neutralité du net, c'est au final dans leur intérêt, assurent les patrons des télécoms.
Dans La Tribune, Jean-Bernard Lévy raconte que la réunion du 13 juillet s'est "formidablement mieux passée que l'on ne pensait", et qu'elle a parmi de découvrir "un degré de consensus remarquable et inattendu entre ces acteurs de toute la chaîne de valeur, opérateurs, fabricants, agrégateurs, éditeurs de chaînes, etc". En oubliant, au passage, que les internautes sont les premiers acteurs de cette chaîne de valeur. Non seulement parce qu'ils payent leur accès à Internet. Mais aussi parce qu'ils sont aujourd'hui, et de très loin, les premiers producteurs des contenus qui y circulent.
mardi 19 juillet 2011
Telex : acquisition de Pillar Data terminée
"We are very pleased to announce that Oracle has completed the acquisition of Pillar Data Systems today. Pillar is now a wholly owned subsidiary of Oracle" C'est par ces termes que Mike Workman nous a annoncé cette nuit par mail l'acquisition définitive de Pillar Data Systems par Oracle.
A l'instar du logo de Sun Microsystems, celui de Pillar est devenu gris.
dimanche 17 juillet 2011
Macro-photographie : Comment fait-on ?
Mail reçu de la part de Olivier L :
donc si vous pouviez m'aider à faire d'aussi belles photos que les votres, je vous en serai infiniment reconnaissant.
cordialement,
Olivier
Bonjour
merci pour tous vos posts réguliers sur les baies disques en particulier et la virtualisation en général, je suis un afficionado de vos écrits. Mais là c'est pour vos photos que je vous interpelle (le niveau et la clarté de vos articles techniques ne me permettent d'en faire de même).
non ce qui m'intéresse c'est le coté technique de ces photos : quel matos, quel objo, quelle vitesse/ouverte, bref, tout ce qui me permettra d'apprendre à faire les mêmes.
parce que quand je photographie les bourdons qui peuplent nos bouquets de lavande, je n'arrive absolument pas à de tels résultats...
merci pour tous vos posts réguliers sur les baies disques en particulier et la virtualisation en général, je suis un afficionado de vos écrits. Mais là c'est pour vos photos que je vous interpelle (le niveau et la clarté de vos articles techniques ne me permettent d'en faire de même).
non ce qui m'intéresse c'est le coté technique de ces photos : quel matos, quel objo, quelle vitesse/ouverte, bref, tout ce qui me permettra d'apprendre à faire les mêmes.
parce que quand je photographie les bourdons qui peuplent nos bouquets de lavande, je n'arrive absolument pas à de tels résultats...
donc si vous pouviez m'aider à faire d'aussi belles photos que les votres, je vous en serai infiniment reconnaissant.
cordialement,
Olivier
Tout d'abord mon cher Olivier, merci pour la lecture de mon blog et tout l'intérêt que vous y portez. Il est vrai que je préfère mettre en avant l'extraordinaire ingéniosité de la nature voir la beauté des sujets plutôt que de parler purement technique photo.
Concernant la Macro photographie, on peut le dire, c'est tout un art à la fois de longues expérimentations, de technique et de patience. Il est possible de s'y mettre avec des moyens modestes et un peu d'astuce. L'un des trucs les plus usités est d'utiliser un objectif 50mm retourné, oui je dis bien monté à l'envers, sur le boitier ! Pour plus de confort, je suggère de se doter d'une bague allonge, disponible pour moins de 10,00€ sur Internet, sur laquelle on fixera , par exemple avec du scotch, l'objectif en question.
Inutile d'investir dans une lentille hors de prix, un modeste Tamron 35-80mm d'occasion à 15,00€ fait l'affaire. Concernant le réglage du boitier, je suggère de passer en 800 ISO mini, de choisir le mode manuel avec une vitesse d'obturation 1/180s ~ 1/200s. La bague d'ouverture du diaphragme permettra d'avoir plus ou moins de profondeur de champs (endroit net entre le premier et l'arrière plan) mais avec inversement moins de luminosité. On peut gagner artificiellement sur cette dernière en augmentant la valeur ISO définissant la sensibilité du capteur, mais au détriment du bruit numérique (pixels parasites) qui va sensiblement augmenter aussi. Le bon compromis me semble f11. La mise au moins se fera uniquement en avançant ou en reculant par rapport au sujet. Attention, c'est du millimètre :)
Concernant la Macro photographie, on peut le dire, c'est tout un art à la fois de longues expérimentations, de technique et de patience. Il est possible de s'y mettre avec des moyens modestes et un peu d'astuce. L'un des trucs les plus usités est d'utiliser un objectif 50mm retourné, oui je dis bien monté à l'envers, sur le boitier ! Pour plus de confort, je suggère de se doter d'une bague allonge, disponible pour moins de 10,00€ sur Internet, sur laquelle on fixera , par exemple avec du scotch, l'objectif en question.
Inutile d'investir dans une lentille hors de prix, un modeste Tamron 35-80mm d'occasion à 15,00€ fait l'affaire. Concernant le réglage du boitier, je suggère de passer en 800 ISO mini, de choisir le mode manuel avec une vitesse d'obturation 1/180s ~ 1/200s. La bague d'ouverture du diaphragme permettra d'avoir plus ou moins de profondeur de champs (endroit net entre le premier et l'arrière plan) mais avec inversement moins de luminosité. On peut gagner artificiellement sur cette dernière en augmentant la valeur ISO définissant la sensibilité du capteur, mais au détriment du bruit numérique (pixels parasites) qui va sensiblement augmenter aussi. Le bon compromis me semble f11. La mise au moins se fera uniquement en avançant ou en reculant par rapport au sujet. Attention, c'est du millimètre :)
Dans l'exemple ci-dessus, j'ai à l'instant utilisé le montage précédemment évoqué sur mon bon vieux Nikon D50 (ça me fait tout bizarre car je n'ai plus l'habitude) en manuel : 1/180s, f11 - 800 ISO.
A présent, le même genre de bébète avec le D300s et le "vrai" objectif Macro 105mm/2.8. qui coûte un œil, toujours en manuel, 1/250s - 1000 ISO : plus de piqué, moins de bruit. A noter que par temps peu ensoleillé, je peux éventuellement m'aider du flash disponible en mode manuel contrairement au D50. On distingue infiniment plus de détails et la profondeur de champs semble accrue.
La différence entre un boitier à 350,00€ et un boitier à 1500,00€ se ressent quand même un peu. Après, ce n'est qu'expérimentation et entrainement au shoot à main levée voir sur trépied pour les sujets peu mouvants. Espérant avoir répondu à quelques unes de vos questions mon cher Olivier, je vous souhaite une bonne fin de week-end.
Update : merci mille fois.
mais alors là, le coup de l'objo à l'envers ... un truc de malade ça !!!!
j'ai un 50 1.2 acheté d'occase on the oueb, je vais essayer votre astuce dès le we prochain (en espérant que le ciel girondin sera redevenu bleu) Je vous enverrai mes résultats ... dès lors qu'ils s'approcheront de vos photos ...
Olivier
mais alors là, le coup de l'objo à l'envers ... un truc de malade ça !!!!
j'ai un 50 1.2 acheté d'occase on the oueb, je vais essayer votre astuce dès le we prochain (en espérant que le ciel girondin sera redevenu bleu) Je vous enverrai mes résultats ... dès lors qu'ils s'approcheront de vos photos ...
Olivier
vendredi 15 juillet 2011
Hadopi, c'est pas faute de l'avoir dit
Publié sur ITespresso.fr par Jacques Franc de Ferrièrele 15 juillet 2011 à 17:28
Un internaute convoqué par la Hadopi clame son innocence
Un professeur de lycée de 54 ans, convoqué par la Hadopi pour avoir été flashé à télécharger des chansons de David Guetta et de Rihanna, crie à l'erreur judiciaire.
Le Parisien rapporte la réaction d’un des dix premiers convoqués par la Commission de Protection des Droits (CPD) de la Hadopi pour le troisième niveau de la réponse graduée.
Robert Tollot, un professeur de sciences économiques et sociales du lycée François-Mauriac dans la Loire, âgé de 54 ans, devra expliquer à la Haute Autorité pour la diffusion des œuvres et la protection des droits sur Internet
pourquoi son adresse IP a été repérée par les ayants droit en train d’échanger des chansons de David Guetta et de Rihanna, ainsi que le film Iron Man 2, sur les réseaux P2P.
Le problème : il affirme n’avoir jamais téléchargé quoi que ce soit. « Je ne sais même pas comment on fait !« , précise l’enseignant.
Ces contenus culturels illégalement téléchargés ne sont non seulement pas à son goût, mais il explique même qu’à l’heure où il est accusé d’avoir téléchargé Iron Man 2, à 8h13 du matin, il était « en cours avec [ses] élèves. » Notons que Robert Tollot se précise « petitement » instruit sur les choses du Web.
« Quand j’ai reçu la première lettre, en novembre 2010, j’ai cru qu’ils faisaient du zèle, et j’ai répondu par écrit en expliquant qu’il y avait erreur« , explique-t-il au quotidien.
La Haute Autorité lui a demandé de vérifier si sa ligne est sécurisée, ce qu’il affirme avoir fait au mieux de ses moyens. Mais le processus répressif s’est malgré tout poursuivi.
Il a maintenant « l’impression d’être rentré dans un engrenage infernal« , et va devoir faire les 500 kms qui le séparent de Paris, à ses frais, pour se justifier.
« Si les choses allaient plus loin, je ferais un recours devant la Cour Européenne de Justice« , avance-t-il même, très remonté.
La seule explication plausible pour cette erreur est, selon lui, que son accès à Internet ait été piraté.
Nous pouvons remarquer que la présidente de la CPD nous a de vive voix confirmé lors des dernières rencontres publiques de la Hadopi que si les députés ont inventé le délit de « défaut de sécurisation » de son accès à Internet dans un tour de passe-passe législatif, la Haute Autorité ne veut punir que les téléchargeurs eux-mêmes.
Les membres de la Commission pourraient donc avoir à classer le dossier de Robert Tollot. Leur autre choix est de transmettre le cas à la justice, où le professeur de SES risque jusqu’à 1 500 euros d’amende et une coupure de son accès à Internet pendant un mois.
Si dès les 10 premiers convoqués, un innocent est obligé de faire 500 kms pour s’expliquer face à une autorité très contestée, le déficit de popularité de la Hadopi ne risque pas de s’arranger. Et s’il se retrouve devant la justice, son profil pourrait là encore lui assurer le soutien du public.
Une bien mauvaise affaire pour la Hadopi donc, que sa campagne de publicité à 3 millions d’euros ne pourra peut-être pas compenser.
Un internaute convoqué par la Hadopi clame son innocence
Un professeur de lycée de 54 ans, convoqué par la Hadopi pour avoir été flashé à télécharger des chansons de David Guetta et de Rihanna, crie à l'erreur judiciaire.
Le Parisien rapporte la réaction d’un des dix premiers convoqués par la Commission de Protection des Droits (CPD) de la Hadopi pour le troisième niveau de la réponse graduée.
Robert Tollot, un professeur de sciences économiques et sociales du lycée François-Mauriac dans la Loire, âgé de 54 ans, devra expliquer à la Haute Autorité pour la diffusion des œuvres et la protection des droits sur Internet
pourquoi son adresse IP a été repérée par les ayants droit en train d’échanger des chansons de David Guetta et de Rihanna, ainsi que le film Iron Man 2, sur les réseaux P2P.
Le problème : il affirme n’avoir jamais téléchargé quoi que ce soit. « Je ne sais même pas comment on fait !« , précise l’enseignant.
Ces contenus culturels illégalement téléchargés ne sont non seulement pas à son goût, mais il explique même qu’à l’heure où il est accusé d’avoir téléchargé Iron Man 2, à 8h13 du matin, il était « en cours avec [ses] élèves. » Notons que Robert Tollot se précise « petitement » instruit sur les choses du Web.
« Quand j’ai reçu la première lettre, en novembre 2010, j’ai cru qu’ils faisaient du zèle, et j’ai répondu par écrit en expliquant qu’il y avait erreur« , explique-t-il au quotidien.
La Haute Autorité lui a demandé de vérifier si sa ligne est sécurisée, ce qu’il affirme avoir fait au mieux de ses moyens. Mais le processus répressif s’est malgré tout poursuivi.
Il a maintenant « l’impression d’être rentré dans un engrenage infernal« , et va devoir faire les 500 kms qui le séparent de Paris, à ses frais, pour se justifier.
« Si les choses allaient plus loin, je ferais un recours devant la Cour Européenne de Justice« , avance-t-il même, très remonté.
La seule explication plausible pour cette erreur est, selon lui, que son accès à Internet ait été piraté.
Nous pouvons remarquer que la présidente de la CPD nous a de vive voix confirmé lors des dernières rencontres publiques de la Hadopi que si les députés ont inventé le délit de « défaut de sécurisation » de son accès à Internet dans un tour de passe-passe législatif, la Haute Autorité ne veut punir que les téléchargeurs eux-mêmes.
Les membres de la Commission pourraient donc avoir à classer le dossier de Robert Tollot. Leur autre choix est de transmettre le cas à la justice, où le professeur de SES risque jusqu’à 1 500 euros d’amende et une coupure de son accès à Internet pendant un mois.
Si dès les 10 premiers convoqués, un innocent est obligé de faire 500 kms pour s’expliquer face à une autorité très contestée, le déficit de popularité de la Hadopi ne risque pas de s’arranger. Et s’il se retrouve devant la justice, son profil pourrait là encore lui assurer le soutien du public.
Une bien mauvaise affaire pour la Hadopi donc, que sa campagne de publicité à 3 millions d’euros ne pourra peut-être pas compenser.
L'Agglo d'Orléans quitte Transdev pour Keolis
Charles-Eric Lemaignen, président de l'Agglomération Orléans Val-de-Loire, nous donne les explications du choix de Keolis comme nouvel opérateur du réseau de transport urbain.
Nouvelle délégation de service public Transports par AgglO_OVL
Ndb : Concernant le volet "green", l'actuel tramway récupère déjà l'énergie au freinage quand à l'utilisation de bus diester, le résultat est plutôt mitigé avec des casses fréquentes malgré un entretien plus lourd.
jeudi 14 juillet 2011
mercredi 13 juillet 2011
Photo de famille chez VMware France
Une photo de la famille VMware France et des partenaires venus assister au lancement de la Cloud Infrastructure Suite. Notez qu'il y a un intrus ....
mardi 12 juillet 2011
10 000 supressions d'emplois chez Cisco
Ca fait un peu mal au coeur, Cisco est une boite que j'affectionne particulièrement. On parlerait de la suppression de 7000 postes et 3000 mises à la retraite soit un total de 14% des effectifs.
Vu sur Businessinsider.com : Cisco is planning to fire as many as 10,000 people, Bloomberg reports.
According to the plans, which have yet to be finalized, the company will can 7,000 employees by the end of August. Another 3,000 have accepted buyouts.
These cuts are far greater than the ones Cisco announced on its last disastrous earnings call. They represent 14% of the company's workforce and are designed to boost Cisco's earnings growth, which has been disappointing as sales have fallen below expectations.
Cisco is getting its clock cleaned not only in its consumer division, which recently featured the shuttering of the "Flip" camera division that it bought for $590 million two years ago, but in its core enterprise business. The company is being undercut on price by likes of Juniper and HP.
Once celebrated for its extraordinary management and consistent growth, Cisco's fortunes have changed radically in recent years.
CEO John Chambers' growth strategy and management approach have also clearly failed. Unless he has some excellent new ideas, one hopes the board has considered adding his name to the list of those who go.
Vu sur Businessinsider.com : Cisco is planning to fire as many as 10,000 people, Bloomberg reports.
According to the plans, which have yet to be finalized, the company will can 7,000 employees by the end of August. Another 3,000 have accepted buyouts.
These cuts are far greater than the ones Cisco announced on its last disastrous earnings call. They represent 14% of the company's workforce and are designed to boost Cisco's earnings growth, which has been disappointing as sales have fallen below expectations.
Cisco is getting its clock cleaned not only in its consumer division, which recently featured the shuttering of the "Flip" camera division that it bought for $590 million two years ago, but in its core enterprise business. The company is being undercut on price by likes of Juniper and HP.
Once celebrated for its extraordinary management and consistent growth, Cisco's fortunes have changed radically in recent years.
CEO John Chambers' growth strategy and management approach have also clearly failed. Unless he has some excellent new ideas, one hopes the board has considered adding his name to the list of those who go.
Hadopi : tout ça pour ça
Après le constat des manquements de TMG, je ne comprends pas pourquoi on continue les procédures à l'encontre des internautes concernés. D'autre part, quand je vais au cinéma comme hier, je ne paie pas 10€ pour me faire décérébrer à coup de pub PUR.
Vu sur Generation-n.com, Hadopi : 18 millions de constats d'infraction reçus
Le mardi 12 juillet 2011 à 00:15 par Jérôme G.
Bilan chiffré de l'Hadopi qui a pour le moment adressé plus de 470 000 premiers avertissements. Plus de dix abonnés sont concernés par une convocation après récidive suite à deux recommandations.
Lors d'une rencontre publique, la Commission des droits de l'Hadopi a donné un bilan chiffré de la réponse graduée. Des chiffres dont certains avaient déjà fuité.
On ne se rendait peut-être toutefois pas bien compte, mais depuis le début de son activité en octobre 2010, l'Hadopi a dû conjuguer avec plus de 18 millions de constats d'infraction qui lui ont été adressés par les ayants droit. Les demandes d'identification auprès des FAI se montent elles à plus d'un million et un peu moins d'identifications réellement obtenues ( plus de 900 000 ).
Sur le mécanisme de la réponse graduée, plus de 470 000 premiers avertissements - ou plutôt recommandations selon la terminologie adoptée - ont été envoyés à des abonnés à Internet. La seconde recommandation avec lettre recommandée, qui intervient si récidive dans le téléchargement illégal dans un délai de six mois, a été mise en œuvre plus de 20 000 fois.
Le bilan chiffré de la réponse graduée est donc très modeste si on le compare avec les plus de 18 millions de constats d'infraction. Ce chiffre de 18 millions est toutefois à minorer quelque peu dans la mesure où il prend en compte des " doublons ", c'est-à-dire un même internaute repéré à plusieurs reprises pour plusieurs fichiers dans le même laps de temps.
Avec en ligne de mire la troisième phase de la réponse graduée qui occupe tous les esprits tant on se demande si elle sera effectivement mise en marche, près de dix abonnés ont été convoqués par la CPD après avoir été repérés une troisième fois pour du téléchargement illégal par les ayants droits et son sous-traitant TMG ( récidive dans un délai d'un an après deuxième recommandation ). La thèse défendue est que seulement dix abonnés... c'est la preuve que la démarche pédagogique de la réponse graduée fonctionne.
Pour le moment, aucun dossier n'a été envoyé au Parquet. Le cas échéant, c'est le juge qui doit décider des santions : amende et/ou coupure de l'accès à Internet pendant un mois. Une sanction de coupure ou restriction de l'accès à Internet qui est dénoncée par de nombreux rapports comme récemment par l'OSCE.
samedi 9 juillet 2011
Séance culture 29 : l'Ensoniq KT-88
Tous les ados des années 80, enfin les quarantenaires d'aujourd'hui, se souviendront sûrement de l'ordinateur personnel Commodore 64 qui trustait leur salon à l'époque, machine notamment réputée pour son révolutionnaire synthé 3 voix intégré et son interface midi le tout conçu par Ensoniq. Et oui, Ensoniq était à l'origine un sous-traitant américain spécialisé dans la fabrication de chips audio et midi. Il séviront plus tard dans une autre légende de la micro informatique, l'Amiga. Ensoniq sortira son premier sampler à un prix relativement abordable le Mirage en 1984 puis l'ESQ-1, un synthé à base de tables d'ondes en 1986. Deux ans plus tard ce sera au tour de l'EPS 16 un échantillonneur plus haut de gamme qui écumera allégrement tous les studio professionnels à la fin de années 80. Les années 90 verront naître la quintessence du son Ensoniq dans les fabuleuses workstation TS10/12, l'échantillonneur ASR-10 et la série KT-76/88 qui reprendrons l'essentiel des TS mais avec un clavier toucher lourd et General Midi.
Ensoniq, devenue entre temps propriété de Creative Labs, sera fusionnée au sein de la division E-MU du constructeur.Si le support produit est un peu compliqué, il n'en demeure pas moins que les machines vieillissent plutôt bien du fait de la qualité de fabrication. Il n'y a qu'a soulever une des bêtes pour s'en rendre compte : le KT-88 pèse près de 30 Kg ! Quand au son, c'est du made in America digne de Moog à la fois précis, rond ou très percutant avec un grain particulier toujours très recherché.
Ce matin, j'ai complétement démonté et révisé la machine :
le clavier mécanique fait son poids !
J'ai eu la chance d'acquérir ce matin un exemplaire du KT-88, certes en panne mais j'ai pu le remettre en route au bout de quelques heures de nettoyage en profondeur, et de changement de batterie et fusibles. Le KT-88 est un Synthétiseur/lecteur d'échantillons/Workstation doté d'un clavier lourd de 88 touches dynamique à la pression et l'aftertouch, de 64 voix de polyphonie et 300 mémoires de sons. Une très pratique fonction Soundfinder permet de trouver rapidement le type de son recherché. Les 8 zones de splits (sons différents à plusieurs endroits du clavier) en font un super clavier maître parfait pour la performance scénique. Les multi-échantillons de piano sont grandioses et ceux des Fender Rhodes (piano à la Supertramp) une merveille
Ce soir la bête a donné ces premières vocalises en compagnie de quelques copains
dans mon salon et fait plutôt bonne figure face à l'imposant Korg Tiron Prox X (en gris)
dans mon salon et fait plutôt bonne figure face à l'imposant Korg Tiron Prox X (en gris)
Vous pouvez écouter un exemple de la bête en action en cliquant ici
Pour info, cet été, Dune Studio va emménager dans un tout nouvel espace dédié de 30 m² au premier étage de la maison.
Update : Pour répondre à Eric;, on peut aussi voir sur la photo ci-dessus en orange un très rare Waldorf Microwave XTk, en jaune un Waldorf Q, à droite une boite à rythme Yamaha RY-30, et à gauche un bout de Solton MS-40.
Update : Pour répondre à Eric;, on peut aussi voir sur la photo ci-dessus en orange un très rare Waldorf Microwave XTk, en jaune un Waldorf Q, à droite une boite à rythme Yamaha RY-30, et à gauche un bout de Solton MS-40.
vendredi 8 juillet 2011
jeudi 7 juillet 2011
1er Think Tank organisé par Speedfire
Hier, j'ai eu la chance d'être convié avec quelques agitateurs de l'IT français au premier meeting du très fermé club "Think Tank". Cette réunion était organisé par Speedfire afin de discuter avec la guest star de la soirée Reza Malekzadeh, ex-Vmware aujourd'hui chez la très Cloud Nimbula. Je laisse la primeure à Kareen Frascaria pour nous relater sur son site nos échanges à la fois vifs mais aussi très pragmatiques.
mercredi 6 juillet 2011
CLEO : Livraison de la 1ere rame à St Jean de Braye
Un peu d'animation ce matin entre le futur dépôt tramway et le dépôt bus de St Jean de Braye, lieu où se déroulait la livraison de la 1ere rame Citadis 302 sur la 2eme ligne en cours de construction. Jusqu'à présent, les nouvelles rames étaient livrées sur la première ligne. Cette rame va permettre de procéder prochainement aux premiers essais de gabarit en poussage remorquage sur le remisage entre les deux rond-points bordant le dépôt sur le boulevard Marie Stuart.
Le convoi exceptionnel est arrivé dans la nuit
La délicate opération de descente du camion.
Ca-y-est, la rame a touché terre devant quelques personnes venues assister à l'évenement.
Le Futur dépôt de St Jean de Braye
mardi 5 juillet 2011
La stratégie stockage d'Oracle par SearchStorage.com
Vu sur le MagIT : Oracle veut optimiser son stockage pour ses propres applications
Le 05 juillet 2011 (15:35) - par Searchstorage.com
Comme c'est déjà le cas avec ses serveurs, Oracle entend optimiser ses baies de stockage afin qu'elles maximisent les performances de ses applications. Une stratégie qui devrait s'accélérer avec l'acquisition de Pillar, ce dernier offrant déjà des fonctions spécifiques pour le SGBD d'Oracle et des intégrations avec Oracle VM, l'environnement de virtualisation d'Oracle.
La semaine dernière, les dirigeants d’Oracle ont passé une heure à discuter de leur stratégie de stockage et ont clairement laissé entendre que cette stratégie était centrée autour de la base de données de l’éditeur. Le plan consiste à vendre des systèmes de stockage optimisés pour exécuter les logiciels de bases de données Oracle ainsi que ses autres applications.
« La stratégie pour notre activité stockage est - d'abord et avant tout - de livrer des produits de stockage optimisés pour les logiciels Oracle », a expliqué Phil Bullinger, le vice-président en charge du stockage sur disque, au cours d'un webcast diffusé depuis le siège d’Oracle, à Redwood Shores, en Californie.
Une stratégie qui aligne le matériel sur les besoins du logiciel
Le webcast a été l’occasion pour Oracle d’officialiser l’arrivée de la gamme Axiom de Pillar au sein de sa gamme de produits. La famille Axiom deviendra l'une des quatre principales plates-formes de stockage Oracle, avec la machine Exadata Database, les appliances Sun ZFS OpenStorage pour le NAS et le stockage unifié, et les bibliothèques de bandes StorageTek pour l'archivage et de sauvegarde. Bullinger a expliqué que le Pillar Axiom est la « plate-forme idéale pour le volet SAN de notre activité » en raison de ses caractéristiques telles que la gestion de la qualité de service, la gestion des profils applicatifs (Pillar parle d’Application-awareness) et ses taux d'utilisation élevés (Pillar promet un taux d’usage de près de 80 % de la capacité brute, NDLR). « Nous avons maintenant un produit SAN qui s’adresse au plus grand segment du marché du stockage externe et qui est particulièrement bien adapté à notre stratégie », a ajouté Bullinger.
John Fowler, le vice-président exécutif d’Oracle en charge des systèmes (et ex-patron du matériel chez Sun), a toutefois souligné que si Oracle entend optimiser ses baies pour ses propres applications, la firme continuera à supporter l’ensemble des protocoles de stockage du marché sur l'Axiom et les systèmes de stockage ZFS. En précisant néanmoins que du fait de leurs origines et de leur design, les baies Pillar sont plus adaptées pour les usages en mode bloc tandis que les baies ZFS Storage sont plus adaptées aux usages en mode fichiers.
Pour Mark Hurd, le président d'Oracle, l’objectif du groupe est à terme de multiplier par 10 la vitesse d’exécution des applications Oracle, tout en n’utilisant qu’une dixième de la capacité de stockage actuelle (les baies Pillar disposent par exemple de mécanismes intégrés de compression des tables Oracle et sont intégrées avec Oracle VM, NDLR). « Nous voulons resserrer l'intégration entre les données et le stockage lui-même », a conclu Hurd.
Le 05 juillet 2011 (15:35) - par Searchstorage.com
Comme c'est déjà le cas avec ses serveurs, Oracle entend optimiser ses baies de stockage afin qu'elles maximisent les performances de ses applications. Une stratégie qui devrait s'accélérer avec l'acquisition de Pillar, ce dernier offrant déjà des fonctions spécifiques pour le SGBD d'Oracle et des intégrations avec Oracle VM, l'environnement de virtualisation d'Oracle.
La semaine dernière, les dirigeants d’Oracle ont passé une heure à discuter de leur stratégie de stockage et ont clairement laissé entendre que cette stratégie était centrée autour de la base de données de l’éditeur. Le plan consiste à vendre des systèmes de stockage optimisés pour exécuter les logiciels de bases de données Oracle ainsi que ses autres applications.
« La stratégie pour notre activité stockage est - d'abord et avant tout - de livrer des produits de stockage optimisés pour les logiciels Oracle », a expliqué Phil Bullinger, le vice-président en charge du stockage sur disque, au cours d'un webcast diffusé depuis le siège d’Oracle, à Redwood Shores, en Californie.
Une stratégie qui aligne le matériel sur les besoins du logiciel
Le webcast a été l’occasion pour Oracle d’officialiser l’arrivée de la gamme Axiom de Pillar au sein de sa gamme de produits. La famille Axiom deviendra l'une des quatre principales plates-formes de stockage Oracle, avec la machine Exadata Database, les appliances Sun ZFS OpenStorage pour le NAS et le stockage unifié, et les bibliothèques de bandes StorageTek pour l'archivage et de sauvegarde. Bullinger a expliqué que le Pillar Axiom est la « plate-forme idéale pour le volet SAN de notre activité » en raison de ses caractéristiques telles que la gestion de la qualité de service, la gestion des profils applicatifs (Pillar parle d’Application-awareness) et ses taux d'utilisation élevés (Pillar promet un taux d’usage de près de 80 % de la capacité brute, NDLR). « Nous avons maintenant un produit SAN qui s’adresse au plus grand segment du marché du stockage externe et qui est particulièrement bien adapté à notre stratégie », a ajouté Bullinger.
John Fowler, le vice-président exécutif d’Oracle en charge des systèmes (et ex-patron du matériel chez Sun), a toutefois souligné que si Oracle entend optimiser ses baies pour ses propres applications, la firme continuera à supporter l’ensemble des protocoles de stockage du marché sur l'Axiom et les systèmes de stockage ZFS. En précisant néanmoins que du fait de leurs origines et de leur design, les baies Pillar sont plus adaptées pour les usages en mode bloc tandis que les baies ZFS Storage sont plus adaptées aux usages en mode fichiers.
Pour Mark Hurd, le président d'Oracle, l’objectif du groupe est à terme de multiplier par 10 la vitesse d’exécution des applications Oracle, tout en n’utilisant qu’une dixième de la capacité de stockage actuelle (les baies Pillar disposent par exemple de mécanismes intégrés de compression des tables Oracle et sont intégrées avec Oracle VM, NDLR). « Nous voulons resserrer l'intégration entre les données et le stockage lui-même », a conclu Hurd.
ND Blogger : Accélérer Oracle un peu comme ça quoi ...
Une approche qui diffère de celles des concurrents
Pour John Webster, un analyste d’Evaluator Group, c’est la première fois qu’un fournisseur de stockage important indique qu’il ne vise qu’une partie du marché. « Pour tous ceux qui s’interrogent sur comment Oracle peut réussir en étant à la fois éditeur et constructeur, la réponse est que le matériel est subordonné à l'activité principale », a déclaré Webster. « Si le matériel peut accélérer les bases de données d'Oracle et les applications métiers, tant mieux. Oracle dit en quelque sorte à ses clients "nous n'allons pas être guidés par ce que nos concurrents estiment être les exigences du marché. Ce qui guide notre évolution, ce sont les besoins de nos applications d’entreprise ».
Cela n’empêche pas les dirigeants d’Oracle de considérer les autres fournisseurs de stockage comme des concurrents. Ils ont ainsi effectué des comparaisons directes entre Exadata et les Symmetrix d’EMC, entre les Axiom et les baies Clariion ou entre les appliances ZFS et les baies NetApp FAS. Car Oracle sait que tout gain de part de marché en sa faveur, se fera de toute façon au détriment de ses concurrents.
"Oracle va démarcher ses clients qui utilisent des baies NetApp avec des baies ZFS, et fera de même avec tous ses clients qui utilisent EMC avec Pillar ou avec Exadata, mais cet effort sera principalement centré sur les clients Oracle qui utilisent les applications Oracle et sont acquis au modèle d'affaires d'Oracle », soupçonne Webster.
Oracle est en revanche resté discret sur l’avenir de la ligne de produit SAN issue du portefeuille StorageTek (Sun Storage 6000) et provenant pour l’essentiel d’un accord OEM avec Engenio (racheté récemment par NetApp). Répondant à une question, John Fowler a rappelé qu’Oracle a récemment mis à jour son offre avec un produit d’entrée de gamme, le 2500-M2 et a affirmé que le fournisseur continuera à supporter les 20 000 clients de ses offres SAN existantes. Il n’en reste pas moins qu’à compter d’aujourd’hui, le Pillar Axiom fait de plate-forme SAN de référence pour la firme.
Des liens préexistants avec Pillar
Un client Pillar, qui n'est, par ailleurs, pas client d’Oracle, a indiqué à nos confrères de SearchStorage qu’il a hâte de voir Oracle mettre son ingénierie et son marketing au service des baies Pillar. Ian Steele, le directeur informatique des Lightning de Tampa Bay, une équipe de hockey sur glace, a acheté une baie Axiom il y a un an et dispose de 40 To de capacité. Steele utilise notamment la baie pour supporter Microsoft Exchange, SQL Server, son cluster VMware ainsi que tous ses serveurs de fichiers. Steele a été contacté par son représentant Pillar qui lui a confirmé que les équipes de support et de développement restaient en place. J’ai compris que c’était « Business as usual, et [qu’Oracle] avait l’intention de continuer à laisser Pillar fonctionner sans changement majeur.(...) Je pensais que d’une certaine façon Pillar était déjà contrôlé par Oracle (Pillar était détenu à plus de 80 % à titre personnel par Larry Ellison, le Président d’Oracle, NDLR) ».
Steele s’attend à des évolutions positives. «Avoir des milliers d'ingénieurs ne fera que rendre le produit meilleur ; non seulement la technologie, mais aussi le support technique. Et puis le soutien financier d’une société puissante garantit désormais la solvabilité de Pillar. (…) Les efforts marketing devraient aussi doper la base installée. Cela devrait aider à augmenter le nombre des utilisateurs, ce qui fait que j’aurai plus de gens avec lesquels échanger et auxquels je pourrai poser des questions. Je pense que ce sera gagnant / gagnant pour tout le monde ».
Comment configurer NetBackup 7 pour sauvegarder une infra VMware ?
Un petit post à l'attention de Mickael qui m'interroge sur l'utilisation de NBU7 en environnement VMware. Si la précédente version de Netbackup utilisait le fameux proxy VCB limité à la protection d'une soixantaine de de VM et d'une lenteur parfois affligeante, l'actuelle permet d'utiliser les fameuses vStorage APIs nous affranchissant notamment du proxy en augmentant considérablement la bande passante et les performances. Autre atout, à l'instar d'un Avamar, l'intégration de la déduplication à la source réduisant considérablement le temps de sauvegarde, le trafic réseau (SAN ou LAN) et la charge sur les ESX(i).
Sélectionnez avec le bouton droit votre Master Server (le host NetBackup) dans Host Properties, déscendez sur l'option VMware Backup Hosts, ajoutez-y l'adresse IP de lui-même (en lieu et place de l'adresse de l'ancien proxy VCB)
Indiquez le login à utiliser pour le vCenter ou le host ESX(i) hébergeant les VMs qui vous intéressent dans Credentials/Virtual Machine Servers
Créer une policy (un job de sauvegarde dans le langage NetBackupien) de type FlashBackup en selectionnant dans la section Snapshot client perform off-host backup, le profile VMware backup host et en indiquant l'adresse IP du master Netbackup
Sélectionnez ensuite les VMs à sauvegarder dans l'onglet Clients
Lancement du job et
... voilou. Enjoyez bien.
Inscription à :
Articles (Atom)