La France dans le classement pour la creation de Datacenters

October 2nd, 2013

Selon un article IDG la position de la France parmi les pays susceptibles d’accueillir un Datacenter est la suivante :

” France has abundant energy thanks to its nuclear power but the World Bank says its advantages are neutralised by the difficulty of administration there. High labour costs and levels of industrial action make it hard to do business in France, it says. The recent political instability has also caused France to rank outside the top 10 destinations in the world for a data centre, according to Cushman & Wakefield, hurleypalmerflatt and Source8’s  Data Center Risk index 2013 . ”

Pour résumer les français sont “techniquement” bons mais “politiquement instables” !

Alors que les mentalités évoluent avec un souhait de disposer de solutions sur le territoire européen, il est important de rétablir cette situation au profit de la France.

Le cout de la panne

September 23rd, 2013

Avec l’emprise croissante des technologies numériques sur le fonctionnement des entreprises, nous avons tous vécu la frustration liée à une interruption de service.
Voici une estimation du cout moyen d’une telle panne, donné par Compuware
: 11 M$. Ceci suite à une étude fondée sur 300 entreprises dans le monde.

Il faut noter par ailleurs que 80% des entreprises affirment qu’une panne est intervenue lors de la dernière année. Sur le panel étudié, nous aurions donc un budget de l’ordre de 2,5 G$.

Nous sommes loin des performances idéales d’un système robuste ayant une disponibilité d’au moins 99,9% (soit environ 9h d’interruption par an) ou mieux de 99,99% (soit moins d’1h d’interruption par an).

Selon une autre étude pour CA Technologies, la conséquence logique est l’utilisation du Cloud Computing pour des PRA (Plan de Reprise d’activité). Un autre panel de 300 responsables (Amérique du Nord seulement) indique l’intention pour 55% des utilisateurs à s’appuyer sur le cloud.

En effet les fournisseurs du cloud affichent pour la plupart de taux de disponibilité proches de 99,99%, tout en tenant compte des pannes bien médiatisées de certains grands acteurs .

Cette tendance semble assez logique. Imaginons un SI à la disponibilité modeste de 99% (soit 90h d’interruption par an). La mise en place d’un PCA (Plan de Continuité d’activité) avec un fournisseur Cloud disposant d’une disponibilité de 99,9% (ce qui est modeste également) ramènerait la disponibilité globale à 99,9999… (soit quelques minutes d’interruption par an). A condition bien entendu que la transition vers le système de secours puisse se faire “sans coutures”.

Le Cloud Computing est bien une cible de choix pour ce type d’opérations.

La maturité des offres de synchronisation de documents en entreprise ?

July 14th, 2013

Plusieurs articles relatent la publication par l’institut Forrester sur l’implantation croissante en entreprise des offres de synchronisation de fichiers, dont le leader est BOX.com.

Comme d’habitude avec les nouvelles technologies, les utilisateurs, éduqués par l’apparition des offres grand public comme DropBox, dont la simplicité n’est plus à démontrer, sont étonnés de ne pas disposer de moyens similaires au sein de leur entreprise. La pression monte donc auprès des DSI, qui cherchent en même temps à satisfaire les utilisateurs et à maitriser le développement sauvage des échanges de fichiers vers les serveurs externes qui peuvent mettre en danger le patrimoine de l’entreprise.

L’étude Forrester répond donc aux questions des DSI sur les critères de choix et le classement des acteurs.

Sans surprise, BOX est classé comme leader dans cette catégorie. Cette entreprise de la Silicon Valley, lancée en 2005 par Aaron Levie, qui a maintenant 25 ans, est une des premières qui a choisi ce secteur, bien avant DropBox par exemple. Avec l’arrivée de la concurrence, elle a choisi le créneau des entreprises, bien qu’elle conserve également une offre grand public.

EMC Syncplicity (une acquisition récente) figure en 2e place. Il y a quelques années EMC avait également acquis Mozy, un autre vétéran de la synchronisation.

En troisième position figure IBM Connections enterprise collaboration.

Bien entendu, tous les autres grands acteurs proposent leurs produits aux entreprises et figurent dans le classement. D’ailleurs tous les éditeurs de solutions grand public proposent également des offres entreprise.

Devant ce vaste choix, les solutions techniques existent pour proposer en entreprise, des services aussi performants et ergonomiques que ceux connus du grand public. Il reste toujours à trancher sur le problèmes stratégiques de sécurité, confidentialité, localisation et maitrise des données.

Dépenses mondiales IT, +2% en 2013 selon Gartner

July 12th, 2013

Le Gartner annonce une croissance de 2% des dépenses IT mondiales cette année. Une croissance revue à la baisse !

L’analyse de ces chiffres fait apparaitre une faible progression du matériel (en dehors des mobiles) et des services, et une hausse modérée des logiciels.

Le Gartner maintient des prévisions plus optimistes pour les années à venir, autour de 4% (c’était également la prévision de 2013).

Le cloud “privé” grand public : lima, space monkey, …

July 11th, 2013

La gestion de données personnelles a pris un nouveau tournant plus proche du P2P avec l’apparition de projets qui tentent d’apporter les bénéficies du cloud à des architectures privées de partage de données ouvertes au grand public.

Ainsi le projet français “Plug” (devenu Lima) a lancé hier sa souscription sur kickstarter qui a déjà atteint son objectif ! Sue le même modèle que “Space Monkey” qui avait ainsi triplé son objectif au mois d’avril.

L’équipe de Lima n’en est pas à son premier essai. Elle a déjà mis sur le marché un premier projet :  “ForgetBox”, qui lui a permis de tester les concepts et d’avoir un retour utilisateur.

Avec “Lima” on charge de domaine puisqu’il s’agit d’un package soft+hard. Un petit boitier permet de relier au réseau local (ethernet) les disques durs qui seront partagés localement et sur Internet. Les fichiers seront ainsi disponibles partout sur tous les appareils.

On n’en sait pas plus pour l’instant. Le concept va se roder.

Un projet à suivre …

Et à soutenir sur Kickstarter !

 

Performances des services Cloud : Box, Dropbox, Drive, …

July 11th, 2013

Le service de mesure de performances “Pingdom” publie chaque année une étude comparative des performances de certains services Cloud.

Cette année, ce classement fait apparaitre en tête, Box pour la disponibilité et Google Drive pour les temps d’accès.

Bien entendu, pour la disponibilité, il faut modérer ces chiffres qui sont calculés sur 1 mois seulement. Le détail montre une interruption maximum de 9 minutes pour Dropbox, mais il est vrai que 19 interruptions en 1 mois, ce n’est sans doute pas anodin.

En dehors de ce mois de juin, les services présentent des disponibilités de l’ordre de 99,99% et des temps de réponse entre 0,5s et 1,2s.

Internet Mobile et Cloud Computing

June 10th, 2013

Lors d’une table ronde organisée par La Cantine, #FuturMobile , les participants (ComScore, Nokia, Orange, Samsung, Universitaires, …) réfléchissaient aux futurs usages du mobile !

Bien entendu, comme on peut le lire dans cette synthèse, il est plus facile de faire le bilan de l’acquis que de réellement faire de la prospective, d’autant plus que les vrais projets d’avenir des acteurs sont probablement des secrets bien gardés.

Tous s’accordent sur le rôle prépondérant acquis par le mobile aussi bien dans la communication de données que verbale en l’espace de quelques années, au point de devenir l’outil quantitativement le plus représentatif pour se connecter au réseau. Avec une croissance toujours positive, cette tendance se poursuit. Les études rassemblent souvent le marché des mobiles et des tablettes, dont la croissance est aussi très forte. Ensemble ils surpassent déjà le parc d’ordinateurs.

En termes d’usages, la multiplication des terminaux (PC, mobile, tablette, TV ? ) amène les utilisateurs de plus en plus au “multi-usage indifférencié” (consultation de l’écran le plus disponible au bon moment). Cette dernière tendance n’est rendue possible que par les dernières technologies d’Internet, et en particulier par l’adoption croissante des services de Cloud Computing. Le modèle du tout privé (application+données) qui obligeait la précédente génération à toujours se déplacer avec son ordinateur portable semble donc faire place au modèle tout centralisé dans le “cloud” avec sa souplesse de consultation et ses contraintes de sécurité.

Quels enseignements peut-on en tirer pour l’évolution à moyen et long terme ?

La principale idée évoquée lors de cette table ronde était l’intégration du paiement électronique sans contact. D’autres évolutions liées aux applications rendues possibles par la multiplication d’objets connectés et pilotés par mobiles pourraient aussi émerger.

Peut-on faire confiance au Cloud Computing

June 10th, 2013

Depuis la naissance du concept du Cloud Computing et plus particulièrement du SaaS les aspects juridiques sont particulièrement importants. Ces contraintes jouent dans les deux sens :

  • Toute entreprise ou individu est tenu de respecter les lois en vigueur sur son territoire
  • Par ailleurs, chacun doit avoir connaissance des contraintes qui pèsent sur ses données (confidentialité, droit de la propriété, …) avant de décider de les confier à un tiers et dans quelles conditions

Concernant la stratégie de choix d’implantation sur le Cloud, qui est mondial, une entreprise multinationale, qui a besoin d’une présence multiple et les moyens juridiques d’étudier chaque zone, les choix peuvent être faits en accord avec les contraintes d’implantation géographique et une optimisation juridique.

Il est par exemple bien connu que les contraintes sont bien plus fortes en Chine qu’ailleurs.

Cependant, le point le plus délicat porte sur les Etats-Unis, berceau du Cloud Computing, et à ce jour marché des acteurs dominants. Les soupçons pesaient depuis longtemps sur le risque d’accès aux données par les agences du gouvernement.

Ce risque est maintenant avéré par des fuites dans les journaux et confirmé par le président.

D’ailleurs l’Europe et la France en particulier ont déjà lancé des initiatives pour se doter de “Cloud souverains” justement pour se prémunir contre l’espionnage américain.

On anticipe donc maintenant une évolution du marché vers les acteurs locaux.

Est-il justifié de céder à la panique ? Y a-t-il un risque de prise de contrôle du Cloud, de l’Internet ? Et par qui ?

Il faut d’abord rappeler qu’Internet, projet très ancien, basé sur des technologies financées par la défense américaine, s’est développé ensuite très librement comme un réseau de recherche. N’étant pas du tout conçu à l’origine pour transmettre la voix ou la vidéo, ces applications se sont développées de façon très anarchique au début.

Cette grande liberté a permis l’essor d’innovations comme la téléphonie sur IP, de la vidéo, comme des systèmes d’échange de fichiers. Certaines technologies ont été intégrées par les opérateurs et sont devenus les nouveaux standards, comme la téléphonie IP (seul le modèle de coûts a changé). D’autres ont mené à des possibilités de piratage de musique ou de film. Enfin, les réseaux sociaux ont permis de libérer des peuples !

Les gouvernement réagissent lentement. Après des dizaines d’années, l’Internet étant devenu LE RESEAU véhiculant la plupart des échanges, il était inévitable qu’une régulation intervienne.

Après tout, dans l’ancien monde de la téléphonie il y avait des écoutes. Et personne n’est assez naïf pour croire qu’elles étaient toutes légales (d’ailleurs le Watergate nous le rappelle).

Pour en revenir au Cloud, les Etats Unis ont donc leur système de contrôle, dont l’objectif “officiel” est la lutte contre le terrorisme. Il est bien probable qu’en France et en Europe une surveillance comparable soit pratiquée.

De nombreux pays, dont la France et les Etats Unis, ont des programmes de lutte contre le piratage. On peut bien imaginer que les outils scannent les échanges à cet usage.

Pour une étude comparée de la surveillance dans les différents pays, on peut s’appuyer sur ces documents IDC : Data Sovereignty, Data Sovereignty and the Cloud.

Nous vivons dans des pays démocratiques ou chaque citoyen apporte sa voix en faveur de ce type de loi.

La bonne nouvelle, c’est qu’une presse libre fait état des abus potentiels (sans doute plus dans le monde anglo-saxon).

Donc pour reformuler la question, il ne s’agit pas seulement de savoir si on peut faire confiance au Cloud, mais au système législatif de nos pays démocratiques ?

Dans la plupart de cas et pour la plupart des acteurs économiques et privés, la réponse est OUI.

Et on en revient ensuite à une stratégie qui relève du bon sens :

  • La question de la confidentialité se pose pour tous les échanges par tous les canaux (et ne concerne pas seulement le Cloud)
  • Toute entreprise ou personne peut décider des informations “critiques” dont elle doit protéger la confidentialité. Ces données doivent être traitées à part (chiffrement, stockées localement ?)
  • Pour le reste des données “banalisées” il reste opportun de faire un choix sur la base de l’ensemble des critères (fonctionnalités / performances / prix / sécurité )

Pour conclure, il faut rappeler que pour l’ensemble des données, les technologies de chiffrement peuvent être employées par défaut par certains opérateurs ou être mises en oeuvre par les utilisateurs “prudents”. Les recherches actuellement en cours sur “l’homomorphic encryption” permettront peut-être même de disposer de chaines complètes de traitement sans nécessiter l’accès aux données “en clair”.

Smart Grid, Cloud Computing, Big Data, Crowd intelligence …

June 10th, 2013

L’énergie est sans doute le vrai enjeu de notre siècle. En tant qu’acteurs du “numérique” nous sommes d’abord passionnés par le potentiel de transformation des technologies de l’information sur la société. Mais si on n’y prend pas garde, tous les ingrédients d’une crise de l’énergie sans précédent se préparent :

  • d’un coté les ressources d’énergie, principalement traditionnelles, s’épuisent
  • de l’autre la population mondiale continue de croitre et l’amélioration de son niveau de vie moyen nécessite un consommation d’énergie par habitant en hausse (Environ 5 Tonnes Équivalent Pétrole par an dans l’OCDE pour moins de 2 TEP en Chine et environ 0,5 TEP en Inde en 2010)
  • de forts risques liés à l’impact inconnu d’une intervention humaine d’une telle échelle sur l’équilibre de la planète
  • de la fin prévisible des ressources fossiles qui représentent environ 90% des sources de production d’énergie

Ceci devrait-il nous faire peur ? A vrai dire oui, mais comme il s’agit d’une évolution lente, la prise de conscience est difficile. Depuis la crise amorcée en 2008, les pays de l’OCDE ont inversé leur tendance inflationniste de consommation d’énergie et les pays émergents ont pris le relais (ils constituent maintenant plus de 50% de la demande).

Sur cette base l’ADEME a publié une étude très optimiste sur l’évolution de la consommation en France : elle prévoir une diminution de 50% d’ici 2050 ! Les énergies renouvelables représenteraient à cette échéance plus de 50% des ressources.

Sans faire de commentaire sur ce scénario, quel peut être le rôle des technologies numériques dans cette évolution ? Tout d’abord faisons quelques constats :

  • A l’heure actuelle les technologies de l’information sont trop peu utilisées pour la maitrise de l’énergie
  • Nous ne pouvons pas envisager une sortie de crise par une seule logique de réduction de notre consommation, alors que le développement économique demande de l’énergie et que de toute manière le transfert d’activités industrielles gourmandes en énergie vers des pays émergents se fait dans de mauvaises conditions écologiques
  • Il faut englober dans la perspective énergétique, l’optimisation des principaux secteurs consommateurs d’énergie

Jusqu’à présent l’optimisation des ressources est dans le giron des mêmes opérateurs qui en assurent la distribution. Ceci constitue un réel et évident conflit d’intérêt et ce n’est donc pas tellement étonnant que rien de très opérationnel n’ait vu le jour !

Les principaux projets proposés sont de type “smart grid” concept imposé par l’arrivée de nouvelles sources d’énergie non programmables et non stockable comme le vent et le soleil, ou “compteur connecté”. Chacun implique des infrastructures complexes et il n’est pas évident de dégager une cohérence globale vers l’objectif unique d’optimisation de la ressource.

Cependant, le sujet étant très à la mode, de nombreux particuliers et entreprises sont prêts à s’équiper et contribuer dans un effort collaboratif. Voila comment des outils comme le crowd sourcing et le big data peuvent rentrer en jeu :

  • ouvrir le marché aux acteurs innovants prêts à fournir des dispositifs de comptage (uniquement informatifs)
  • prévoir les outils sécurisés de remontée des information, fonctionnant sur la base du volontariat et pouvant intégrer des données relevées “par des humains” ou par des “objets intelligents” sur tous les compteurs d’un lieu (eau, gaz, électricité, …)
  • mettre en place les outils d’analyse fine de ces données
  • sur la base des premiers résultats, construire les stratégies d’actions pour lisser la consommation et effacer les pics
  • mettre en place les outils d’action (contractualisation, dispositifs de contrôle, cogénération, …)

Bien entendu, il y a aussi des secteurs grands consommateurs d’énergie qui peuvent être directement optimisés. Exemple : le transport ! Le transport routier représente encore une part prépondérante aussi bien pour les transport des personnes que pour celui des marchandises. La vision habituelle de la classe politique est de préconiser leur réduction. C’est une sorte de démagogie propre à une catégorie de population urbaine. En complément de cette démagogie (qui consiste en fait à attendre) il faudrait surtout continuer à faire évoluer les infrastructures à l’évolution des besoins et utiliser les possibilités ouvertes par les technologies numériques pour optimiser le trafic.

Quelle est la part de la consommation de carburant qui est perdue inutilement dans les embouteillages des grandes villes ? Avec une vitesse moyenne inférieure à 20 Km/h, probablement de l’ordre de 50%. L’ordinateur et une infrastructure adaptée peuvent résoudre en partie ce problème. Et par la même occasion faire gagner des millions d’heures pour le travail ou les loisirs sans parler de l’assainissement de l’air.

Tous ceci n’est en rien contradictoire avec les projets engagés. Il s’agit juste de dire qu’on peu aller plus vite en mettant en oeuvre les outils statistiques connus et éprouvés dès lors que de grandes quantités de données sont disponibles pour optimiser les processus.

Le contrôle “intelligent” de la consommation électrique peut permettre par exemple d’intégrer le transfert d’une partie du parc automobile du carburant vers l’électricité sans augmentation notable des sources de production. Un développement “désordonné” pourrait au contraire  créer une forte demande supplémentaire au moment des pics de production.

L’optimisation du trafic automobile est une première étape dans la mise en place d’infrastructures et algorithmes qui pourraient ensuite être embarqués dans les véhicules pour compléter le dispositif.

Bien entendu, les capacités de traitement correspondantes devront se trouver dans des centres de données sécurisés de type “cloud”.

Les perspectives de réussites seront meilleures dans le cas d’une coopération internationale.

CloudScreener – comparaison des offres Cloud

May 22nd, 2013

La start-up CloudScreener permet de faire des comparatifs multi-critères sur les principales offres cloud en fonction de l’usage.

Un exemple, pour l’hébergement d’une application et un type d’usage défini :

clouds

C’est une offre bien pratique pour affiner son choix rapidement.

D’ailleurs, le 17 mai, le JDN publiait un classement des principaux acteurs utilisant le moteur CloudScreener qui met en évidence dans le groupe de tête l’offre Azure de Microsoft et Amazon (sur une combinaison de critères qualité/prix).