Google evolution de la plate-forme cloud

May 17th, 2013

Lors de la Keynote Google I/O, la compagnie a annoncé l’ouverture au public de son service Compute Engine (GCE). Ce service était déjà en phase de test sur invitation.

Au niveau de la facturation, Google innove en abaissant le seuil de durée minimum à 10 minutes de consommation, ce qui rend possible l’utilisation des ressources pour de petits calculs répartis.

La version 1.8.0 de Google App Engine supporte PHP et Google Cloud SQL. Ceci facilite l’utilisation pour les applications les plus populaires.

Au fil des évolutions, Google et Amazon se rapprochent en couverture fonctionnelle.

Pour plus de détails, voir cet article.

Stratégie de gestion des documents numériques

May 16th, 2013

Sous l’influence de différents facteurs économiques ou industriels de nombreuses entreprises ont lancé des projets de dématérialisation des processus. La législation a elle même évolué pour accepter progressivement l’existence des documents numériques. Les utilisateurs sont de plus en plus sensibilisés à la transmission numérique.

Et pourtant, dans de nombreux cas, le papier reste encore le mode d’utilisation ou d’archivage de référence. Pour quoi ?

Il y a plusieurs constats. D’un coté les utilisateurs, les clients finaux. Ils sont souvent oubliés dans la conception des projets et sont livrés à eux même pour recevoir et gérer leurs documents. Des outils leurs sont rarement destinés pour gérer, dans la durée, les documents fournis. Ils ne tirent aucun profit du format numérique des documents. Il n’y a pas d’intégration, pas de gestion automatique, pas d’archivage, pas d’alertes lorsque des délais sont à respecter, …

De nombreux utilisateurs décident donc tout simplement d’imprimer et archiver le format papier.

Au sein des entreprises, qui ont maintenant une expérience de plusieurs dizaines d’années de mise en œuvre de systèmes d’information, la relation avec l’extérieur est encore souvent liée à des échanges papier : signatures, preuves, contrats, factures, cartes de visite, …

L’automatisation complète de certains processus est pourtant porteuse de gains d’efficacité importants. Mais elle nécessite une refonte globale en intégrant des informations qui étaient gérés hors système lors des versions précédentes : par exemple toutes les contraintes légales de conservation des documents.

Comme les projets sont souvent faits par étapes, ces contraintes n’ont pas toujours été intégrées lors des premières phases.

Une étude commanditée par Iron Mountain montre que très souvent les entreprises font des choix prudents (tout archiver en double) ou non (pas de trace des messages électroniques).

La bonne démarche consiste à définir préalablement la stratégie de transition, processus par processus, identifier pour chacun toutes les contraintes internes et externes (l’environnement législatif est en particulier délicat) et mettre en place des outils d’automatisation souples, susceptibles d’évoluer avec les besoins.

Prenons un exemple dans la vente de services, qui peut être entièrement dématérialisée (banque ou assurance). Il y a trois acteurs principaux : le client (institutionnel ou particulier), le fournisseur, l’intermédiaire financier.

Première étape, la souscription et l’établissement du contrat. Bien que la législation a favorablement évolué et que la souscription automatique soit souvent possible, elle est systématiquement doublée d’un document papier signé, accompagné de photocopies d’originaux divers. C’est un premier obstacle important à l’automatisation du processus. C’est un facteur de rejet pour le client. Pour le fournisseur, cela nécessite un suivi décalé difficile, avec nécessité de relances et abandon éventuel du contrat. Enfin, en termes de productivité c’est un facteur de risques d’erreurs et de couts. Quelque soit la forme des documents établissant le contrat, des garanties légales sont à respecter pour sa prise d’effet, sa résiliation, et sa conservation. Elles sont relativement faciles à intégrer dans le système d’information du fournisseur qui a conçu sa solution. Elles peuvent être bien intégrées dans le système du client lorsque les échanges sont automatisés. Elles ne sont pas du tout traitées pour les clients particuliers.

Deuxième échange, les flux financiers, faisant intervenir un intermédiaire. Les solutions techniques d’échange électronique d’argent sont nombreuses et très utilisées dans le e-commerce. Elles peuvent être adaptées pour les clients particuliers. Pour les clients institutionnels, il y a aussi des solutions de transfert, moins couteuses. Le transfert d’argent et la facturation sont sans doute les domaines ou la dématérialisation a pris de l’avance sur la législation. Les systèmes d’information en place dans les entreprises sont bien adaptés. Le client particulier est encore une fois délaissé. Rien ne lui permet de gérer ses factures ou ses relevés bancaires. Pire encore, certains documents ne lui sont pas envoyés, c’est à lui de les télécharger par des opérations fastidieuses. Les durées de mise à disposition de ces documents peuvent être ridiculement courtes (de l’ordre du mois dans les banques).

Enfin, le suivi courant du service (information sur l’état de son compte, déclarations de sinistre dans le cas d’une assurance). C’est pendant la vie du contrat qu’intervient le plus grand nombre d’échanges et qu’il est important de trier les informations et archiver ce qui est important. C’est à ce niveau que le processus dématérialisés actuellement mis en place sont les plus décevants : ils reproduisent dans le meilleur des cas le fonctionnement du courrier. Les documents ne sont plus imprimés, mais transmis au même format sous forme de message ou téléchargés. Cependant, force est de constater que la ou le courrier papier atteint des limites physiques et qu’une personne traite son courrier, ou bien (en entreprise) met en place une organisation capable de le faire, concernant les messages électroniques il n’y a pas de limite. Par conséquent la plupart des gens sont débordés par le nombre de messages reçus et ne les traitent pas. Des informations importantes peuvent donc se trouver noyées dans le flot des messages.

Quels enseignements peut-on tirer de cet exemple :

  1. Il y a sans doute une meilleure façon de faire une “bonne dématérialisation”. Sur chaque étape identifiée, des points peuvent être améliorés. Ils semblent mineurs au premier regard mais ont un impact important sur l’organisation.
  2. Établir une “identité numérique” permettant d’automatiser la souscription. L’élimination des documents papier lors de la souscription est possible. Elle passe par une plus grande cohérence des bases clients pour identifier chaque client de manière unique.
  3. Concevoir le processus de bout en bout, ce qui traverse les structures fournisseur – intermédiaire – client en pensant au rôle de chacun. Lorsque la structure est équipée d’un système d’information il faut l’intégrer, sinon il faut proposer des fonctions apportant de la valeur.
  4. Se concentrer sur son métier. Chaque entreprise ne peut pas devenir un spécialiste de la dématérialisation des flux ou du cloud computing. Elle doit délivrer une forte valeur ajoutée pour ses services. De bons partenariats avec des acteurs reconnus peuvent permettre aussi bien de proposer de bonnes fonctions, que de s’associer dans un panel de services susceptible d’attirer les clients.

Le marché des biens culturels dématérialisés approche 1GE

March 11th, 2013

Le marché des biens culturels dématérialisés représente 943 Millions d’Euros en 2012 en France selon une étude GfK.

C’est une croissance supérieure à 20% par an qui fait passer les ventes numériques à une part de marché de 12% d’un marché global en baisse de 6%.

On peut saluer cette progression, malgré une offre encore assez pauvre en contenus, le faible développement du livre numérique, la règlementation contraignante concernant les vidéos et TV.

Le potentiel est sans doute beaucoup plus important et c’est un des leviers de croissance de notre économie. Attendons juste qu’on accepte de libérer un peu les initiatives.

 

Marché 2012 – Serveurs, PC, Tablettes

March 6th, 2013

Un petit bilan de l’année 2012 sur le marché des matériels. Au moment où on parle beaucoup de Cloud Computing et de consolidation d’une part et de migration des usages vers la mobilité, voyons les grandes tendances économiques :

Sur le marché des serveurs, au niveau mondial, les volumes sont en baisse, avec une migration des constructeurs traditionnels vers les nouveaux, mais les revenus progressent.

En Europe en revanche, la crise touche assez globalement le secteur, avec une baisse des ventes de l’ordre de 10% au dernier trimestre.

Les ventes mondiales de PC sont également en baisse, de 5 à 6% suivant les analystes, ce qui est supérieur aux attentes déjà pessimistes. Le volume global atteint 90 millions d’unités.

Les tablettes en revanche poursuivent leur progression, avec 130 millions d’unités vendues en 2012. Si on en croit les prévisions, la croissance devrait se poursuivre avec au moins 50% de plus cette année. Apple domine pour l’instant ce marché, suivi par Android.

Enfin, le marché des smartphones progresse toujours d’environ 30% à 675 millions d’unités représentant maintenant 40% des ventes de téléphones mondiales de téléphones mobiles (globalement en baisse de 1,7% ! ). Sur ce marché plus mature, Android a 66% de parts de marché et Apple 20%, avec tout de même 130 millions d’unités vendues.

Serveurs

Ventes PC , monde

Tablettes previsions Gartner

Smartphones

Update (4/6/2013) :

Marché français : 24M smartphones (44% de la population) et 18% pour les tablettes.

IBM adopte le standard OpenStack pour l’offre Cloud

March 6th, 2013

Lors de la conférence de Las Vegas IBM a annoncé son intention d’adopter le standard OpenStack. Pour mémoire, il s’agit d’une plate-forme initiée par Rackspace et la Nasa et adoptée par un ensemble d’acteurs comme AT&T, Ubuntu, Redhat, HP, Suse, Cisco, Intel, Dell, VMWare.

IBM fait déjà partie des membres “Platinum” ! A noter également que les acteurs français publics utilisent OpenStack.

“This move will ensure that innovation in cloud computing is not hampered by locking businesses into proprietary islands of insecure and difficult-to-manage offerings.” Note le communiqué.

“History has shown that open source and standards are hugely beneficial to end customers and are a major catalyst for innovation,” ajoute Robert LeBlanc IBM senior vice president of software.

L’offre sera complétée par une brique administration, basée sur Tivoli et nommée SmartCloud Orchestrator.

Certains analystes pensent qu’il s’agit également d’une réaction à la concurrence agressive d’Amazon, en particulier sur les prix.

Article infodsi

Evolution du marche 2012 – 2013 : bonne nouvelle pour le cloud

February 27th, 2013

Le marché français des Logiciels et des Services finit 2012 relativement stable (en croissance de 0,7% d’après IDC, en récession de 1% d’après une étude de Pierre Audoin Consultants). Ceci fait suite à une année 2011 de stagnation.
On peut cependant noter certains secteurs en forte croissance comme le Cloud Computing, avec 25%, et qui représente déjà 8% du marché.

De manière plus étonnante, l’édition de logiciel marque aussi une croissance d’environ 2%.
Les prévisions restent optimistes pour les technologies Cloud et Big Data à un horizon de 5 ans.
Pour 2013, dans l’ensemble, le marché devrait rester au moins à l’équilibre.

En ce qui concerne la tendance du Cloud Computing, environ 90% des entreprises interrogées envisagent des projets dans ce domaine et plus de 80% pensent que le modèle SaaS devrait remplacer la vente des traditionnelles licences.

Un beau marché en perspective pour la définition de stratégies “numériques”, des plans de migration et pour toutes les études liées à la mise en oeuvre de ces projets sensibles.

Evolutions du stockage

February 22nd, 2013

Ce n’est plus un mystère pour personne, l’évolution de la quantité de données nécessite des moyens de stockage croissants, aussi bien en mémoire, pour les traitements, en disques, mais également en moyens de stockage à long terme.

La multiplication des offres “Cloud” ne doit pas faire oublier que derrière, les fournisseurs ont toujours besoin de centres performants pour se positionner dans une guerre des prix qui n’est pas finie.

L’équation local/distant doit également tenir compte des débits disponibles et de leur évolution en regard de celle des quantités de données accumulées, en particulier dans le cas d’un besoin de restauration massive et rapide. Lorsque de terras octets de données se sont accumulés dans le “Cloud” il peut être techniquement impossible de les récupérer par le réseau, et économiquement très couteux. Heureusement la plupart des fournisseurs fournissent encore des média physiques, comme les DVD, les disques durs ou même les bandes.

En effet, pour les archives, la bande n’a pas encore perdu tous ses atouts face au disque (même SSD) et est encore utilisée.

Tout ceci suppose que l’entreprise reste équipée d’une environnement technique lui permettant l’exploitation d’une partie de ses données en cas de restauration. Cet élément est à intégrer à l’équation économique d’une solution “Cloud”.

Pour plus d’information un article complet est proposé ici.

Compétitivité et Nouvelles Technologies

February 18th, 2013

Bonne Nouvelle ! Les nouvelles technologies, en particulier celles liées au numérique et la transformation du système d’information, apportent des gains de compétitivité aux entreprises. Une étude réalisée par l’Insead et AT&T semble le confirmer, appuyée par l’analyse de 255 sociétés internationales.

En ces années de crise, il s’agit d’une part de la confirmation (si nécessaire ?) que le domaine des technologies numériques et de l’informatique est non seulement toujours, comme depuis 30 ans, une locomotive en termes d’innovation et d’emplois, mais qu’il représente un vrai secteur stratégique pour les entreprises dans la compétition sur leur marché.

C’est d’autant plus intéressant que l’Europe et la France ont des atouts importants pour jouer un rôle majeur dans ce domaine. Espérons qu’on saura nous encourager !

Article

Infographie

Le Cloud Souverain Francais ?

January 21st, 2013

Beaucoup de débats ont accompagné le lancement fin 2012 des 2 acteurs français soutenus par l’état pour faire face à la concurrence internationale du Cloud computing : Numergy et CloudWatt.
Sur son site, Jean-Michel Billaut introduit à sa façon CloudWatt et son président Patrick Stark.

On peut également trouver un commentaire de Patrick Stark ici.

Il s’agit d’une réaction à un article dans lequel des consultants du cabinet Kurt Salmon analysent le modèle économique du projet gouvernemental.

De son coté, Numergy présente également son offre, d’ailleurs lancée la première, par la voix de son président, Philippe Tavernier.

Pendant que les offres démarrent, qu’elles s’enrichissent de services de base comme la synchronisation de fichiers, les débats aussi se lancent sur l’opportunité de leur financement public.

Dans cet article, la question est posée sur l’influence de cette politique publique sur l’ensemble des acteurs nationaux déjà sur le marché.

Il reste à prendre en considération également la part des acteurs internationaux bien implantés en Europe et en France comme IBM ou Microsoft et avec lesquels il faut compter.

Tenant compte de tout cela faut-il conclure que c’était une erreur ?

La réponse n’est pas aussi simple.

On peut constater que le marché français est en retard. Et comme on le sait il est aussi très atypique. Il est constitué d’une part de très grands groupes publics ou privés et d’autre part de toutes petites entreprises avec peu de moyens.

Les grands groupes publics, qui disposent malgré tout de moyens quelques soient les cycles économiques, sont en contrepartie frileux et centrés sur d’innombrables contraintes règlementaires et de sécurité (imagine-t-on la moindre donnée de la Sécurité Sociale ou du Pôle Emploi sur un site étranger ?). Ces groupes pourraient constituer le marché du “cloud souverain”, mais le plan de marché présenté jusqu’à présent identifie d’abord une cible PME !

Les grands groupes privés sont dépendants de la conjoncture économique. Ceux qui sont en croissance seront les plus sensibles aux innovations leur permettant de gagner de l’efficacité. Ils constituent le cœur du marché. Mais leurs contraintes sont-elle suffisantes pour les pousser uniquement vers les acteurs français ?

Les PME sont également très ouvertes aux solutions innovantes. Leur critère déterminant sera le rapport qualité/prix. De nombreuses start-up fonctionnent pendant le plus longtemps possible avec des services gratuits, une nouveauté rendue possible depuis 2000 avec les services “freemium”. Les champions du cloud français, soutenus par l’état, sauront-ils être assez souples pour rester concurrentiels ?

De nombreuses voix craignent la même issue que le “plan calcul”.

En réalité, il y a un marché pour le “cloud public” mais on n’a pas l’impression que l’effort de coordination ait été identifié. Cet effort est gigantesque. Prenons un simple exemple : la carte Vitale et le dossier patient. Quel délai a-t-il fallu pour généraliser la première version de la carte ? Combien d’année encore avant la généralisation de la 2e version ? Y a-t-il une perspective de disposer de données personnelles quelque part ? Une architecture “cloud” pourrait y répondre. L’hébergement des données, sécurisé, ne pourrait avoir lieu qu’en France. Quelle serait la perspective de réalisation d’un tel projet : 5, 10, 20 ans ?

Amazon glacier, sauvegarde longue duree

December 19th, 2012

Le service Amazon Glacier, propose une offre d’archivage de données en ligne destinée à remplacer les sauvegardes locales (comme les bandes par exemple).

Pour stimuler la demande, cette offre propose un service spécifique, ainsi qu’un prix incitatif : les volumes d’archivages peuvent être importants, mais à condition d’accepter des temps d’accès plus longs.

Dans le cas d’usage le plus simple, l’archivage des données est facturé de l’ordre de 1 centime de $ par mois et par GB. Le chargement de données est gratuit (sauvegarde).

L’accès des données est gratuit dans une limite de 5% du volume archivé par jour. Ce qui pour Amazon représente l’utilisation typique de l’archivage/restauration.

Au delà, l’accès aux données en lecture est plus cher, de l’ordre de 10 centimes de $ par GB.

Pour résumer, l’archivage d’une base de 100 TB représente environ 900 Euros/mois dans les conditions nominales proposées par Amazon.

Voir la tarification ici.

Explication avec des exemples ici.