Larry Page une histoire inedite

June 24th, 2014

Les fondateurs de Google sont encore trop jeunes pour une vraie biographie (et de toute  façon l’histoire n’est pas encore finie). Mais comme toujours on se doute bien que derrière une telle réussite il y des histoires d’hommes et qu’elles ne sont pas simples.

La publication de cet article dans “business insider” et d’une traduction dans le JDN apporte un éclairage de l’intérieur sur l’évolution de la personnalité de Larry Page à la tête de Google, ses relations avec Eric Schmidt, ses erreurs de jeunesse, ses rêves, son retour aux manettes et la complicité avec son cofondateur Sergey Brin.

Une parallèle intéressant entre l’évolution des dirigeants de Google et d’Apple.

Un éclairage du rôle du projet Android, “bébé” du fondateur, qui a grandi pendant un moment loin des éclairages du PDG.

Chaque personnalité est différente et Larry Page a sans doute su se donner les moyens de réaliser certains de ses rêves inspirés par Tesla. Comme tous les grands patrons, il a aussi ses mauvais cotés et n’est pas facile à vivre.

Le plus important est sa capacité à défendre sa vision, tout en s’adaptant au contexte, avec une stratégie qui s’est avérée gagnante !

Creer des applications open data

June 19th, 2014

Dans le cadre de Futur en Seine #fens2014 était organisé à Issy les Moulineaux, au Cube, une conférence sur le thème du développement des applications open-data. Voici les principaux intervenants :

  1. Adopter une démarche open data. L’exemple d’Issy (Eric Legale, Issy Média)
  2. Suivre son bus en temps réel avec Zenbus, (Olivier Deschaseaux, Joul)
  3. Trouver une place pour son velib avec Cycl’ou (Jean-Daniel Kuhn SYSTRA)
  4. Expérimenter le co-voiture multimodal avec Sharette (Grégoire de Pins, Sharette)
  5. Utiliser l’application de mobilité urbaine du Grand Nancy (Gaetan Lavenu, Esri)
  6. L’open data, carburant du projet SmartCity+ (Philippe Perennez, Navidis)

L’introduction générale a positionné la France comme un pays pionnier en Europe, elle-même bien positionnée sur le sujet face aux Etats-Unis. La Ville d’Issy les Moulineaux qui fait partie des premières en France à partager des données, fait part de ses échanges avec des villes américaines (comme NY).

Le retour d’expérience face aux données actuellement disponibles est une faible créativité des applications proposées par les développeurs indépendants. A ce stade, ce sont les administrations elles-mêmes qui “consomment” leurs propres données.

Beaucoup d’exemples présentés aujourd’hui sont du domaine des transports. L’information sur les trajets et la planification des transports “multi-modaux” (plusieurs modes de transports, y compris vélo, voiture, …) semblent en même temps à la mode et difficiles à mettre en oeuvre.

Les difficultés déjà rencontrées :

  • Non Qualité des données d’origine => nécessité d’une utilisation des mêmes données par le fournisseur de manière régulière pour assurer leur vérification
  • Rareté des données => nécessité d’une masse critique avant de pouvoir s’attendre à l’apparition d’application réellement utiles

A titre d’exemple, la ville d’Issy, en pointe dans le domaine, met à disposition 12 types de données : finances, POI, bureaux de vote, résultats élections, monuments, arbres, entreprises, population, …

C’est assez peu représentatif pour construire quelque chose d’utile ! Paris en a 220.

Concernant la qualité des données, je prends 1 exemple : la liste des entreprises. Elle contient 150 entreprises du “numérique”. Que contient cette définition ? Non Spécifié. En tout cas ma société n’est pas dans la liste, alors qu’elle a le même code APE que d’autres sociétés qui le sont. Arbitraire ?

Autres difficultés en vue :

Les différents intervenants pensent qu’il faut aller au delà de la donnée publique et stimuler la publication de données par les entreprises. Compte tenu du climat de paranoïa actuel, il faut aussi prendre en compte la question de la sécurité. D’une part, il est démontré que sur des jeux de données en faible quantité, même anonymes, quelques croisements permettent de retrouver facilement l’identité pour des transactions très sensibles (santé).

D’autre part, l’open data touche à de nombreux sujets liés aux infrastructures ou aux transport. La localisation des bus par exemple peut-elle être rendue publique au risque de permettre la divulgation de cette information stratégique à des individus mal intentionnés ? Même chose pour les infrastructures terrestres (antennes 3G, fibres optiques, réseaux d’eau ou électricité). Leur connaissance peut être très utile pour des applications “smart” … mais également dangereuse.

Conclusion :

Un point a pu être rapidement évoqué : au delà de la mise à disposition des données, quel peut être le moteur d’un écosystème fabriquant des applications innovantes et utiles ? Les quelques concours actuels, principalement publics, apportent surtout de la reconnaissance. Est-ce suffisant ? Comment créer un marché. Y a-t-il des besoins ? Comment stimuler la création pour exploiter ces gisements de données ?

Une partie de la réponse a été données dans les présentations. Il faut aujourd’hui franchir la 1ere étape : celle de la qualité des données. Créer un “modèle” open data, dans lequel les administration produisent des données et les utilisent avec des outils de visualisation, d’abord pour leurs propres besoins, ensuite pour leur public.

Sur ce socle il faudra construire le modèle incitatif permettant aux acteurs qui souhaitent innover dans ce domaine de trouver un marché, en dehors de la sphère publique.

Cloud personnel : Lima, une reussite francaise en perspective

June 5th, 2014

C’est une belle histoire de réussite française, celle de deux étudiants qui après avoir fondé ForgetBox, une service de partage de fichiers assez éloigné de Dropbox, loin de se décourager, réfléchissent à l’évolution du marché et trouvent un nouveau positionnement avec “plug” devenu “lima”, un petit “device” + un “soft” qui étendent les possibilités de sauvegarde locales de chaque machine en y intégrant tous les disques dur disponible.
L’idée est très astucieuse, d’une part elle anticipe le mouvement de crainte pour la vie privée et le besoin de maitrise de ses données, d’autre part elle se concentre sur l’essentiel, le cerveau, sans y intégrer la capacité de stockage (contrairement à certains concurrents).
Le projet ne reste pas moins un défi, car le logiciel doit s’intégrer au plus profond du système d’exploitation pour permettre une gestion sans inconvénient pour l’utilisateur d’espaces de stockage multiples.
Et bien entendu, ils mettent en place des fonctions de partage avant même l’apparition du terme “cloud privé”, permettant l’accès à partir de tous les appareils de l’utilisateur.

Le projet est déjà une réussite sur kickstarter avec plus d’un million de dollars.
Il vient de boucler en plus une levée de fonds de 2,5 M$.

La livraison est prévue pour juillet.
Le défi est maintenant très grand, car face aux investissements, les utilisateurs sont devenus exigeants.
Lima s’est également engagé a livré le logiciel sur toutes les plateformes “desktop” presque en même temps.
La fabrication des composants sur une large échelle avec les risques liés à un prototype a généré un important retard.

Les fondateurs, Séverin et Gawen, ont fait preuve d’un grand talent de communication pour gérer les fans sur Kickstarter.
L’avenir de la société se jouera au moment du lancement, qui sera forcément difficile, sur marché très concurrentiel.

Les fondateurs ont déjà montré qu’ils savaient faire de bons choix : voir grand, lancer le produit sur le marché international, trouver les financements adéquats. Ceci est de bon augure.
Ce qu’on peut leur reprocher est le fait d’avoir approché le domaine de la production de masse sans profiter des premiers promoteurs de kickstarter pour faire un premier test et roder la conception.

Le principal risque du projet (à part le retard) est la gestion de versions sur un nombre important d’appareils en cas de nécessite de mises à jours fréquentes. C’est un risque qualitatif binaire au départ. Les premiers utilisateurs seront motivés, ils mettrons de l’effort à faire tourner la solution. S’ils n’ont pas le support attendu, au bout de quelque temps ils abandonneront. Si au contraire on a les ressources pour faire avancer tout le monde, le “buzz” fera son effet et le produit devrait décoller.

Lectures complémentaires :
zone-numerique

info-mobiles

le figaro

itespresso

TRANSFORMATIONS Les opportunités du numérique

June 4th, 2014

Le 3 juin avait lieu la présentation ” TRANSFORMATIONS Les opportunités du numérique : un nouveau levier de performance de l’entreprise ” organisée par le Groupement professionnel Stratégie de l’entreprise d’HEC Alumni, l’Association ProcessWay et l’Académie des Sciences et Techniques Comptables et Financières.

Le débat était animé par trois groupes d’intervenants :

  • Romain HENNION, Directeur Architecture & Gouvernance d’Entreprise Global Knowledge France et professeur au CNAM et à l’Ecole Centrale et Hubert TOURNIER, DSI adjoint INTERMARCHE
  • Henri PEYRET, Analyste chez FORRESTER
  • Daniel MARTIN, Président de Aerial et Jean-Pierre DESBENOIT, DSI et responsable de la modernisation de la DGAC

Bien que le thème du débat était centré sur les “opportunités” du numérique la conclusion générale qui s’en dégage est plutôt une mise en garde sur les risques et les changements de la transformation, aussi bien sur le plan des organisations que des technologies.

L’expérience d’Intermarché, qui expérimente les technologies cloud depuis plus de 5 ans est mitigée. Une satisfaction technique pour avoir été un précurseur mais de nombreux doutes et mises en garde sur l’opportunité de certains choix à la mode. Satisfaits par exemple d’avoir mis en place des solutions cloud privé plus performantes que les “meilleurs du marché”. Sceptiques en revanche sur le couplage cloud+big data, voire même sur la possibilité d’exploiter les données non structurées avec fiabilité.

La vision du Forrester sur l’évolution des organisations en y incluant le client/consommateur, sous l’influence des réseaux qui permettent un accès accru à l’information est aussi très intéressante. C’est aussi une façon de remettre en perspective le rôle des nouvelles générations en entreprise et dans la société. Pour autant peut-on en conclure que toutes les bases de l’économie en sont bouleversées ? Que les “valeurs” de notre société ont changé ? Sans doute la portée philosophique de ce débat de société nous amène beaucoup plus loin que le sujet de la transformation numérique. Mais il pose une question directe sur la relation de cause à effet. Est-ce l’ubiquité de l’accès à l’information qui transforme la société au point de changer ses valeurs ? Ou au contraire le niveau de maturité de la société qui fait qu’elle recherche un niveau de confort qu’elle trouve dans les activités de “divertissement” que sont l’internet, le mobile, le jeu, la vidéo et qui par la même occasion diffusent l’information au plus grand nombre.

Enfin la présentation d’Aerial, suivie du témoignage de la DGAC, montrait comment, dans le domaine du management, le numérique à l’ère de la banalisation de l’Internet, pouvait devenir un vrai levier d’amélioration de performances, ce qui reste toujours (on a tendance à l’oublier) l’objectif de l’entreprise. Et comme l’expliquait Daniel Martin, ce gain de performances peut être mis au service d’autres actions utiles au progrès de l’entreprise : innovation, création de valeur, etc… (ce qui par ailleurs répond à une autre question évoquée pendant le débat : le gain de productivité est-il utile ?).

En conclusion de ce compte rendu, je dois dire que face au thème abordé, je suis un peu déçu par le manque d’enthousiasme, à part la 3e présentation. Pourtant en introduction j’ai entendu ” l’entreprise sera numérique ou ne sera pas “. Comment ne pas voir le coté positif des transformations qui se sont déjà produites depuis 20 ans. Pourquoi ne pas profiter des outils qui ont fait le succès de Google et Amazon et qui sont maintenant à la portée d’une PME ? Comment voir la numérisation des données seulement comme un risque et pas comme une énorme opportunité d’optimisation des flux et des processus ?

hec

extrait video

Cigref – les nouveaux roles de la fonction SI

May 15th, 2014

Dans une nouvelle étude publiée en avril 2014, le Cigref  analyse l’évolution des DSI face aux défis du numérique :

Comme à son habitude, le Cigref a réuni pour ce travail un groupe d’une vingtaine de DSI.

D’entrée de jeu, l’étude affirme le postulat de “la primauté de l’expérience client”, ce qui permet de décliner un concept de “marketing de la fonction SI”.

Deux autres principes viennent compléter l’analyse :

  • la co-création de valeur
  • les flux “accélérés

Ce dernier principe est considéré comme fondateur pour les derniers outils à la mode : cloud, big data et mobilité.

On y annonce ensuite la disparition des modèles d’organisation classique MOA/MOE au profit du “social”, l’avancée de l’agilité, l’excellence opérationnelle, …

Pour l’anecdote je cite une phrase au hasard : “Organiser le cycle besoin-run en insistant sur les dimensions d’agilité et le lean time” !

Il y a ensuite une partie plus philosophique à ce document, introduite par :

“En quoi le SI en tant qu’objet technique est-il impacté par le numérique ?”

Philosophique puisque le SI n’est pas un objet technique mais un système comprenant des machines, des algorithmes et une organisation.

Philosophique aussi parce que le mot “numérique” n’est qu’une extension de l’informatique vers les media, la mobilité,etc…

Dans cette partie et malgré l’introduction annonçant clairement la primauté du client, on passe dans un mode beaucoup plus conservateur, avec une organisation à 2 vitesses entre technologies classiques et maitrisées et nouvelles technologies. On a une impression de céder à un effet de mode sur les concepts marketing, mais expliquer en même temps qu’il y a plusieurs types de cycles (rapide pour le “front office” et lent pour le “back office”).

Dans ce document les missions engendrées par le Cloud occupent moins d’une page, celles engendrées par la mobilité à peine une 1/2 page !

En conclusion il semblerait que le défi des DSI face au numérique ne soient pas moins vastes que ne l’ont toujours été ceux des DSI face à leurs clients. L’industrie informatique, malgré l’évolution rapide de ses technologies a acquis une certaine maturité qui ne donne pas l’avantage aux structures les plus lourdes et qui doivent défendre les investissements du passé.

La “destruction créatrice” s’applique sans doute autant (sinon) plus au système d’information.

Il est difficile de défendre comme seuls choix possible certaines solutions traditionnelles pourtant très prisées dans les applications transactionnelles (grandes bases de données et outils associées) alors que des petites sociétés d’hier ont adopté des architectures plus légères et traitent maintenant bien plus de clients (amazon, google, facebook).

Pour une autre analyse de ce rapport, voir cet article.

Amazon #AWSSummit Paris 13 mai 2014

May 14th, 2014

Amazon a organisé à Paris ce 13 mai sa conférence technique, avec plus de 1000 participants.

L’occasion de faire le point sur la plate-forme AWS le matin avec deux intervenants de poids :

Werner Vogels, Chief Technology Officer, qui a donné une vision assez large et plutôt marketing d’AWS, avec de nombreux arguments en faveur du cloud en général et d’Amazon en particulier.

Stephen E. Schmidt, Directeur de la sécurité, a fait une bonne démonstration sur la maitrise de la sécurité au sein d’Amazon, en profitant pour dispenser des conseils aux clients, avec sans doute un clin d’oeil à l’actualité lors de l’incitation répétée au chiffrement des données, disponible sous plusieurs formes sur AWS.

De nombreux ateliers étais proposés l’après midi du niveau introductif à l’architecture technique, ainsi que des sessions “labo” de pratique.

Un forum ouvert également aux partenaires qui participaient largement aux présentations.

Le discours de clôture, officié également par W Vogels, était une sorte de conclusion prospective sur le mélange des objets connectés et des usages qui en résulteront et la nécessaire inflation des données à analyser pour personnaliser et optimiser les résultats dans tous les domaines, du marketing au sport de compétition. AWS est sans doute une des solutions qui émergent pour satisfaire ce type de besoin. Sans jugement de valeur sur le bien fondé du besoin.

Bien entendu, les sujets qui fâchent n’ont pas été évoqués à la tribune officielle : la réticence de certains types d’entreprises à confier leurs données à un acteur qui ne répond pas uniquement aux lois de leur pays par exemple. Des réponses sérieuses ont cependant été évoquées lors de l’exposé sur la sécurité, notamment sur la possibilité de choisir les sites d’hébergement, sur l’auditabilité et sur les personnels habilités à accéder aux données critiques.

Amazon affirme être déjà présent chez 70% des comptes du CAC40, sans autre précision.

En conclusion une journée intéressante, qui marque sans doute une accélération de la transition du marché en France vers le cloud. Un pas décisif pour AWS qui est incontestablement leader aussi bien en parts de marché qu’en dynamisme de l’offre.

Mise à jour : interview de W Vogels dans the Guardian.

Google integre a CloudScreener, prend la tete !

April 15th, 2014

Intégré au classement CloudScreener en avril 2014, Google en prend la tête dans un index performance/prix.

Ce classement tient compte des récentes baisses de tarifs (significatives) chez les principaux acteurs.

Il intègre également les fournisseurs français.

Les données sont eternelles !

April 3rd, 2014

Dans cet article publié sur infodsi , le DG d’Acronis fait le point sur les besoins potentiels d’archivage face à la quantité d’information en croissance exponentielle qui est produite par chacun.

Il propose (ou suggère) une solution d’archivage automatique permettant de s’assurer de la pérennité de informations de chacun, quelques soient les aléas techniques, et ceci sur des longues durées.

Sachant que toute l’histoire de l’industrie informatique dépasse à peine 50 ans et que nous avons déjà du mal à lire les media anciens de 10 ans, c’est un vaste défi.

En réalité cette réflexion nous amène bien au delà de l’archivage, vers un besoin de système d’information personnel, avec tous les outils techniques permettant d’assurer sa pérennité sur des durées compatibles avec la vie humaine, voire plusieurs générations.

A suivre donc …

 

 

DigitalOcean, un opérateur cloud jeune et dynamique

October 24th, 2013

Un des derniers nés sur le marché du cloud est la start-up DigitalOcean. La société a fait le pari de la simplicité, avec des prix dès 5$/mois et une offre déployable en moins d’1 minute ! Elle acquiert actuellement de l’ordre de 500 nouveaux clients par jour.

En août, elle vient de lever 3,2m$ comme indiqué par techcrunch.

Bien entendu, elle se destine pour l’instant à des marchés de niche, loin des leaders comme Amazon ou Google, mais c’est un acteur à surveiller, en particulier pour les start-ups à la recherche de ressources de développement.

Evolution des offres de synchronisation de documents dans le cloud ou pas

October 24th, 2013

(Cet article a été publié dans la revue des Centraliens du mois d’octobre)

L’impact croissant d’Internet sur la société d’aujourd’hui est dû à la convergence de plusieurs phénomènes, pour la plupart indépendants : Bien entendu il y a la bien connue Loi de Moore et l’évolution exponentielle de plusieurs technologies associées comme le stockage, et les transmissions. L’apparition des réseaux Internet et Mobiles il y a plus de 40 ans, sur des bases complètement différentes, puis leur convergence avec le Smartphone. L’évolution de l’Internet depuis 1989 et le WWW qui lui a permis de se démocratiser. Les différentes initiatives de numérisation des média : CD, DVD, MP3, MPEG, TNT, eBOOK ; qui permettent aujourd’hui une convergence numérique presque totale. Les réseaux sociaux qui ont montré le désir des populations entières d’apporter leur contribution gratuitement au savoir mondial. Enfin la rencontre de tous ces phénomènes qui a provoqué un réel tsunami de l’information.

Les mots et les chiffres manquent pour le décrire : le volume d’information créé en 2011 était de 1,8 Zettabytes (1,8 10^21 d’après l’étude IDC – Digital Universe). La prévision est de 40 Zettabytes pour 2020. Dans une étude publiée dans Science en 2011, M. Hilbert et P. Lopez estiment l’évolution des capacités mondiales de traitement, stockage et transport de 1986 à 2007 et confirment les chiffres d’IDC. Le volume stocké par personne passe ainsi de 500 MB en 1986 à 45 GB en 2007, dont 94% sont déjà au format numérique. Une extrapolation sur la même courbe nous amène à 150 GB par personne en 2012.

Dans le même temps les coûts du stockage ont diminué pour atteindre en 2012 moins d’1$/GB pour les SSD et 0,05$/GB pour les disques magnétiques (source Pindgom.com).

La gestion de ce patrimoine d’information numérique est devenue un enjeu pour chacun d’entre nous, un nouveau marché pour les acteurs du Cloud et un terrain de jeu pour l’innovation. Depuis l’adoption de l’ordinateur personnel dans les années 80, au marché de masse de 2012 de plus d’un milliard d’unités vendues, dominé à plus de 60% par les Smartphones (selon IDC) la constitution du patrimoine numérique a eu lieu sans réelle prise de conscience.

De nombreux documents ou media se sont pourtant numérisés : photos, musique ou vidéos, factures, relevés, toutes traces d’achat par Internet ou même par Carte Bancaire, livres, articles et bien entendu toute création personnelle qui passe par les outils bureautiques. Qui se pose réellement dans l’instant toutes les questions sur la survie de ce patrimoine pendant au moins une génération, voire plusieurs ! En s’appuyant sur des technologies dont la durée de vie dépasse rarement 5 à 10 ans, sur des media à la qualité inconnue et sur des formats de fichiers dont les plus anciens ont déjà disparu.

La prise en charge de ce patrimoine par des acteurs sérieux, avec des services en ligne de type SaaS, semble arriver à point nommé pour résoudre ce casse-tête : centraliser les traitements pour plus d’efficacité et proposer à un public très large une gamme de services digne d’un Système d’Information à un prix abordable. Après tout, c’est le modèle adopté pour les premières fonctions comme la messagerie et qui ont changé les usages pour toute une génération.

L’offre de services ne se fait pas attendre, elle est presque exclusivement le fruit de nouvelles start-ups qui pressentent un nouveau marché et qui explorent plusieurs directions. Dès 2005, des acteurs comme Mozy ou BOX lancent les premières offres de gestion de fichiers en ligne. Mais le marché décolle vraiment avec l’arrivée de Dropbox en 2007 qui propose un outil simple de gestion de fichiers et de synchronisation presque sans configuration à partir de toutes plates-formes disponibles (PC, MAC, iOS, Android, …). Il compte aujourd’hui plus de 170 millions d’utilisateurs qui partagent ainsi de façon presque transparente leurs données entre tous leurs terminaux fixes et mobiles. La gestion des données financière démarre aussi très vite aux Etats Unis avec le lancement de Mint en 2006. L’extension vers l’ensemble des documents (factures, relevés) fait son apparition plus tard, avec Doxo aux Etats Unis en 2008, Securibox en France en 2007, puis Greenbureau, Adminium, …

MoneyDoc, acteur français créé en 2011, a lui, choisi d’associer gestion des finances personnelles (comme Mint) et gestion des documents (comme eFactures). MoneyDoc espère bien changer le paysage avec une offre très complète (environ 800 connecteurs disponibles pour consolider automatiquement l’information bancaire et documentaire), une architecture Cloud maîtrisée avec ses propres technologies (permettant notamment une maintenance industrielle des connecteurs bancaires et documentaires) et un pari sur les nouveaux usages mobiles (tablettes, Smartphones) dont les nouvelles idées ne manquent pas : nouvelles versions des applications mobiles avec des interfaces améliorées, possibilités d’échanges automatiques de fichiers avec Dropbox et Sugarsync… Comme on peut le voir, c’est un marché encore jeune, qui cherche ses marques, avec de nombreux acteurs de niche. Depuis l’époque héroïque de 2005, les premières start-ups ont été rejointes par des acteurs confirmés comme Apple, Google, IBM ou Microsoft. D’autres ont fait des acquisitions (EMC avec Mozy et Syncplicity, Citrix avec Sharefile). Et les annonces ne sont pas finies. Ce qui confirme bien la croissance du marché.

Le Cloud et la sécurité

Ces offres cependant, vues des utilisateurs, posent encore de nombreuses questions : La première est liée à la nature patrimoniale de certains documents et donc à leur sécurité. Au même titre que pour certaines entreprises, confier ses données à un tiers, quelque part sur Internet, n’est pas un réflexe naturel, ni dénué de risques.

La question de la sécurité peut ouvrir un vrai débat de société. Pour les générations les plus jeunes, l’utilisation systématique de services en ligne a toujours fait partie de leur quotidien, comme celle du téléphone mobile. Ils ne peuvent intégrer la question de la sécurité des données qu’après une « catastrophe », petite (perte du téléphone avec tous les numéros des amis) ou grande (piratage d’un site de e-commerce avec cartes bancaire). Pour les plus anciens, une pondération peut être faite entre les risques des données confiées à un acteur on-line et ceux des données conservées à la maison.

Lors de l’utilisation de services de synchronisation de documents « Cloud », la sécurité est renforcée en termes de conservation, puisqu’il y a au moins une copie locale et une distante.

La question délicate reste la confidentialité. La criticité est moyenne pour la gestion de fichiers (comme Dropbox) et devient plus importante pour les documents bancaires (comme MoneyDoc). Le plus critique, ce sont les données d’identification comme les numéros de compte et les mots de passe. A ce sujet, MoneyDoc par exemple utilise un chiffrement par clé publique, sans jamais donner la possibilité de déchiffrer avec la clé privé sur ses systèmes, ce qui limite les risques de piratage.

Bien entendu, rien n’empêche les utilisateurs eux même de chiffrer certains documents confidentiels avec leurs propres outils s’ils ne font pas confiance à leurs fournisseurs !

Le Cloud et la pérennité

Une autre question qui peut préoccuper les utilisateurs est la pérennité des acteurs et des solutions proposées. Internet est une opportunité qui a permis à certaines sociétés d’occuper les premières places sur la scène internationale (Google, Facebook), mais il ne faut pas oublier tous les services qui ont fermé leurs portes abandonnant leurs utilisateurs. L’exemple de Google Reader qui a été interrompu cette année est encore présent dans les esprits et montre qu’il n’y a pas de garantie absolue de service, même avec un acteur pérenne.

En France, c’est une initiative publique qui est à l’origine du service CDC Arkhinéo, l’archivage à valeur probante utilisé par la plupart des acteurs pour le stockage des documents officiels, tels les feuilles de paye.

Lorsqu’on envisage de centraliser ses documents les plus importants, avec des fonctions à valeur ajoutée pour leur gestion, il faut s’engager avec confiance dans la société partenaire. Sur ce point il n’y a pas de miracle. Comme toujours, c’est sur la base des premiers utilisateurs « fonceurs » qu’une start-up peut grandir et devenir une référence.

La plupart des services passés en revue ici proposent une réversibilité assez facile. Elle est naturelle pour la synchronisation de fichiers. Les fonctions sont disponibles pour les gestionnaires de documents et les tailles de données sont raisonnables. Ce n’est donc pas un obstacle pour adopter les premières offres et essayer.

Cependant, une nouvelle vague d’offres fait son apparition, de type « peer to peer » et éventuellement proposant du matériel. Le dernier en date est BitTorrent Sync et non, il ne s’agit pas d’une offre illégale ! C’est un concurrent de Dropbox, mais les sauvegardes se font entre personnes « amies » qui souhaitent partager leur espace disque. Cette année sur Kickstarter, deux projets ont été lancés sur des principes similaires, avec vente de matériel : Space Monkey, avec un disque dur dédié, Lima, avec un petit boitier permettant de connecter des disques durs. Le projet Lima est l’œuvre d’une start-up française, qui avait déjà lancé le projet ForgetBox. Le principe consiste à transformer sa maison, avec tout son espace disque en « Cloud Privé ».

Cette tendance répond au public qui ne souhaite pas tout confier au Cloud pour différentes raisons.

Il est probable qu’à moyen terme des offres « hybrides » devraient faire leur apparition, intégrant des possibilités locales, « peer to peer » et Cloud, configurables par l’utilisateur et répondant ainsi aux attentes de chacun.

Pour le grand public, il y aussi un grand enjeu de simplicité pour permettre l’accès à ces solutions. Les acteurs innovants ont encore de beaux défis à relever sur ce plan, tant le nombre de paramètres techniques à intégrer est important : volumes, performances, sécurité, confidentialité. Le sujet devrait cependant poursuivre son chemin, poussé par les besoins.