dimanche 25 novembre 2012

En route vers le multi-écrans

En route vers le multi-écrans



Pour simplifier, Windows 8 est un système bicéphale qui sait gérer un mode tablette et un mode PC. Une façon, astucieuse pour Microsoft, de répondre à l'évolution de sa gamme Windows sur PC (XP, Vista, Win7) tout en essayant de prendre des parts de marchés du coté des tablettes.

Des tablettes qui au 4em trimestre dépasseront les portables en volume (21,5 millions contre 14,6), effet Noël oblige, sachant qu'elles ont déjà dépassé les PC de bureau en début d'année.  


Mais pour GreenSI la rupture ce n'est pas le débat portable versus tablette, mais le multi-écran.

Car si dans le même temps les applications et les données migrent dans le Cloud, l'ergonomie et le temps d'accès deviennent prédominants sur le stockage et la puissance de traitement local. Certains sont prêts a renoncer a leur PC avec 1To pour une tablette à 32Go, si ils ont tout le temps accès a leur information. Mais tout le temps, c'est plus que la tablette et le PC...

C'est ce sur quoi surfe Evernote, en proposant à ses millions d'utilisateurs de gérer au quotidien leurs notes textuelles, vocales, photo ou video, où que vous soyez, sur tous les terminaux. De pouvoir les partager et plus encore.



A coté de cela, le "grand-père" de la catégorie OneNote de Microsoft, déjà présent sur Office 2003 il y a 10 ans, est resté un produit peu utilisé, dans l'ombre de la suite Office et que sur PC. Depuis Microsoft a mesuré le potentiel d'un produit multi-écrans avec Office365 et sa stratégie Azure et OneNotes a même sortie en février une version Android après la version iOS.

Or dans tous les domaines, l'ergonomie se satisfait rarement du "one size fits all". La voiture en est un exemple. L'industrie automobile a beau se consolider et les plateformes utiliser de plus en plus de composants communs, l'utilitaire, la familiale et le cabriolet survivront. Car ce sont trois ergonomies distinctes.

Et actuellement dans les postes de travail on a cinq "ergonomies dominantes" :

  • le smartphone (une main) et terminal personnel,
  • la tablette (deux mains) et  terminal personnel,
  • le portable/PC (bureau) et  terminal partagé,
  • la télévision (mur) et terminal partagé,
  • le mur d'image (salle), déjà présent dans les salles de télécontrôles, de visioconférences avancées, mais qui pourrait se développer dans les lieux publics comme avec les magasins virtuels.

Bien sûr une chaîne de télévision comme BFM Business peut se regarder sur son smartphone, sur sa tablette, sur un PC et bien sûr sur une télévision (et même s'écouter à la radio sans les images!). On comprend donc la confusion amenée par le mot "télévision" qui veut dire en langage courant aussi bien le contenu que le terminal d'accès. Or c'est bien vers le multi-acccès, que GreenSI simplifie en multi-écrans, que l'on se dirige. Et ce pour toutes "les chaines d'information" mais aussi et surtout pour GreenSI, pour la partie du SI en interactions avec les agents, les clients et les partenaires, qui peuvent être considérées comme autant de chaines d'information interactives. Toutes ces ergonomies peuvent être tactiles, avoir un clavier, un stylet, un système de reconnaissance de la parole ou des gestes en fonction des situations, ce ne sont donc pas des critères de classification discriminants.

Et si vous voulez vous en convaincre, regardez les publicités autour de vous. Toujours Microsoft avec sa gamme Xbox Music qui est mise en avant sur 3 ergonomies pour écouter la musique: téléphone, TV, tablette.

undefined

undefined

Et pour les Parisiens regardez le panneau de pub géant de Toshiba sur le périphérique nord, on y retrouve la même idée avec un portable, une tablette et un smarphone. D'ailleurs Toshiba a été un pionner dans les ordinateurs portables quand il n'existait que des fixes et parlait déjà en 2009 de stratégie multi-écrans comme un des plus importants virages stratégiques de ces dernières années et proposait le partage de contenus sur les appareils connectés. Ce qui est nouveau en 2012 c'est qu'on a plus besoin d'avoir tous les appareils du même constructeur, les OS sont passés par là avec leur "couche d'abstraction" des terminaux.

Google lui a gardé le secret jusqu’à la dernière minute sur sa stratégie Nexus qui a adopté le format téléphone (Nexus4) et deux tablettes (Nexus7 et 10). Posant la question de l'ergonomie de la tablette: 7 ou 10 pouces. Et avec le succès d'Amazon(Kindle HD) et de Samsung (Galaxy Tab), forçant Apple a sortir après tout le monde un Apple Mini.
undefined


Et Google a aussi publié une excellente étude de mesure du temps passé sur chaque écran qui montre que la prédominance de la TV d'un coté et du PC de l'autre, est finie (PDF de >100Mo). Ce sont bien les conditions opérationnelles qui en en fonction des situations qui déterminent quel terminal sera utilisé en premier puis en second. Le PC est privilégié comme point de départ de situations complexes alors que les tablettes sont elles le point de départ des intentions de shopping et de voyage.

 undefined

Et pour Google l'enjeu est énorme, car le leader de la recherche sur PC a besoin de montrer qu'il est présent a tous les points d'accès où peuvent se détecter des intentions d'achats, pour que les annonceurs les suivent toujours.
Même approche pour Samsung avec son "hub publicitaire" qui vante la possibilité de toucher ses clients sur tous les écrans.

Le multi-écrans est donc devenu la nouvelle règle d'interface et avec lui une architecture de nos chaînes d'information qui va le permettre. Oh rien de bien extraordinaire, on va juste être obligé de faire pour de vrai ce que l'on raconte depuis des années autour de l'indépendance entre l'IHM et le logiciel, les services, la SOA, le respect des standards du web pour la compatibilité navigateurs, le responsive design pour s’adapter aux terminaux... Une transformation a mettre en œuvre à la DSI et surtout chez ses fournisseurs.

Et si vous vous posiez encore la question avant de lire ce billet si il fallait développer pour PC ou sur mobile, et bien vous avez certainement compris qu'a l'avenir la réponse sera "pour les cinq mon capitaine".

vendredi 23 novembre 2012

Tendances ERP (tome 2): 5 nouveaux experts donnent leur point de vue

Tendances ERP (tome 2): 5 nouveaux experts donnent leur point de vue



Le Tome 2 du livre blanc tendances ERP offre un regard orienté utilisateurs sur l'ERP aujourd'hui, sa place dans le SI et ses évolutions à venir. Des PME, Solairedirect, AGM Group, Innothera, livrent leur vision sur l'importance de ce "back bone applicatif" au coeur du SI, voire représenter l'essentiel du système d'information.

SAP (sponsor du livre) complète cette vision en abordant les nouvelles tendances: temps réel, data, mobilité, cloud... aussi abordés par GreenSI dans le Tome 1 (Voir ERP 2.0 en marche)


Pour télécharger ce livre blanc, enregistrez vous sur le site www.tendances-erp.com 

Tendances ERP Tome 1 /Avec la participation de :  

  • Emmanuel Laignelet (Astek)
  • François Bonnet (W4)
Tendances ERP Tome 2 / Avec la participation de :
  • Didier Mamma (SAP)
  • Jacques Gorre (SAP)



dimanche 18 novembre 2012

A la recherche du temps perdu par la Maison de la Presse numérique

A la recherche du temps perdu par la Maison de la Presse numérique

Dans ce monde physique en train de se faire digivorer tranquillement (voir Comment LEGO est train de se faire digivorer?) le livre et la presse sont en ce moment au cœur d'une transformation mondiale.

Les acteurs sont Google et Amazon pour citer ceux dont les modèles de publicité et de vente de livres sont en attaque frontale des, non moins puissantes et influentes, grandes maisons d'édition et de presse.
Mais aussi les réseaux sociaux qui réorganisent les mécanismes de distribution de ce contenu.
Le résultat c'est la chute des recettes de la presse et la recherche d'un nouveau modèle qui soit intègre et profite du développement du numérique, soit se lance dans de nouvelles activités. Les chiffres publiés par le Ministère de la Communication (http://www.ddm.gouv.fr/chiffres.php3?id_mot=22) sont sans appel :

Les recettes de la presse en euros constant s’effondrent, malgré le doublement du nombre de titres (1000 en 1995 - 2000 en 2006) pour occuper toutes les niches de contenu pouvant intéresser le grand public.


Vu les enjeux, en France en cette fin d'année, l'Etat se mêle même à la discussion, déclenchant tour à tour :

  • le support d'une "taxe Google" réclamée par les maisons de presse,
  • les menaces de Google de référencement de la presse française (18 octobre),
  • une visite de son président Eric Schmidt à l'Elysée (29 octobre) dont rien n'a filtré a priori 
  • une attaque "sournoise" mais légitime de contrôle fiscaux de grande ampleur de Google (1,6 milliard €) et d'autres acteurs de la numérisation de notre économie dont Facebook et Amazon


Alors quand on est patronne d'une Maison de la Presse à Cabourg, petite ville de Normandie, on peut avoir l'impression d'être totalement dépassée par le débat. Tout en étant confrontée quotidiennement à la réalité: internet redistribue les cartes et mon commerce doit s'adapter pour survivre.


Une prise de conscience affichée sur la vitrine de ce commerce : "Si on m'avait dit que je serais parmi les futurs dinosaures! Et pourtant cela est vrai...".

Une vitrine qui sert d'affichage à destination des badauds et où la propriétaire y fait aussi ses recommandations de livres, donne ses impressions, annonce les évènements... bref un blog en pleine rue. 

Toutes les libraires le savent bien: le conseil et les recommandations sont leur fonds de commerce.
Encore faut-il que les clients poussent la porte du magasin pour les entendre!
Et quand les ventes à l'unité de la presse chutent de 3-5% par an, c'est autant de lecteurs potentiels en moins. Il va falloir aussi aller chercher ses clients ailleurs. D'où certainement l'idée d'utiliser sa vitrine dans la rue commerçante de la ville, comme un espace d'expression pour mettre en avant cette différence y compris quand le magasin est fermé. Et ça GreenSI adore et dit bravo!

En poussant la logique plus loin on conseillerait à Patricia d'ouvrir aussi sa vitrine au "2.0" avec la possibilité pour les passants de "liker" ses commentaires (une petite pastille autocollante ?) et de pouvoir afficher les leurs (un bloc de post-it avec un crayon ?) quand la boutique est fermée.

Tout ça pour créer du lien, briser la glace et faciliter la conversation quand les chalands pousseront la porte pour y rentrer, même si ce ne sont pas des habitués de la boutique. Et pourquoi pas un fil Twitter pour prolonger cette relation nouvelle sur leurs téléphones en mobilité loin de la rue marchande ?

Car les usages de consommation collaborative qui sont à l’œuvre sur Internet sont rendus possibles à grande échelle par le numérique, mais ne sont pas la propriété du numérique. 

Ils ne demandent qu'a être transposés et sont même complémentaires de l'approche en ligne. 

Les stratégies locales et multi-écrans peuvent aussi inclure la vitrine de la maison de la presse. Et on se demande même si une approche globale sur l'ensemble des vitrines des maisons de la presse n'aurait pas un intérêt... au-delà des simples publicités 1.0 affichées actuellement.

Cette rencontre fait réaliser qu'on est encore loin de l'aboutissement de la réflexion sur la Maison de la Presse numérique où l'on aurait une relation permanente avec son "coach culturel", on pourrait y emprunter des livres numériques, y offrir des services mixant local et Internet, par exemple y trouver des livres d'occasion recherchés en ligne pour ceux qui aiment encore le contact avec un bon livre papier.

Pour GreenSI, il semble urgent d’accélérer les expérimentations en ce sens, de rechercher ce temps perdu par les combats d'arrière-garde contre le numérique, au lieu de le développer. Et franchement à la recherche du temps perdu à Cabourg ville où Marcel Proust a passé une partie sa vie, c'est quand même tout un symbole. Non ? 
Mais attention quand même, car "A la recherche du temps perdu" est un ouvrage en sept tomes dont les trois derniers ont été publiés après la mort de leur auteur...

mercredi 14 novembre 2012

L'internet des objets : thème de LeWeb'12, va transformer nos IHM

L'internet des objets : thème de LeWeb'12, va transformer nos IHM

Début décembre se tiendra a Paris sur le thème de l'internet des objets, l'édition 2012 de LeWeb, le rendez-vous incontournable de l'internet mondial pour les startups.
IoT pour les intimes, pour "Internet of Things".
Et comme ce forum est souvent le point focal des technologies de rupture qui vont modifier (une fois de plus) le Web, il va à n'en pas douter, attirer de nombreux entrepreneurs et investisseurs et certainement accélérer les projets autour de ce fameux internet des objets.


Mais de quoi parle-t-on?

Déjà le terme n'est pas récent et est utilisé depuis une dizaine d'années. Le concept qu'il représente est même encore plus ancien. Le livre de Philippe Gautier et Laurent Gonzalez sur le sujet, le fait remonter à 1984 avec Ken Sakamura de l'université de Tokyo, aussi inventeur du premier système d'exploitation temps réel "libre" bien avant Unix (!), le projet TRON. On parle à l'époque "d'informatique ubiquitaire", d'ordinateurs miniaturisés et "partout", "enfouis" dans les objets physiques... très poétique tout ça.

De nombreuses technologies de communications existent et rendent possible l'internet des objets (RFID, QR code, NFC, gprs, ipv6,...). GreenSI s'est plutôt intéressé dans ce billet à la nature des interactions homme-machine et non aux technologies.


Mais en allant plus loin, chaque objet (ici palette) est devenu en quelque sorte autonome en interrogeant le moteur (sur serveur) pour "prendre conscience" de ses paramètres et de ses possibilités d'actions, qu'elle communique a l'opérateur dans ce nouveau type d’interfaces homme-machine. Par l'enrichissement des règles à prendre en compte et par la capacité a capter des informations ambiantes, ces objets peuvent même produire de l'information. D'une certaine façon ces objets développent une certaine intelligence collective reposant pour l'instant sur des règles, et bientôt sur des algorithmes plus sophistiqués.



L'internet des objets, c'est déjà ce réseau qui permet à ces objets d'interagir entre eux et d'une certaine façon de prolonger l'internet jusqu’à ces objets. Et l'internet, après avoir été le "réseau des réseaux" est devenu avec le 2.0, le réseau ultime d'interaction entre humains. Alors avec l'internet des objets c'est non seulement la communication machine à machine qui se développe, mais aussi la relation homme-machine qui se repense.

Parmi ces entrepreneurs qui cherchent à exploiter ces technologies pour repenser le système d'information, GreenSI a rencontré Philippe Gautier, ancien DSI et maintenant DG fondateur de Business2Any société spécialisée dans le conseil et l'édition de logiciels à intelligence distribuée. Sa société vient de sortir Thin-Track(r) un moteur logiciel qui traite la gestion des stocks et la traçabilité des objets en environnements complexes ou non structurés, qui s'appuie sur des techniques de modélisation 3D et sur des objets communicants pouvant interagir avec les opérateurs. Un projet développé pour un industriel qui a permis d’accélérer le passage de la théorie à la pratique.

Imaginons un grand terrain vide pour le stockage de palettes (un environnement non structuré). Chaque fois que l'on en pose une, on indique sa position de façon relative a un repère fixe, ou en la géolocalisant. Ainsi rapidement le moteur peut construire une représentation de l'espace de stockage et de son contenu. Quand une nouvelle palette arrive, l’opérateur la scanne et indique de la même façon son emplacement. Le moteur peut alors interagir avec l'opérateur pour lui indiquer qu'elle est trop près d'une autre palette contenant un produit dangereux, qu'elle ne doit pas quitter une zone ou être séparée de telle autre palette, voire qu'elle a été déposée là où lui pense qu'il y en a déjà une... qui a certainement été "égarée".

L'intelligence du moteur permet ce nouveau dialogue homme machine en posant des questions à l'opérateur et éventuellement en rectifiant tout seul son modèle. Car c'est bien connu l'erreur est humaine et le moteur doit aussi pouvoir les détecter. Et c'est là que s'introduit une différence fondamentale avec les classiques gestion de stocks des ERP qui elles tolèrent très mal les erreurs et imposent leur vision "idéale" des choses.


Ainsi, après la vague de l'internet 2.0 qui a rendu l'utilisateur acteur de l'internet, l'internet des objets c'est peut être cette capacité à rendre les objets connectés eux aussi acteurs de l'internet. Pour mieux interagir avec les humains, ou mieux les accompagner. Récemment Gartner a publié ses prévisions et l'une d'elle annonce qu'en 2016, l'informatique "sur soi" (wearable) tatouages électroniques, chaussures, lunettes,... sera une industrie de $10 milliards, et ce ne sera qu'une petite partie de cette internet des objets. La santé, les bâtiments, voire les villes "intelligentes" vont elles aussi contribuer à développer ces objets pour par exemple assurer la surveillance, les paiements ou faciliter les transports aux citadins. Enfin la simple communication machine à machine (M2M)déjà opérationnelle avec des machines équipées de cartes SIM, va continuer de se développer et peut être rendre ces premiers objets communicants, un peu plus intelligents.

Certains ne vont donc pas aimer ce scénario, surtout si l'algorithme plus intelligent qui les anime est une puce neuronale connectée à Skynet... déjà vu? (voir le film Terminator de James Camerone pour ceux qui n'auraient pas reconnu).

Mais c'est visiblement ce chemin qui est en train d'être exploré et franchement le petit lapin Nabastag était quand même beaucoup plus rassurant ;-)

dimanche 11 novembre 2012

Quelles tendances pour le Cloud et la transformation des SI qu'il engendre

Quelles tendances pour le Cloud et la transformation des SI qu'il engendre

Le Cloud computing, que l’on parle du SaaS, de l’Iaas ou du PaaS, est une informatique globale, « en libre service », qui doit aider les entreprises à se recentrer sur leurs métiers tout en leur permettant de « digitaliser » leur activités pour aborder l’économie numérique.

La Direction des Systèmes d’Information, première impactée par le développement du Cloud, doit y voir une formidable opportunité de transformer sa technologie et ses méthodes, voire de repenser son "business modèle".

Car le Cloud s’impose, et pour les entreprises, l’heure n’est plus au questionnement de sa pertinence mais au choix d’une réponse

C'est ce que décrit la vision de dix professionels confrontés dans chacun de leur métiers à cette transformation amenée par ce nouveau paradigme, dont Louis Naugès blogueur sur ZDNet, comme GreenSI. Téléchargez cette vision partagée dans le livre blanc "tendances cloud" sur le site dédiée www.tendances-cloud.com et retrouvez ci-après la contribution de GreenSI à cet ouvrage.


Le Cloud comme vecteur d’efficacité

Mis à part quelques DSI de grands groupes, et surtout celles de groupes internationaux, la majorité des DSI ne peuvent pas atteindre les économies d’échelle, pour la production de logiciels et leur exploitation, que peuvent obtenir les sociétés mondiales et spécialisées du Cloud.
Le Cloud s’impose, et pour les entreprises, l’heure n’est plus au questionnement de sa pertinence mais au choix d’une réponse.
 
Celles qui le peuvent vont construire des cloud dits « privés », les autres s’appuieront sur les cloud dits « publics » avec des offres standards du marché. Tous les grands éditeurs et constructeurs ont maintenant une offre pour cela.  
Mais comme tous les domaines fonctionnels de l’entreprise ne sont pas nécessairement adaptés aux offres actuelles (localisation des données, SLA transactionnel, « legacy »,…) et que la durée de vie moyenne d’une application est entre 7 et 10 ans, les prochaines années verront en majorité des environnements cloud « hybrides » cohabiter avec les systèmes internes des entreprises.

De plus, l'entreprise demande que ses infrastructures soient maintenant plus ouvertes et plus globales, par exemple, pour raccorder autre chose que des PC en réseau comme les tablettes et smartphones en mobilité ("over the air"). Là encore, le Cloud amène une réponse en proposant à l’entreprise cette infrastructure mondiale, bien intégrée avec l’Internet et permettant de bénéficier de la multiplicité de ses accès (Wifi, 3G, 4G,…) pour étendre le réseau de l’entreprise.
Le Cloud computing permet donc des économies d’échelles, offre un réseau global et amène une productivité redoutable des infrastructures via des datacenters hyper-automatisés.
Pour les plus petites et moyennes entreprises, bénéficier de cet environnement n’était pas possible avant le Cloud. Ce sont elles qui vont le plus en bénéficier si elles savent saisir cette opportunité rapidement.
Aujourd’hui, une start-up de 10 personnes peut acheter à coût variable très compétitif, et sans investissement, autant de puissance dont elle a besoin pour concurrencer les plus grands groupes dans l’analyse de données ou la mise à disposition de ses clients d’un système de relation clients mondial et totalement intégré aux réseaux sociaux.

Le Cloud au coeur de la transformation de la DSI

En première ligne dans l’entreprise, la DSI est clairement confrontée par le Cloud, à la remise en cause de son modèle de production traditionnel (datacenter, projets applicatifs, développement, support).Une étude 2010 du Cigref auprès d’une dizaine de grandes entreprises françaises, qui s’étaient lancées dans le Cloud, avait fait ressortir que l’impact du Cloud sur la DSI dépendait de sa « posture » et de sa position dans l’entreprise :

  • Une DSI, vue comme un centre de coûts, est clairement impactée sur toutes les dimensions de ses activités car elle se retrouve en concurrence directe avec les offres de PaaS. Une DSI, vue comme un centre de coûts, est clairement impactée sur toutes les dimensions de ses activités car elle se retrouve en concurrence directe avec les offres de PaaS.
  • Une DSI, impliquée fortement dans la stratégie de l’entreprise par les métiers, va exploiter le SaaS comme un catalogue de solutions sur étagère à disposition de ses métiers et va les accompagner pour sécuriser et gouverner l’ensemble.

En 2012, la DSI aborde une transformation profonde sur quatre fronts : l’usine à services de son métier de base, l’interface avec les métiers, l’interface avec les clients et produits/services de l’entreprise et sa relation avec les utilisateurs.
Sur chaque front, le Cloud est à la fois une partie du problème mais surtout un élément de la réponse :

• L'usine à services informatiques (Infrastructure, Exploitation) : incluant la plateforme technique, c'est le coeur et les poumons de la DSI depuis son origine (le mainframe souvent), là où elle a développé le plus d'expertise et de méthodes. Parfois, quand elle ne l'a pas déjà externalisé, c'est aussi là qu'elle y a le plus de ressources.
Le cloud privé, public ou mixte, est la voie à suivre pour moderniser cette usine avec le cloud qui permet d’activer les leviers efficacité et réduction des coûts unitaires.


• Les métiers (Projets, Applications) : les 20 dernières années ont aligné l'action de la DSI sur l'organisation et les processus pour servir des métiers qui ont pris le rôle de maîtrise d'ouvrage du SI, et la DSI celui de coordination
de la maîtrise d’oeuvre. Cette organisation a vécu. Elle ne délivre plus l'agilité dont l'entreprise a besoin dans un monde qui s’accélère.L’appropriation du SaaS par la DSI, l’existence de plateformes de développement dans le Cloud, sont des opportunités pour repenser le modèle de mise à disposition des applications.


• Les clients (Produits & Services) : l'innovation permanente et le rôle des technologies de l'information font que dans un nombre toujours plus grand d'industries, le SI est incorporé aux produits et aux services de l'entreprise.
C’est la fulgurante numérisation de l’économie dans la publicité, la musique, les films, les jeux, le cinéma, qui va se poursuivre dans de nombreuses industries, au fur et à mesure, de la numérisation des contenus ou des relations.
Et là encore, le Cloud public offre à tous les acteurs du B2C une plateforme extraordinaire pour expérimenter et développer, sans engager des investissements importants.
Pour le B2B, la DSI peut mettre ses applications en SaaS pour les commercialiser. Le SI sert les clients et la DSI devient un acteur de l'innovation... et aussi du service après-vente en lien direct avec les clients.


• les utilisateurs (Poste de travail) : c'est le dernier des quatre fronts. Le poste de travail a toujours été vu comme un élément de l'infrastructure, mais c'est en train de changer. La "consumerisation de l'IT" a généré une plus
grande maturité des utilisateurs, habitués à une innovation permanente pour leur informatique individuelle et une grande personnalisation de leurs outils personnels.
Cela met la pression sur les moyens standardisées et souvent volontairement) "en retard" proposés par les DSI.
L’offre collaborative de la DSI se trouve en concurrence directe avec les offres grand public. Avec le BYOD - bring your own device - ces utilisateurs revendiquent même de construire le SI, dont ils ont besoin, en commençant par le terminal. Mais ne nous y trompons pas, les applications vont suivre tant l’offre est importante en SaaS ou en mobilité (les fameux « stores »). La frontière du SI se déplace donc entre la DSI et les utilisateurs. La porosité entre le Cloud public et le SI de l’entreprise va se poursuivre.

Le Cloud, c’est donc pour de nombreuses entreprises la possibilité de poursuivre leur transformation numérique, et pour la DSI, une formidable opportunité de repenser son modèle et d'accompagner la transformation numérique de l’entreprise.
Mais, cette transformation est loin de n’être que technologique.
L’adoption du Cloud par les DSI débouche sur l’évolution de la gouvernance du système d’information.

Les DSI, qui embrassent cette transformation, rencontrent alors de nouveaux challenges qui leur demandent encore de s'adapter et de revoir leurs méthodes :
la gestion de la sécurité : qui doit faire face à une architecture plus ouverte et partagée avec plus d'acteurs, pas toujours salariés de l’entreprise, ni dans ses locaux ;
• les méthodes, normes et standards : qui doivent s'adapterau Cloud. CoBIT et ITIL ont permis de standardiser, il faut maintenant apprendre à les « flexibiliser ». Par exemple, CoBIT v5, publié il y a un mois, tente un exercice d'intégration du Cloud ;
• une architecture ouverte : qui est au coeur de la compétence de la DSI pour assembler des plateformes et des applications de diverses origines, et ouvrir ses données et ses API a un tout nouveau écosystème venant s'y sourcer.

Et cette transformation n'amène pas que des changements induits. Elle ouvre aussi au SI des opportunités de changement pour capturer, stocker et traiter, des quantités de données plus importantes (big data) en utilisant une
infrastructure à la demande, au moment où elle en a besoin et a un coût très inférieur a ce que cela lui aurait coûté si elle avait une infrastructure propre. C'est aussi l'opportunité pour l'entreprise d'ouvrir ses données (open data) et de construire un écosystème qui va l'aider à mieux les exploiter. Et bien plus encore...


La France, une nouvelle exception culturelle dans le monde du Cloud ?

Et pourtant, aujourd’hui en France, nous n’assistons pas à un raz-de-marée vers le Cloud, même si les professionnels s’entendent pour dire que 2012 est une année charnière avec ce sujet abordé à chaque rencontre de clients. Pourtant, les entreprises de la Silicon Valley définissent toutes leurs stratégies sur la vision d’un cloud public mondial et d’un accès internet mobile omniprésent. Décalage culturel ?

Or, la France est l’un des pays les mieux positionnés pour héberger ces fameux datacenter sophistiqués, notamment à cause de son coût de l’électricité et de la qualification de ses ingénieurs.
D’ailleurs, les recommandations du Cigref de 2010 pointaient justement l’occasion pour les pouvoirs publics de favoriser l’émergence de start-ups et de champions nationaux, et d’insister sur leurs rôles à jouer en matière de réglementation ou de régulation : protection du patrimoine numérique et à la sécurité numérique des entreprises.

Des initiatives sont en cours, comme celle du projet Andromède, le « cloud à la française » pour héberger les données des services publics en France, mais beaucoup reste à faire.


L’avenir nous dira si la France et ses entreprises ont su profiter du Cloud pour améliorer leur compétitivité et leur capacité d’innovation.

samedi 3 novembre 2012

GreenSI : le "making of" d'un blog

GreenSI : le "making of" d'un blog

Une intuition partagée avec Henri Rimbaud, professionnel de la communication passé par IBM, le promoteur du "social business", c'est que les "community managers" de l'entreprise de demain sont ses propres salariés: ils peuvent porter le savoir faire des métiers de l'entreprise actuellement enfouis sous des couches de marketing et de communication policée, voire engager la relation avec les clients et les partenaires,... bref, comme dans la vraie vie, mais ça ne se voit pas toujours.

Pour cela le contenu devient essentiel et le blog est le moyen le plus simple de le produire et de le partager. Et autour de ce contenu, les réseaux sociaux sont un bon moyen de l’amplifier et de le faire résonner, mettant les salariés au niveau de médias très spécialisés sur les compétences clefs de l'entreprise.

C'est ce que nous raconte le billet d'Henri Rimbaud, blogueur lui-même sur "Le bienveilleur", avec qui je me suis prêté par amitié à l'exercice de l'interview sur la genèse de GreenSI et le derrière du rideau de mon blog. En espérant que son billet suscitera des vocations de professionnels souhaitant passer du côté social de la force...

Bonne lecture : http://lebienveilleur.com/2012/11/03/green-si-les-echanges-passent-au-vert/

vendredi 2 novembre 2012

OpenData : la RATP ouvre une nouvelle ligne de données

OpenData : la RATP ouvre une nouvelle ligne de données


Début 2011 la réflexion allait bon train à la RATP pour actualiser la stratégie internet, avec au menu l'exploration du potentiel de l'opendata et une recommandation d'ouvrir quelques données. Une recommandation qui demandait encore de convaincre en interne, par exemple de montrer que cela ne posait aucun problème de sécurité si ces données arrivent dans des mains mal intentionnées.

Quand soudainement à l'Eté 2011 l'actualité s'est invitée dans le débat avec l'initiative d'une jeune pousse, CheckMyMetro. Cette jeune impertinente sors une application iPhone s'appuyant sur la liste des stations pour offrir un service d'informations géolocalisées entre utilisateurs depuis leur smartphone. Un service gratuit pour leur permettre de signaler la présence dans une station d'incidents sur la ligne, de pickpockets et surtout pour les premiers utilisateurs de l'application, de... contrôleurs.
Ce qui n'était pas pour plaire à tout le monde à la RATP, surtout ceux qui n'étaient pas convaincus par l'opendata. S'en est suivi une partie de bras de fer entre la RATP et une communauté formée autour de CheckMyMetro, dont l'enjeu s'est vite centré sur l'ouverture de la carte du métro propriété de la RATP (voir :Peut-on resister à l'opendata, le cas de la RATP)

Cette première aventure s'est finalement avérée comme un formidable accélérateur interne pour aborder l'opendata. C'est-à-dire construire une démarche en coordination avec un écosystème, avec l'objectif de développer de nouveaux services pour les usagers.

Après cette crise, la station suivante sur la ligne de l'ouverture fut la découverte de cette communauté de développeurs pour comprendre les données et les formats qu'ils cherchent pour réaliser des applications mobiles. Ce fut via l'organisation d'un "barcamp" fin 2011, c'est-à-dire une rencontre qui prend la forme d'ateliers participatifs où le contenu est fourni par les participants qui doivent tous, à un titre ou à un autre, apporter quelque chose :
  • Le thème: la cartographie des transports en commun
  • Les participants: la communauté Open Street Map, très active pour l'ouverture des données géographiques
  • Le lieu : La cantine, pour être sur un terrain porteur d'idées en germes.. et oublier le terrain juridique ;-)
Le barcamp fut fertile et une liste de données à ouvrir a été coproduite. Les premières données ne posant pas de problème furent rapidement ouvertes sur le portail de l'Etat (data.gouv) et mises en ligne sur ratp.fr quand la licence d'ouverture n'était pas compatible avec celle de data.gouv.
Aujourd'hui RATP passe à la station suivante sur la ligne de l'ouverture de ses données et ouvre son propre portail data.ratp.fr

A la clef de nouvelles données, notamment un important jeu de données de tous les arrêts de bus géolocalisés. Sur le plan technique, pour aller vite, c'est la même plateforme opensource que celle de Rennes ou Nantes qui a été utilisée. Pour l'instant on est encore dans de la donnée fixe, échangée par fichiers, mais les équipes travaillent déjà sur les premières API qui seront ouvertes, notamment pour la mise à jour de données ou la diffusion de données au fur et à mesure de leur production.

Les échanges avec les premiers qui ont abordé l'opendata, montrent les réticences des états majors  sur l'ouverture des données (même dans le secteur public) quand les enjeux ne sont pas mis en avant pour les compenser :
  • les données ont de la valeur... même si on ne l'exploite pas
  • des données ça se protège et ça se défend
  • on est les seuls a pouvoir le faire, car nous savons prendre les bonnes précautions pour diffuser ces informations
  • on risque de voir qu'elles ne sont pas toutes bonnes...
En interne cet exercice a donc demandé la mobilisation d'un comité pilotage transverse de l'opendata composé de la Direction de la Communication, du Département Commercial et bien sûr de la Direction Générale. C'est un véritable changement d'esprit interne qui s'est produit et une nouvelle perception des enjeux de l'ouverture et de la force de "l'open innovation" déjà abordée dans plusieurs billets de GreenSI. Oui ouvrir n'est pas simple, mais ne pas ouvrir (quand on peut résister) est aussi une perte d'opportunités non accessibles.

C'est maintenant l'occasion de préparer des applications s'appuyant sur ces données, ou des données à ouvrir, qui vont enrichir les services en ligne de la RATP et surtout les services mobiles. La pénétration des smartphones en France fait que les utilisateurs du réseau de Bus ont accès à internet avant et pendant leur trajet. Mais avec l'arrivée de l'ouverture de l'internet dans le métro et le RER, ces applications de mobilité prendront encore plus d'importance sur l'ensemble des usagers.

Et en plus des services proposés par la RATP, c'est surtout l'incitation de l’écosystème à développer des applications que la RATP n'aurait pas faites elle même qui va jouer. Pour cela des concours d'applications seront lancés prochainement.

C'est au final un retour d'expérience très intéressant que nous offre la RATP, avec en 18 mois beaucoup de chemin qui a été parcouru et le plus important bien sûr la perception interne que l'ouverture était vraiment une carte à jouer.