lundi 26 août 2013

Suivez Instagram et Pinterest, car la photo sociale pourrait bientôt arriver en entreprise

Les vacances sont là pour nous rappeler que nous vivons dans un monde d'images. De la photo prise juste "au cas ou" (le numéro de sa place de parking à l'aéroport par exemple) à la photo sophistiquée avec des filtres (sépia, carte postale,...) ou la photo souvenirs pour durer, en passant par la photo sociale prise pour les autres. Elles sont partout.

Toutes des photos numériques bien sûr

Regardez les touristes dans la rue. En trois ans le smartphone est devenu la forme dominante d'appareils photos. 

Et ceux qui imitent les reflex d'antan sont aussi en très grand majorité numériques. Les leaders de la photo, Canon, Nikon, Fujiifilm,... sont à la peine, devant ces clients qu'ils n'arrivent pas à garder. Et ils n'ont plus le  monopole du haut de gamme car Nokia et Samsung annoncent des "photophones" encore plus sophistiqués: 41 millions de pixels de résolution pour le Nokia Lumnia 1020 en approche!

L'évolution de l'image grand public, qui est passée de l'argentique au numérique, et la reconfiguration de son industrie est un sujet plein d'enseignements sur l'évolution des usages et sur le développement du numérique. GreenSI l'a déjà abordée avec Kodak, mais c'est l'occasion avec la photo sociale de revenir sur le sujet.

Avant, c'était cher, compliqué et souvent... flou!

La photo argentique "démocratique" était de piètre qualité. Toutes n'étaient généralement pas développées (petit tour par Wikipedia pour la génération Y qui se demande ce qu'est le développement de photos!), à tel point que certaines offres de développements ne faisaient payer que les photos "réussies" (non floues). Et une fois développées, on choisissait lesquelles faire refaire et le nombre d'exemplaires pour les partager avec la famille et les amis.
Le numérique a tué le développement de photos. On n'a plus besoin de passer par le papier pour les partager. Et finalement c'était peut-être cela le vrai usage démocratique de la photo argentique: le partage d'images dans le temps (durabilité) et dans l'espace (autour de nous).
Le numérique a étendu l'espace à la planète. Au début via l'email (la taille des pièces jointes était une limite), puis via des albums partagés, et maintenant via les réseaux sociaux généralistes (Facebook, Twitter, Google+, ...) ou spécialisés (Pinterest, Instagram, ...).

En fait la photo a peut-être toujours été sociale

Mais la technologie en limitait la diffusion dans l'espace. Le numérique a révélé son plein potentiel. Peut être au détriment de son "partage dans le temps" (sa conservation). Car il n'est pas évident que la photo numérique ne soit pas une régression pour le partage dans le temps, vu les dangers auxquelles les photos numériques sont exposées : supports magnétiques fragiles, perte des clefs USB, formats parfois propriétaires, plateforme "cloud' sans toujours une réversibilité garantie, ...

Comme c'est souvent le cas dans les transformations de rupture, les utilisateurs ont renoncé à une caractéristique (la durabilité) pour en développer une autre (le partage dans l'espace). Personne ne croyait non plus aux tablettes, car elles n'ont pas de clavier. Et pourtant elles ont ouvert l'ère du tactile où le toucher remplace le clavier.

Les chiffres d'IDC sont sans appel: le marché est passé de 145 millions d'appareils photo vendus dans le monde en 2010 à 76 millions en 2012 et 59 millions en 2013. Et ces chiffres sont très faibles devant la croissance des smartphones comme le montre le graphique ci-contre du Wall Street Journal.

Quand au nombre de photos, il a lui été multiplié par au moins 10, une fois les contraintes du cout de développement et du stockage libérées, ouvrant ainsi la porte a tous ces nouveaux usages.

La clef c'est donc maintenant le stockage dans le Cloud pour permettre le partage et de nouveaux usages. 


Il est intéressant de noter que ceux qui ont développé les premières plateformes de partages d'album (PhotoBox, HP,...) ont comme mode de valorisation le développement ou l'impression de photos. Ils ont totalement raté la socialisation des photos qu'ils stockaient dans un but d'en toucher les revenus d'un développement en perte de vitesse.

Les albums étaient même limités en taille sans pouvoir acheter de la capacité supplémentaire. Alors que le modèle économique, d'abord de Facebook, puis de Pinterest et Instagram, reposent sur le trafic et la publicité, et donc une meilleure connaissance des photographes.

Un changement de modèle, passant du volume (nombre de photos développées) à l'usage (valeur de celui/celle qui regarde la photo et de la relation qu'une marque peut avoir avec lui/elle). A méditer dans votre propre industrie...

Les nouveaux services de la photo sociale

Aujourd'hui deux plateformes sociales, spécialisées sur la photo, dominent les échanges de photos Instagram et Pinterest.

Elles ont connues des croissances énormes ces dernières années avec des approches radicalement différentes. 130 millions d'utilisateurs actifs dans le monde pour Instagram (Juin 2013), dont 1,8 million de visiteurs uniques en France (Médiamétrie Août 13) et 20 millions pour Pinterest (Juillet 2013), dont 157 000 utilisateurs actifs en France (Juillet 2013). A tel point que Facebook voyant le danger a racheté Instagram, une équipe d'un peu plus de 10 personnes, pour $1 milliard il y a un an.
Instagram a créé sa spécificité autour de la photo elle-même, avec ses filtres que l'on peut appliquer et transformer une photo de sac-poubelle au coin de la rue, en œuvre d'art. Sérieux! Et vos followers vont pouvoir la partager sans fin. Bon, ça c'est l'objectif (sans jeu de mots) mais peu y arrivent et nombreuses photos restent des photos de... sacs-poubelles ;-)

Instagram est présent sur mobiles iOS, Android et débarque sur Windows Phone. Car Instagram c'est de la photo "instantanée", qui capture un instant ou une émotion principalement en mobilié, et que l'on peut amplifier ou modifier en y appliquant des filtres. Beaucoup de points communs avec le positionnement de Polaroid, en son temps, quand on y réfléchit.

Pinterest lui arrive "à faire sortir l'objet" de la photo ou de l'image. On voit le sac-poubelle, on oublie le décors, et on a envie de le partager (l'objet) mais aussi de l'acheter. La photo n'est qu'un support à la mise en valeur des objets. Enfin, là encore c'est l'objectif!

Mais Pinterest n'a pas d'application mobile contrairement à Instagram. Enfin, Pinterest est accessible sur mobile et surtout sur tablette, mais c'est un accès proche du site internet pour consulter ses albums et non une application mobile pour prendre des photos.

Les photos dans Pinterest sont en fait des images "trouvées" sur des sites web que l'on va "clipser dans son album" (Pin it), même si bien sûr on peut aussi y charger des photos qui sont sur son disque dur ou son mobile. Et sans surprise, il y beaucoup de photos de professionnels sur Pinterest. En tout cas de qualité.

Déjà parce qu'en copiant les photos des sites webs on fait son choix dans des photos déjà travaillées et surtout parce que les marketeurs ont compris l'intérêt qu'ils avaient a mettre en avant leurs produits sur Pinterest. Et comme sur Pinterest il n'y a pas d'outils de retouches ou de filtres, la photo doit être belle dès le départ.

Le contraste est donc frappant entre les usages d'Instagram et de Pinterest. Y compris dans les audiences, avec une majorité féminine depuis le départ pour Pinterest. Et pourtant les deux applications sont bien dans le même domaine du partage de photos sociales.

GreenSI voit en Pinterest l'avenir de certains magazines féminins (aussi masculins mais moins nombreux), qui sous prétexte d'articles (au contenu souvent pas très fouillé), mettent en scène des objets et des vêtements, avec la référence des magasins où les acheter et parfois même le prix. La navigation visuelle dans ces images est une façon de découvrir des objets, des astuces, des vêtements,... de les partager et peut être de créer une envie d'achat.

L'avenir d'Instagram lui est maintenant scellé au destin de Facebook. Son initiative récente pour gérer des vidéos de 15s (comme Vine avec avec des vidéos de 6s et acheté par Twitter), indique qu'Instagram va certainement devenir un canal multimédia, pas uniquement centré sur la photo. Facebook va chercher à y valoriser de la publicité vidéo, domaine où Youtube, service de Google principal concurrent de Facebook, règne en maître. A suivre...

Et dans l'entreprise ?

 

Dans l'entreprise, les usages de la photo sont réels, mais ne sont pas encore structurés.

Mis à part pour des applications spécialisées comme les photothèques ("médiacenters") dans les Directions de la Communication des entreprises soucieuses de leur image et de leurs publications. Le risque juridique associé à la diffusion des images est peut être un réel frein dans l'entreprise, contrairement aux usages grand public qui se laissent plus de liberté...

Pourtant les smartphones en entreprises intègrent tous aussi maintenant un appareil photo de qualité. Le BYOD va augmenter le parc global de smartphones en entreprises, avec ceux des salariés non équipés par leur entreprise. GreenSI est donc persuadé que la photo et la vidéo vont devoir se gérer et s'organiser massivement dans l'entreprise.  Surtout dans la sphère du collaboratif, comme pour la photo sociale a laquelle on va trouver des usages (une photo vaux mieux qu'un long discours, non?) mais aussi du coté des applications métiers.

Des offres entreprises, gérant mieux le droit à l'image comme celle de Wikipixels, ont émergé ces dernières années.





Une fois de plus l'internet et le grand public auront montré la voie à l'entreprise. 

Alors, soyez à l'affut des usages, car certains sont déjà applicables et réutilisables dans votre SI. Lesquels? Ce sera pour un prochain billet mais n'hésitez pas à laisser des commentaires et partager votre expérience si vous avez déjà commencé la route.

jeudi 1 août 2013

Publicis + Omnicom: le dernier des dinosaures dans la pub ?







Publicis et Omnicom, les deux plus grands groupes consolidés dans la publicité et la communication, viennent d'annoncer leur "fusion d'égaux". L'ensemble résultant sera (sans surprise!) le n°1 mondial avec un chiffre d'affaires de $23 milliards et 130.000 employés. Deux fois plus gros que le n°2, l'anglais WPP.


Rien de surprenant, dans une industrie où la course à la taille permet a un petit nombre de contrôler tous les achats d'espaces publicitaires, la seule porte de sortie pour atteindre le client final, qu'il soit consommateur ou entreprise.

Mais le numérique change la donne de cette industrie et GreenSI voit dans cette fusion un signal d'accélération de sa transformation numérique.

Pourquoi le numérique change la donne dans la publicité et la communication?

La publicité, ce sont des marques, conseillées par des agences pour utiliser des médias où elles y achètent de l'espace pour cibler des clients. Avec une stratégie de verrouillage des espaces, la clef entre les marques et les clients. Enfin c'était...

Nouveaux territoires de chasse

Le numérique ouvre de nouveaux territoires de communication, accessibles avec de nouveaux terminaux, qui sont autant d'espaces à conquérir qui concurrencent les espaces traditionnels, car ils sont maitrisés par de nouveaux acteurs qui les mettent directement à disposition des marques, des médias et de clients. Il va déplacer les fameux espaces publicitaires sur le terminal du client et peut être même bientôt sur ses lunettes connectées! 

Regardez autour de vous, les gens sont plus penchés sur leur mobile que sur le panneau de pub avoisinant. Et la photo qui a fait le tour de la planète pour l'élection du pape François nous rappelle que le mobile est devenu quelque chose d'ordinaire en quelques années.


 


La TV, où ces agences sont dominantes, se transforme en TV connectées et se regarde maintenant en TV sociale en utilisant Twitter ou les réseaux sociaux. Les premières publicités combinées TV+Twitter apparaissent aux États-Unis. Et puis Google et Apple aimeraient bien que la TV devienne une sorte de PC reliée à leurs stores de films et d'applications. Bien sûr pour garder la main sur la relation directe avec le consommateur et sa carte bancaire soigneusement conservée dans leurs bases de données. Et comme il n'y a que 24h dans une journée, même dans un monde numérique, la croissance de ces usages va mécaniquement entrainer la décroissance du temps passé sur les espaces de publicité TV traditionnels.



Mais le numérique amène aussi les 200 millions de blogs dans le monde et le contenu créé par les consommateurs eux-même. Car le phénomène est loin de se tarir à raison de 3 millions de nouveaux blogs par mois en 2013. Déjà, un internaute sur trois déclare acheter des produits suite à des informations trouvées sur les blogs, et un sur quatre en fait même de la publicité.

Il y a aussi l'effet indirect des blogs: leur agrégation en nouveaux médias (Huffington Post, Techcrunch, ...) ou avec des médias traditionnels (comme GreenSI sur ZDNet). Des nouveaux médias qui veulent maintenant atteindre directement les clients, sans passer par la case achat d'espace centralisé, par exemple avec de l'habillage de leur site ou des évènements. Et maintenant vous comprenez pourquoi votre ZDnet prends parfois les couleurs de Microsoft ou de Numergy...

Nouvelles plateformes

Ensuite parce que le numérique, via Internet, fabrique des plateformes mondiales (Google, Facebook, Twitter,...) plus facilement que par des acquisitions dans chaque pays. Le chiffre d'affaires de Google au premier trimestre est de 14 milliards (3 x Publicis + Omnicom), dont la majorité dans la publicité Internet et maintenant sur mobile, là où les grandes agences grandissent vite mais n'ont pas cette taille. Le comble pour un modèle construit sur les économies d'échelle c'est certainement de réaliser qu'on est un nain...

Les résultats de Facebook publiés cette semaine ont fait remonter le cours de bourse à l'annonce des 40% de ses revenus déjà sur le mobile. CQFD.
Or les investissements nécessaires pour collecter et traiter les données de ces plateformes et l'innovation technologique qu'elles demandent, nécessitent des économies d'échelle amenées par cette mondialisation. Et au premier plan le "big data" qui permet de dépasser la communication massive unilatérale et d'aller vers quelque chose de plus dynamique et personnalisée en y ajoutant les données de la relation client. La publicité cherche ce Graal de la relation depuis longtemps et il commence à apparaitre. Et d'ailleurs la publicité non personnalisée est de plus en plus rejeté et assimilée à du spam. Et le premier anti-spam de la planète c'est certainement Google avec Gmail qui filtre automatiquement les messages, comme par hasard...
Nouvelles règles du jeu

Enfin parce que le numérique change progressivement les règles de fonctionnement des espaces publicitaires: une campagne sera de moins en moins de la programmation massive d'espace mais plus de la vente instantanée et ciblée de publicité pour maximiser le taux de clic.

Des sociétés comme Criteo ont développé des technologies pour déterminer quelle publicité afficher a un internaute pour maximiser les chances qu'il clique sur le lien.
Comment? En capturant le plus de données possible sur cet internaute ou sur ceux qui lui ressemble lors de sa navigation sur tous les sites qui veulent bénéficier de ces recommandation. C'est pour GreenSI de très bons exemples de "big data", un concept parfois un peu fumeux. La performance de ses algorithmes a fait passer Critéo en quelques années de simple fournisseur de technologie a nouvel acteur du marché des espaces. Des espaces que l'on n'achète plus en masse à l'avance (Critéo le fait collectivement) et qui améliorent les rendements. Pour GreenSI les grandes agences ne pourront pas ignorer longtemps le "big data" et les algorithmes temps-réel. C'est une des industries de prédilection.


On voit donc que le numérique créé de nouveaux chemins pour réorganiser la chaine de valeur et jette de nouvelles hypothèses sur ce qu'est la publicité dans un monde hyper connecté et relationnel. Les périmètres des activités des marques, des agences et des médias sont chambooulés. La donnée devient essentielle et les nouveaux acteurs qui maitrisent la technologie et crée des plateformes pour maitriser la relation temps réelle personnalisée avec les marques et les clients. Il y aura peu d'élus et les autres utiliseront ces plateformes.

Pourquoi fusionner alors ?

Dans ce contexte Publicis a commencé dès 2006 ses rachats d'agence interactives apparues avec Internet. Assez tôt pour être présent sur la communication digitale tout azimut qui représente maintenant 30% de ses revenus. Idem pour Omnicom sur un marché différent.

La question c'est de savoir si cette fusion permet à ces deux entreprises, de mieux aborder ensemble cette transformation, que séparément?
La bourse reste attentive et n'affiche pas l'emballement que l'on aurait pu attendre il y a 5 ans. Elle sait que la conduite des changements est généralement plus complexe quand la taille augmente. Or le challenge de Publicis et Omnicom c'est bien la transformation numérique. Et sur ce plan, mise à part pour la mutualisation des investissements et la course à la technologie, on sait peut de chose même si cela suscite beaucoup d'enthousiasme.

Jacques Seguela, pourra bientôt dire "Ne dites pas à ma mère que je suis dans la technologie,... elle me croit dans la publicité".  Et GreenSI se pose la question si Publicis n'aurait pas du poursuivre sa transformation en achetant plutôt des actifs technologiques au lieu d'un égal. Par exemple, Criteo, fondée par des français devrait rentrer en bourse à New York à l'automne...

L'avenir dira si cette prise de risques valait les opportunités qu'elle va amener. Mais ce qui est intéressant dans cette annonce, c'est que c'est un signal fort pour toute l'industrie de la publicité et la communication que le digital est train de devenir "the new normal". Ce moment où plus de la moitié de la valeur est tirée du numérique. Une période propice à des investissements technologiques importants dans cette industrie et certainement même à du recrutement de compétences IT. Affutez vos CVs ;-)

dimanche 28 juillet 2013

Fascicoliphobie: ce bon vieux fichier qui fait peur à nos Ministres

Le Ministère de la Culture s'est trouvé une nouvelle phobie: le fichier légal revendu d’occasion par un consommateur. Et pour l'occasion GreenSI invente un nouveau mot, la fascicoliphobie - du latin fasciculus (petit paquet, assemblage de même chose, qui représente le fichier).

Dans une note interne, que s'est procurée PC-Inpact, le rapporteur s'interroge sur les risques d'existence d'un marché d'occasion de fichiers d’œuvres culturels numériques achetées... légalement!
Ce marché pourrait réduire la "juste rémunération des créateurs" et le financement de la création. Et pour créer des marchés d'échanges, tout le monde sait que le numérique et l'Internet sont redoutables.

En gros si vous achetez un logiciel, une musique ou un film par téléchargement, vous ne pourriez pas le revendre comme vous le faites avec un support physique. Étrange raisonnement pour ceux qui ont déjà intégré le monde numérique et veulent le construire sur de nouvelles bases. Mais visiblement pas pour ceux qui voient la numérisation comme une menace.
On était si bien sans Internet...

Et donc ce bon vieux fichier, déjà combattu par Hadopi avec force et grandes dépenses, quand il est suspecté d’illégal, se retrouve encore sur la croisée des tirs nourris alors qu'il est légal.
Allez comprendre!

Pendant ce temps une étude montre qu'en Norvège l'offre légale fait fondre le piratage. Alors si l'offre légale se développe, l'économie va être submergée de fichiers légaux... que les gens pourront revendre.

Laissons les sages de la Commission de réflexion créée pour l'occasion réfléchir et abordons le sujet sous l'angle de la transformation d'une économie de biens possédés à des biens utilisés.

La location de voiture est par exemple en totale effervescence avec le développement d'une économie et de communautés de partages. Les consommateurs n'ont plus besoin de posséder les voitures mais peuvent les utiliser quand ils le souhaitent. C'est aussi le modèle des offres légales d'écoute de toutes les musiques que l'on souhaite pour un forfait mensuel. Et ce fut le cas de feu nos vidéos clubs avant le développement de l'Internet et de la VOD.

En fait le physique permet des modèles de partage limités (les loueurs de voitures par exemple) alors que le numérique permet des modèles de partage infinis (avec les possibilités offertes par des modèles d'échanges d'objets et de relations sans cess renouvellés sur Internet).

Pour GreenSI "c'est ça la bonne question" comme dirait le professeur Lanning dans iRobot.

 

Le problème n'est donc pas de savoir si on peut revendre une œuvre numérique mais de savoir comment créer des marchés pour n'utiliser que ce dont on a besoin, et quand on en a besoin. Et ne pas en payer le coût quand on ne l'utilise pas. La revente n'est qu'un moyen pour les consommateurs de créer ces marchés si ils n'ont pas été créés par d'autres.
Et c'est même quelque chose de vertueux globalement. Puisque cela optimise le nombre d'objets physique a fabriquer, et les infrastructures de stockage pour ce qui est numérique.

Si on applique ce raisonnement aux ressources naturelles on retrouve les principes du développement durable et de l'économie de partage qui ne sont pourtant pas combattus. Personne ne défendrait l'idée de ne pas économiser le carburant parce que cela réduirait les taxes qui financent la prospection de pétrole. Si ? ;-) 

Mais en revenant à la culture, ce monde optimisé ferait peur. Pourquoi donc?

Là où la culture tremble, c'est que si on optimise l'utilisation de ces objets, on réduit forcément les revenus de ceux qui touchent un pourcentage fonction du nombre d'objets vendus.

Alors deux solutions s'offrent a notre société:
  • empêcher cette optimisation, et le juridique trouvera sans problème un moyen d'y contribuer, et la résistance s'organisera...
  • ou changer le modèle de rémunération pour passer d'une rémunération au volume vendu a une rémunération à l'usage, voire a la qualité.
Car la triste réalité de notre monde physique payé au volume est que le CD dans le placard sous la poussière, rapporte autant à l'auteur que celui qui tourne en boucle à la maison. Et la note interne du Ministère de la Culture parle de "juste rémunération", et bien ça se discute!

GreenSI espère donc que les sages ne resteront pas sur l'étude des barrières pour contraindre le numérique, mais aborderont bien le changement de règles qui permettra à tous de profiter de ce monde numérique. Un changement vrai pour toutes les industries comme le savent bien les lecteurs de GreenSI.

Après tout, si l'exploration spatiale découvrait une planète viable pour l'homme, et sans pesanteur. Est-ce que nos premiers investissements seraient de fabriquer une usine à gaz pour y recréer de la pesanteur sous prétexte que nos machines terrestres n'y marcheraient pas toutes ?

De quoi méditer cet été sur la plage en regardant les étoiles... et en attendant les résultats de la réflexion des sages.

lundi 15 juillet 2013

One Strategy: une nouvelle organisation chez Microsoft. Pour se poser les bonnes questions?

Cette semaine marquera un jalon dans l'histoire de Microsoft avec l'annonce de sa nouvelle organisation "One Microsoft, one Strategy".

Depuis le départ de Bill Gates (Juin 2007) et l'arrivée de Steve Ballmer, les mauvaises langues diront qu'il ne s'est rien passé chez Microsoft et le cours de Bourse, qui reflète le potentiel d'une valeur, n'a pas bougé (Microsoft à quand le rebond ?) contrairement a ses nouveaux concurrents.



Quand dans le même temps l'environnement de Microsoft et des DSI a lui a été totalement modifié:


  • fin du PC annoncée et le chinois Lenovo n°1 mondial devant HP - tout un symbole,
  • dispersion de Windows entre 5 versions encore utilisées
  • dominance de Chrome et Firefox dans les navigateurs
  • omniprésence des tablettes et des smartphones, avec la domination d'Apple et Samsung
  • Internet mobile dominant et anniversaire des 5 ans de l'Apps Store, et le potentiel d'Android
  • les nouvelles destinations sur Intenet: Facebook, Google et les réseaux sociaux qui se partagent les revenus de la publicité
  • le cloud computing est rentré dans les mœurs comme le SaaS pour la bureautique et les applications, avec la domination d'Amazon et Google
  • le concept même d'Office, ce bundle d'applications intégrées, est dépassé par l'utilisation d'applications plus simples mais centrées sur un seul usage
  • ...
Certes, dans chaque domaine Microsoft a lancé une bataille.
Ce qui faisait dire à GreenSi il a deux mois "Stratégie de Microsoft: toutes voiles dehors" en se demandant si il ne fallait pas faire des choix. Mais de l’aveu même de Bill Gates en Février 2013 le problème c'est que Microsoft n'innove pas assez.

Alors la réponse de Steve Ballmer (par email a ses salariés) et qui pour les analystes s'est faite attendre (opinion du magazine Forbes), c'est de regrouper les différentes divisions indépendantes en "un seul Microsoft" et de lui donner une seule stratégie. Et l'objectif d’innover plus rapidement, avec plus d’efficacité et de potentiel dans un monde qui change vite.

Sceptiques?
Surtout pour ceux qui se souviennent que c'est Steve Ballmer qui a séparé les divisions Serveurs&Tools, Windows et On-line...

Et bien disons que la théorie du management lui donne raison d'explorer cette voie. Une théorie que l'on retrouve dans d'autres industries et d'autres époques. "Together as one" est le nom de programmes internes dans des centaines d'entreprises je pense. Le sempiternel débat entre le conglomérat souvent plus agile et le groupe unifié à priori plus puissant.


Mais ce qui est amusant c'est que "One strategy" est un papier célèbre écrit en 2009 avec des professeurs de la Harvard Business School et un certain Steven Sinofsky... patron exécutif de Microsoft! 

Qui a aussi produit un livre toujours disponible sur Amazon et relativement bien noté 4,5/5 par ses lecteurs. On imagine que Steve Ballmer l'a aussi lu ;-).

La théorie de Steven Sinofsky, qui ne surprendra aucune startup, c'est que si on aligne les capacités, les processus et les comportements de chaque entité de l'entreprise, elle peut stimuler l'innovation en connectant le potentiel des opportunités stratégiques a son exécution opérationnelle

Parce que le problème n'est pas toujours, de ne pas avoir de vision et de ne pas voir les opportunités stratégiques. Microsoft a montré qu'ils en avait une et notamment dans le tactile avec les tables Surface longtemps avant l'iPad.
Mais c'est de faire que l'entreprise, qui avance les deux mains sur le guidon, sache capturer ces opportunités, internes ou externes, les faire siennes et les délivrer. Car souvent elles sont dérangeantes pour l'ordre interne établi et cannibalisent ou remettent en cause des produits existants. Au fait, Steven Sinofsky a quitté Microsoft en novembre dernier après 23 ans de service. Il s'occupe maintenant de startups dans la Silicon Valley et donne des cours à Harvard. 

Le diagnostic de Steve Ballmer est donc certainement le bon. Il est bien accueilli par la Bourse et par les différentes retombées de presse. Certains y voient une copie d'Apple quand un autre Steve avait repris les rennes pour réaligner toutes les énergies et démontrer, contre toutes les idées reçues, que l'industrie des PC, de la musique, des livres et de la téléphonie, pouvaient se prendre en une seule bataille. Si elle était menée par vagues coordonnées (iMac, iPod, iPhone, iPad). Steve Jobs avait confirmé que l'iPad était en projet avant l'iPhone, mais n'a été lancé que plus tard.

Mais pour GreenSI, Microsoft s'est juste trouvé une organisation pour faire le ménage et faire remonter ses questions stratégiques. Qui maintenant peuvent être traitées comme la bataille de "One Microsoft" et pas une bataille entre divisions.

Et ces questions stratégiques tournent autour de la "consumérisation de l'IT".

Car Microsoft principal fournisseur des DSI et des entreprises il y a 5 ans, est aussi entrainé comme ses clients, dans cette bascule de pouvoir et de l'innovation, de l'entreprise vers les consommateurs.

Et à la différence d'un Apple qui compte sur les consommateurs pour faire rentrer ses technologies dans l'entreprise (BYOD), ou d'un Google qui s'appuie sur les équipements des autres (via Android), pour y faire rentrer ses services, Microsoft n'a pas de cheval de Troie pour sa stratégie B2B.

Alors en attendant, Microsoft cherche a renouveler ses contrats sur plusieurs années, avec les DSI déjà clientes. Pour gagner du temps. Et dans le même temps engranger les derniers revenus des licences dans un monde qui bascule dans le SaaS en auditant les licences et les usages de de ses clients. C'est ce que plusieurs DSI m'ont confié récemment. Et ils ne seraient pas les seuls, d'autres éditeurs (bleus et rouges) seraient aussi très actifs dans ce domaine.
Ce qui pourrait d'ailleurs se retourner contre eux et être un accélérateur du divorce avec les DSI. Mais cela n'est peut être pas si grave vu le nombre de futurologues qui disent que la DSI va disparaître. Alors avant de partir messieurs, si vous pouviez signer jusqu'en 2020... ;-)


Pourtant trois pistes au moins existent pour Microsoft pour fédérer une base de consommateurs, suffisamment large (en centaines de millions), et prête à utiliser les produits Microsoft dans l'entreprise. Donc rompre avec une stratégie B2B poussée par des distributeurs ou des commerciaux grands comptes :

  • le Nokia Lumnia (les ventes des autres smartphones sous OS Windows sont marginales),
  • Office largement utilisée dans l'entreprise (mais ne l'est plus nécessairement à la maison),
  • et la Xbox 360 (dont la nouvelle version s’appelle justement la Xbox One).
Mais si Microsoft n'arrive pas a s'ancrer durablement dans le B2C auprès des consommateurs, pour soutenir sa stratégie vers les entreprises, il ne lui restera plus qu'a de se recentrer sur le B2B (serveurs, SGBD, ERP...) ou de se couper en deux: entreprises (B2B) et consommateurs (B2C).

"One Strategy, Two Microsoft" la prochaine étape? Qu'en pensez vous ?
-->

lundi 8 juillet 2013

WiFi gratuit en gare, c'est bon pour le BYOD tout ça!

Vendredi dernier, deux ministres (Innovation & Économie numérique, Transports) ont lancé les services "gares digitales" avec un WiFi gratuit et des services pour faciliter les déplacements des voyageurs.

Cela semble un peu tard pour aider les vacanciers qui se ruent hors de la capitale et partout en France ce week-end, mais c'est pile-poil pour leur prochaine rentrée professionnelle en septembre. 

Car la gare, c'est aussi le principal lieu de transit professionnel pour aller et revenir du bureau, bien avant les vacances.

Le plan prévoit 100 gares d’ici la fin de 2013 (sur 3000 gares en France dont 230 TGV). Fin 2012 la SNCF qui est à la manœuvre, avait d'ailleurs signé un accord avec Gowex, une entreprise leader dans le développement du WiFi dans les villes, pour équiper la Gare de Marseille Saint-Charles. On imagine que les retours ont été positifs ou que le gouvernement a été particulièrement convaincant pour la généralisation. Et les villes numériques ont aussi besoin de ce type d'infrastructures pour connecter leurs citoyens.

Quoi qu'il en soit, ce plan "Gares digitales" permet d'imaginer une plus forte proportion de salariés équipés en WiFi, sans 3G. Une technologie beaucoup plus abordable que la 3G ou la 4G car sans abonnement. Et donc certainement d'augmenter la part de salariés arrivant avec leur propre équipement Wifi dans les entreprises... en descendant du train tout simplement.

La vision de GreenSI c'est que les tablettes 7" vont fleurir dans les gares. Avec certainement beaucoup plus d'Android que d'iOS.
iPadMini, Nexus ou Kindle Fire comme sur la photo, ou l'une des nombreuses tablettes qui sont lancées en 2013. Un format bien adapté à la lecture, une des activités du voyageur qui prend les transports en commun. Mieux que le smartphone en 5" en tout cas. Mais surtout le 7" est un segment du marché des tablettes très concurrentiel où les offres low-cost permettent d'acheter des produits déjà performants entre 130€ et 250€. Au moins deux moins cher qu'un Smartphone dernier cri ou qu'une tablette 10".

Une fois chargé en Wifi, un article ou un livre se lit sans connexion, car ces tablettes stockent entre 16Go et 32Go en standard.

Les études (dont celle d'Adobe 2013) montrent que les usages sur tablettes sont aussi différents de ceux sur mobile. Et que justement les tablettes sont pertinentes pour les médias, mais surtout les voyages et les achats en ligne.

De plus la SNCF a bien perçu la course à l'accès internet pendant le déplacement, dans les avions et bientôt dans les voitures. Une consultation est donc lancée pour la connexion internet dans les TGV.

Les TER et Transilien présentent aussi un potentiel de clients réguliers qui sont peut-être même prêt à payer pour accéder au WiFi pendant leur trajet. Alors à quand l'abonnement Navigo (en Ile-de-France) avec option WiFi en plus?

D'autre part la France a aussi un retard a rattraper pour l'utilisation des livres numériques (0,5%). Un retard qui s'explique plus par un "manque d'enthousiasme" des grands acteurs du secteur, par une offre moins riche et plus chère que dans d'autres pays: 7% en Grande-Bretagne ou 20% aux États-Unis.

Et quand on explique que le Français refuserait de lire en numérique et préfère le papier, GreeSI se demande pourquoi on ne communique par pour lui expliquer les avantages du numérique (moins de papier, d'encre, de diesel pour distribuer....). Après tout on apprend bien aux jeunes à fumer avec du marketing et de la communication.

Ceci pour dire qu'il y a certainement un potentiel de développement de ces liseuses et que les tablettes 7" vont y contribuer et certainement remplacer les premières liseuses. Des alliances sont en train de se former pour résister comme Booken qui vise l'enseigne Relay (avec la fermeture de Virgin)... justement très présente dans les gares.
 
Le développement du Wifi en gare, et demain dans les trains, pourrait donc booster l'équipement des français avec des appareils sans 3G qu'ils pourront aussi utiliser chez eux avec leur Box.
 
La question de GreenSI est :
que va faire le salarié qui arrive dans l'entreprise avec sa tablette WiFi ?


Réponse 1 : la laisser sagement dans son sac pour ne pas décharger la batterie.

Réponse 2 : demander de la raccorder aussi au réseau de l'entreprise.

C'est donc peut-être le moment de reposer sur la table les règles et les possibilités de raccordement WiFi au réseau de l'entreprise. 

Sur le plan technique, mais surtout sur le plan du management, pour définir les usages autorisés ou pas. Mais c'est aussi l'opportunité de développer l'accès à l'intranet ou aux outils de dialogues internes, pour ceux qui n'ont pas de poste de travail fourni par l'entreprise. Préparons-nous à cette arrivée...

lundi 1 juillet 2013

L'arrêt de Google Reader, quel retour d'expérience pour la DSI ?

Le 1er Juillet 2013, Google Reader, la plateforme d’agrégation de contenu et lecteur de flux RSS de Google sera stoppée. Après un peu moins de 8 ans de bons et loyaux services. Sept ou huit ans, c'est la durée moyenne de vie d'une application en entreprise, mais dans le monde de l'internet certains avaient peut être l'illusion que l'immortalité existait. Google, comme toutes les entreprises, doit upgrader régulièrement ses applications et a décidé de stopper ce service.
Pour GreenSI c'est parce que Google croit aux réseaux sociaux et au développement de nouvelles façons d'accéder et de consommer l'information (mais le débat est ouvert - laissez un commentaire si vous avez une autre explication à proposer !)

Google Reader oblige à s'abonner à des sources (flux RSS de sites).
Avec la prolifération de ces dernières, comme les blogs par exemple, il est difficile (et surtout cela prend du temps) de toujours avoir les "bonnes" sources. Alors que des réseaux comme Twitter, permettent très rapidement de "faire remonter" l'information même si elle provient d'une source que l'on ne suit pas, grâce à la magie du "re-tweet".

Et cette fonction marche aussi dans le temps, c'est-à-dire qu'une info toujours pertinente continue de circuler ce qui augmente son exposition et donc la probabilité qu'on la lise. Google Reader peut donc être remplacé par Google+ et le bouton +1 qui est sur tous les sites. Mais cela demande à l'utilisateur de changer ses habitudes... et ça c'est quelque chose que l'on connait dans l'entreprise.

Ce qui a retenu l'attention de GreenSI sur cette actualité, c'est le contraste entre l'approche de Google et ce qui se passerait dans une DSI pour l'arrêt d'un service non critique, mais bien utile a beaucoup d'utilisateurs.

Déjà abordons cet arrêt sous l'angle de la stratégie SI.

L'intégration des services, dans Google+ pour le social, et Chrome pour la mobilité et le multi-écrans, est un fil rouge de l'évolution des produits Google. Ce fut le cas pour Picasa (photos) et d'autres service qui ont rejoint Google+. L'arrêt de Google Reader est une conséquence assumée par Google.
Transposée au SI de l'entreprise, cette stratégie serait de définir un poste de travail pour l'utilisateur, social et mobile, qui lui permette d’accéder a l'ensemble de l'information, de collaborer avec ses réseaux internes et de lancer les outils dont il a besoin. En clair, ne plus raisonner applications séparées qui réinventent leur IHM en fonction de l'humeur du chef de projet, mais uniquement en services qui viennent s'intégrer dans un poste pensé pour l'efficacité de l'utilisateur.

Je pense que la majorité d'entre nous reconnaîtra plus leur SI comme une somme d'applications, rarement pensées pour être intégrées, et le poste de travail comme la conséquence de ces applications exposées aux utilisateurs. L'arrêt d'une application est un évènement rare et le nombre d'applications augmente chaque année. Alors, de là à aller stopper une application encore utilisée, parce qu'elle est un "silo étanche" non aligné avec la stratégie du poste de travail cohérent pour l'utilisateur, vous n'y pensez pas...

En terme de conduite des changements


L'annonce a été faite le 13 mars sur le blog officiel de Google et avec un message pop-up pour les utilisateurs. Peut-être une idée à retenir pour le marketing de la DSI. La tenue d'un blog pour expliquer et annoncer les évolutions du SI, la communication directe avec les utilisateurs, et la capture de leurs remontées.

On peut voir dans l'analyse de la recherche de "google reader" depuis 2005, que cela a provoqué plus qu'un doublement des discussions des internautes et articles sur le sujet lors de l'annonce de l'arrêt. Une pétition a même été immédiatement lancée pour tenter de faire faire marche arrière à Google. En vain.
Les prétendants à la reprise du service comme AOL, Feedly se sont alors mis sur la brèche pour adopter les utilisateurs de Google avant qu'ils ne deviennent orphelins. Ces utilisateurs "irréductibles du RSS" qui ne souhaitent pas encore changer leurs habitudes, car certainement ils adorent trier, classer et avoir l'illusion de rien rater, car ils ont lu tous leurs flux  ;-)

Retour à la  DSI avec l'annonce de la fin d'une application encore utilisée.
Elle provoque généralement l'équivalent d'une pétition. L'insatisfaction de quelques utilisateurs, qui s'ils sont influents, peuvent obtenir le questionnement du DSI par le DG ou un Directeur bien placé. Et là, tous les arguments qui avaient pourtant emporté la décision du représentant des utilisateurs au comité de pilotage, fondent comme neige au soleil... 

L'application gagne d'abord un délai et parfois continue à coexister avec celle qui la remplace de nombreuses années après. L'argument ultime étant qu'on ne sait jamais, si on doit un jour consulter en urgence une de ses infos, il faut bien garder l'environnement complet. Là où la facturation des services SI est individualisée par Directions, on peut faire jouer l'argument du coût supporté par les derniers utilisateurs, avec le risque de repasser par la case pétition et questionnement des coûts de la DSI...

Une fois la phase de résistance passée, on arrive à préparer le démantèlement de l'application. La démarche Google c'est... débrouillez-vous!

Google ouvre ses API a de potentiels repreneurs (Feedly et autres), permet à l'utilisateur de télécharger ses données et le jour dit, coupe le service. Tant pis si l'utilisateur n'était pas prévenu ou s'il n'a rien fait. De toutes les façons il avait accepté (sans les lire) les conditions d'utilisation qui disaient que ce service pouvait être coupé à tout moment.

Dans l'entreprise, avec un étrange flou autour de la question, c'est parfois la DSI qui est considérée comme responsable de l'impact que peut avoir la fin du service. Même quand les utilisateurs, prévenus de longue date, n'ont pas engagé les actions de reprise de données ou de changement de système. Peut être qu'il faudrait faire signer des conditions d'utilisation avant tout lancement d'application ?

Vers une nouvelle agilité à développer pour les utilisateurs


L'arrêt de Google Reader montre bien que la démarche de Google est très différente de la réalité dans l'entreprise.

Pourtant la "consumerisation" du SI est considérée comme une tendance forte. Elle est mise en exergue avec l'arrivée de terminaux amenés par les utilisateurs (BYOD) qui utilisent les services en ligne se développant dans le Cloud public. Ces services pouvant s’arrêter sans prévenir.

On va donc implicitement vers une plus grande responsabilisation des utilisateurs, a laquelle il ne sont pas habitués. Que ce soit sur la prise en main de leur nouveau terminal, sur sa sécurité, la sécurité des données, ou sur l'utilisation des services en lignes.
Cela doit nous faire réfléchir sur les nouveaux besoins d'accompagnement de ces utilisateurs dans un monde où la part de services et équipements venant du monde grand public augmente.

Va t-on vers des cellules de support d'un nouveau genre qui essayent et testent les services en ligne du cloud public sur les différents terminaux, et peuvent aider les utilisateurs à avoir plus d'agilité tout en les conseillant, y compris de façon proactive?


lundi 24 juin 2013

Opendata : la donnée au coeur des SI se rêve en droit fondamental


Fondé en 1975 et héritage de la guerre froide, le G8, "club des pays riches", s'est réformé en 2008 pour devenir le G20. Un élargissement qui prenait en compte l'évolution de la géopolitique mondiale et l'entrée de pays émergents et de l'Union européenne. Mais le G8 ne s'est pas éteint pour autant et continue ses travaux chaque année dans un pays hôte. Des travaux qui sont ensuite validés par l'ensemble des États membres lors d'un sommet annuel qui se déroule rarement sans heurts, tant il est devenu un symbole de la lutte altermondialiste.

Le 17 et 8 juin c'était à Lough Erne, en Irlande du Nord, que ce sont réuni les chefs d’États du G8 pour signer (entre autres) une charte sur... l'Open Data.

Si la donnée est le pétrole du 21eme siècle, le G8 (et surtout les États-Unis) est en train de fabriquer les plus grandes réserves mondiales de ce pétrole dans ses datacenters. Le G8 est clairement le club des pays riches en données numériques. Et une partie de ces données est propriété des gouvernements ou d'agences gouvernementales. Et pour celles qui ne le sont pas, l'actualité de ces dernières semaines avec PRISM a montré que les services secrets entendaient bien y avoir accès aussi.

Donc l'open data intéresse visiblement les dirigeants des pays les plus puissants de la planète.

Les faits ont déjà montré cet intérêt pour l'ouverture des données, à des fins de transparence mais aussi d'innovation. Avec par exemple la mise en ligne organisée des données gouvernementales des États-Unis dès l'arrivée au pouvoir de Barack Obama et en 2010 pour le Royaume Unis. Ce G8 confirme cette volonté et l'affirme de manière collective.

La France a aussi un portail de données gouvernementales ouvertes (data.gouv.fr). Mais quand on voit le débat pour (ne pas) publier le patrimoine ou les notes de frais des députés, ou même les déclarations d'intérêts, on comprend que l'esprit de l'ouverture des données n'est pas encore largement partagé parmi les représentants des citoyens. Même si de multiples initiatives locales sont a saluer, principalement dans les villes, les agglomérations de communes, les Conseils Généraux ou les Départements (voir carte de France de l'Open Data).

 

Pourtant la France, via sa Déclaration des Droits de l’Homme et du Citoyen de 1789, se targue d'y avoir inscrit le droit d'accès aux informations publiques puisque "la société" a le droit de demander des comptes à tout agent public de son administration. Mais la loi de 1978 sur le droit d'accès à l'information en France n'impose en rien de publier ces données au format numérique et encore moins de façon proactive. Et le recours auprès de la CADA - la Commission d'accès aux documents administratifs - est une démarche administrative qui prend du temps et de l'argent.

Actuellement, tout repose donc sur le bon vouloir des services, sur le choix de quelques données et sur des formats pdf ou xls. Ce qui produit au final un univers de données ouvertes très hétérogènes et pas facilement exploitables. Et ne nous laissons pas impressionner par les 353.226 jeux de données annoncés sur la page d'accueil du portail data.gouv.fr, car quand on sait qu'il a 36.700 communes dans le pays, cela ne fait que 10 données par communes. Sans compter que les formats de ces données ne permettent pas toujours la réutilisation, et ne sont pas encore les web services ou API que les DSI attendraient. 

Etalab, en charge de cette ouverture pour l’État, en est bien conscient. Et a d'ailleurs conduit une large consultation cette année, pour améliorer ce portail national et faire qu'il soit mieux rempli et plus utilisé. Etalab a aussi mis en place un comité d'experts, publics ou privés, pour l'accompagner dans la mise en œuvre de la feuille de route fixée par le gouvernement en début d'année.

Cette charte du G8 des sur l'ouverture des données, va donc renforcer ces initiatives et on l'espère leur donner un caractère plus obligatoire. Ses principes sont au nombre de cinq, nous allons aborder les deux premiers:

"We agree to orient our governments towards open data by default" 

Avec la charte du G8, cette politique pour l'instant volontariste pourrait devenir un droit si toute donnée éligible (non nominative, confidentielle,...) est donc ouverte par défaut a moins de démontrer le contraire. Alors qu'aujourd'hui c'est plutôt les "traqueurs de données", porteurs engagés d'initiatives open data, qui doivent faire le tour des services, trouver des données intéressantes et démontrer qu'ils peuvent bien les libérer.
L'inversion de la logique est porteuse d'une rupture de pensée dans la construction même des SI de l’État et des collectivités locales. Ce qui était une exception gérée à la marge, donc parfois "à la main", deviens le cas général. La réflexion sur les API et l'interopérabilité au niveau des données (sémantique) va pouvoir commencer.

"The term government data... apply to data owned by national, federal, local, or international government bodies, or by the wider public sector" 

L'ensemble du secteur public est concerné, national ou territorial, y compris la Commission Européenne et a priori les délégataires de services publics si on interprète "wider public secteur". Car actuellement ces délégataires rendent des comptes a des entités de régulation ou de contrôle, aux délégants des contrats de délégation (généralement la commune ou l'agglomération), qui se chargeront (ou pas) de publier ces données vers les citoyens. Mais ceci est en train de changer pour des questions de simplification des circuits dans un monde qui accélère et où les citoyens sont de plus en plus connectés.

Lyonnaise des eaux, délégataire de service public pour une partie de ses contrats, a par exemple décidé de publier directement ses données de qualité d'eau vers ses consommateurs, en plus de ses obligations réglementaires. Ainsi pour toutes les communes dans lesquelles elle opère ses services en délégation, elle indique les contrôles de qualité d'eau sur son site internet (l'eau dans ma commune), mais qui sont aussi affichés en mairie. La nouveauté étant que ces données sur internet proviennent directement du SI de l'opérateur, sans intermédiaire, et pourraient même être ouvertes aux communes sous la forme d'API.


Autre exemple dans l'actualité de la semaine, l'observatoire des loyers que veut monter le Ministère du Logement (actuellement en pilote). Il existe depuis des années à la FNAIM ou chez les notaires, montre bien que certaines données qui peuvent guider les politiques sont souvent produites ou consolidées par le privé. Et quand la FNAIM claque la porte, le gouvernement manque de données.

Idem pour la RATP dont on a déjà parlé dans GreenSI il y a 8 mois, qui sans en avoir l'obligation (dépend d'une autorité de tutelle) a dû s'engager dans une politique d'ouverture de ses données vers les citoyens.

Et que penser des données de santé qui sont déjà au milieu d'une bataille pour leur accès libre.

GreenSI ne serait donc pas surpris de voir le périmètre du "wider public sector" aller bien au delà des délégations de services publics.

We will: release high-quality open data that are timely, comprehensive, and accurate

Le point essentiel de cette charte est de se fixer des objectifs de formats et de qualité. Le titre de la charte est d'ailleurs "Open Data Charter AND Technical Annex". L'annexe technique, incluant des bonnes pratiques, et les liens vers les descriptifs des données des États. C'est une annexe qui va rapidement arriver dans les DSI des Ministères et collectivités territoriales pour se préparer à cette ouverture.

Une mise en cohérence et intégration dans le RGI - Référentiel Général d'Interopérabilité - applicable pour les SI de l’État et des collectivités locale, serait certainement souhaitable pour l'interopérabilité sémantique. Surtout que la version officielle de ce référentiel date de 2009, ce qui compté en "années informatiques" commence a dater.

Wait and see... 

Cette charte et surtout les noms de ses signataires sont pour GreenSI un signal fort que l'open data est quelque chose qui va s'installer plus fortement dans les SI.

Dans le secteur public, mais aussi dans les secteurs manipulant des données à caractères publics. Commencez donc a regarder vos de données qui pourraient intéresser les citoyens, on pourrait venir prochainement taper à la porte de votre SI pour que vous demander de l'ouvrir ;-)

L'humour de ceux qui aiment le numérique