jeudi 12 octobre 2017

L'Empire des mille plateformes

L'Empire des mille plateformes


Une des tendances qui s'affirme depuis au moins ces cinq dernières années, c'est bien celle de la "plateformisation de l'économie", pour signifier que les entreprises, les applications et même les États veulent devenir des plateformes.

Cette tendance sent le marketing à plein nez mais cache un fond de pertinence que GreenSI se propose d'aller gratter avec ce billet.
Ce concept de plateforme sent bon le marketing car certaines sociétés de technologies voudraient fortement vous suggérer, en engageant des budgets marketing importants, qu'il n'y aura qu'UNE plateforme, la leur, et qu'il faudrait rejoindre sans plus tarder les rives de ce nouveau continent de rêve au ciel bleu azur peuplé de belles amazones ;-)

Désolé, mais le futur sera certainement moins uniforme, du moins GreenSI l'espère pour la poursuite de l'innovation qui est généralement  inversement proportionnelle au nombre de fournisseurs. 

L'État se rêve en plateforme

Commençons par l'État plateforme, un concept tiré d'un article célèbre du MIT (Government as a platform - Tim O'Reilly) et qui avait fait l'objet d'un billet GreenSI un peu plus tôt dans l'année au terme de l'action dans le numérique du gouvernement précédent.

Ce concept séduit visiblement toujours le gouvernement actuel puisque Mounir Mahjoubi, le nouveau secrétaire d'État au Numérique le reprend à son compte pour matérialiser le souhait d'avoir une Administration qui offre de meilleurs services numériques aux tiers (citoyens, entreprises, ...) et peut facilement collaborer avec un écosystème.

On retrouve ici en toile de fond le concept 
d'une plateforme facilitant la transformation numérique d'un État qui se voudrait plus agile, plus transparent et même plus efficace, si on fait le lien entre numérisation et efficacité. 

Les plateformes ont été exploitées avec succès par les GAFA et les BATX en Chine. On compare souvent leur puissance à celle des États (en tout cas GreenSI l'a fait il y a 4 ans) et leurs offres gratuites à des services qui pourraient bien être publics (Pourquoi Google et les GAFAs dérangent les politiques européens? ). De bons exemples sont Google/Waze qui a les données de transport les plus fraîches pour les villes, ou encore Facebook Safety Check utilisé maintenant à chaque attentat pour déclarer que l'on va bien. C'est donc certainement une bonne idée que les États s'inspirent de ces grandes entreprises du numérique pour réformer leurs services aux citoyens.

Après tout ils les connaissent déjà très bien, peut-être même mieux que les États ;-)
Mais c'est certainement une autre bonne idée pour l'État de ne pas vouloir tout faire lui même et de pouvoir impliquer, quand c'est plus rapide ou plus efficace, les citoyens et les services qui ont déjà atteint une maturité dans les populations plutôt que de repartir de zéro et malheureusement souvent de ne jamais les rejoindre.

L'efficacité de l'application SAIP par exemple, créée par l'Etat et finalement moins riche fonctionnellement que le "Safety Check" pour les alertes attentats, a même été récemment critiquée par les sénateurs eux-mêmes.

Le concept de plateforme est donc associé a la transformation agile des organisations et à la capacité de s'ouvrir à un écosystème de partenaires qui l'utilisent.

On peut l'imaginer comme un porte avions bien organisé auquel les État ont certainement une tendance naturelle à s'identifier, sur lequel de façon très organisée, une flotte d'avions peuvent en partir ou y atterrir et effectuer des missions.

Mais GreenSI préfère au contraire voir une construction plus "organique", comme la station Alfa de l'"Empire des milles planètes" pour ceux qui connaissent, dans la bande dessinée et maintenant le film Valérian & Laureline (pour la diversité !), la station spatiale où se retrouvent toutes les espèces de l'Univers.




La capacité à délivrer de nouveaux services à coût marginal

Si beaucoup de ressources sont mutualisées comme la gestion des autorisations, la sécurité, des moteurs de notifications voire des services génériques d'analyse de données, cela réduit les délais et les coûts de mise en œuvre des nouveaux services, pour atteindre un coût marginal. C'est également une solution pour financer des infrastructures mutualisées, de collecte de données par exemple, en les faisant financer par chaque bénéficiaire au volume de données traitées.
Demain, ces plateformes mutualiseront également des fonctions exploitant l'intelligence artificielle, grand consommatrices de ressources, que peu auraient pu financer seuls. Cet avantage aura donc plus de valeur pour les petits entreprises que les grandes. L'effet de taille recherché jusqu'à présent sera donc moindre, et c'est peut-être le début d'une ère d'entreprises en réseau plus agiles cherchant leur effet de taille par le marché adressé par leur plateforme, et non leurs bureaux à travers le monde.

Une expérience utilisateur simplifiée

La plateforme permet une expérience utilisateur simplifiée. Cette expérience commence par une seule authentification (si elle a bien été mutualisée) et un ensemble de services qui peuvent échanger des données entre eux.

Comme il est difficile de construire une expérience utilisateur pour plusieurs cibles différentes, par exemple B2B et B2C à la fois, une entreprise aura certainement une plateforme par segment de clients et une autre pour l'interne. Un autre bénéfice sera la compréhension fine des usages de chaque utilisateur et de chaque segment de clientèle avec une vision globale sur tous les autres services.

Cette stratégie de plateforme unifiant l'expérience utilisateur implique que tout nouveau service pour un segment bénéficiant déjà d'une plateforme doit rejoindre la plateforme et non être développé comme une nouvelle application distincte. Ça ne fait pas toujours plaisir aux égos des chefs de projets, mais il faut en finir avec les applications indépendantes et basculer dans une évaluation des projets par rapport à ce qu'ils amènent à la plateforme entreprise.

Construite pour développer des écosystèmes

La plateforme technique sous-jacente du concept de plateforme est nécessairement ouverte conçue pour inter-opérer avec des systèmes externes. On retrouvera ici demain la capacité pour l'entreprise a se connecter aux millions d'objets connectés dont les données lui permettront de repenser ses processus et qui ne seront pas tous directement connectés à son SI. Ce sera également l'accès aux millions de micro-services en ligne qui vont émerger et dont elle pourra bénéficier.
Les DSI qui pensent pouvoir appliquer les règles traditionnelles de gouvernance du SI à ces plateformes se trompent. Elles vont juste s'en exclure et entraîner leur entreprise dans leur erreur.
La gouvernance d'un écosystème se crée collaborativement, y compris la sécurité.

La plateforme Alfa est une image intéressante de la construction de cet écosystème. À la suite de la rencontre historique Apollo-Soyouz en 1975, d'autres nations envoient des cosmonautes rejoindre la station spatiale, puis les siècles suivants ce sont de nombreux extraterrestres, de toutes formes, qui la rejoignent. Les liens avec les planètes mères sont conservés pour développer ou accélérer le commerce et les échanges.

Les règles de gouvernance de chaque planète mère (dont la Terre) ne sont plus pertinentes sur la plateforme spatiale où la pesanteur est artificielle, et l'énergie, l'eau et l'air sont en quantités limitées. 

D'ailleurs quand celle-ci devient trop vaste et risque de s'écraser sur la Terre, sous l'emprise de la gravité, ses occupants décident de l'éloigner de la Terre et s'émancipent de son créateur, tout en continuant de lui délivrer de la valeur au travers des échanges qu'elle rend possible.

Vouloir développer une stratégie de plateforme sans aborder la rupture avec la gouvernance de l'entreprise risquerait de vouer le projet à l'échec.

La plateforme modèle d'évolution des entreprises?

Les plateformes d'entreprises constituent donc le socle technologique, le système d'information, de la réussite commerciale à l'ère du numérique.
Elles sont ouvertes pour permettre à une communauté de salariés, de partenaires, de fournisseurs ou de clients de partager et d'améliorer les processus et de développer le business. Sous cet angle, toute entreprise a besoin d'une stratégie de plateforme numérique. À défaut de se transformer elle-même en plateforme, elle peut en rejoindre, comme le montre le développement des Marketplaces que les marques rejoignent pour vendre en ligne. Il est estimé qu'en 2020 40% du commerce en ligne passera par un de ces Marketplaces.

Mais la plateforme est plus qu'un socle technologique. C'est également un business modèle, parfois une marque.
La plateforme joue donc un rôle majeur dans l'intégration des compétences, la collaboration et la communication entre les salariés, les clients et même les objets.

C'est un cadre fondateur pour gérer les écosystèmes de l'entreprise. En fonction du métier et des enjeux, l'entreprise va donc privilégier une plateforme interne pour ses salariés (la plateforme collaborative bien connue mais aussi celle de ses API internes), une plateforme privée pour ses clients et partenaires (les extranets) ou une plateforme publique qui interagira avec les autres plateformes du cyber-espace.

Le passage d'une gouvernance centrée sur l'interne de l'entreprise à une gouvernance tournée vers le développement d'un écosystème est certainement aujourd'hui le défi et le principal frein du modèle des plateformes.

dimanche 8 octobre 2017

#FlipYourMind : les ruptures vont plus vite les organisations

#FlipYourMind : les ruptures vont plus vite les organisations

 #FlipYourMind est une série de billets de GreenSI sur le thème de la transformation digitale. Ne cherchons pas à agir à l'ère du digital tout en pensant encore comme à l'ère précédente. Si vous lisez ceci c'est certainement que vous avez choisi de prendre la pilule rouge ;-)

L'actualité nous donne l'occasion de mesurer la vitesse à laquelle de nouveaux standards peuvent chambouler l'économie avec le numérique.

Il y a presque 10 ans, le 12 novembre 2007, Forbes la revue incontournable dans les affaires aux États-Unis faisait sa couverture sur Nokia, cette société finlandaise qui venait d'atteindre 1 milliard de clients, et de s'interroger sur qui pourrait bien la détrôner. 

La suite de l'histoire on la connaît. La société a depuis été "démantelée", le hardware des smartphone a été repris par Microsoft (gamme Lumnia) pour essayer de développer les ventes de son Windows Phone, ce qui pour l'instant n'a pas encore réussi. Dans le B2C la marque Nokia s'est tournée vers la santé et les objets connectés haut de gamme et a racheté la société française leader, Withings. L'activité historique de la société Nokia s'est alors concentrée sur les opérateurs avec notamment en France le rachat des activités d'Alcatel-Lucent.

La barre symbolique du milliard de clients a depuis été dépassée par Facebook, Yahoo ou Google démontrant que les sociétés du numérique pouvaient, en dix fois moins de temps acquérir dix fois plus de clients que des sociétés traditionnelles, comme le détaille très bien dans la Banque, l'analyse du blog "Disruptive Finance" (Pourquoi la finance est devenue hyper-scalable ?). La célérité peut donc être cent fois supérieure à ce que l'on sait.


 Ainsi, en moins de 10 ans, ce qui semblait une barre infranchissable a été franchie.

L'autre société très en vogue en 2007 dans la téléphonie était Blackberry, elle même un disrupteur avec une machine très adaptée pour les messages courts devenue la coqueluche chez les traders de Wall  Street. Cet ancien roi Canadien de la téléphonie professionnelle avec qui les Présidents des États-Unis s'affichaient en public, a aussi subit 10 ans de descente aux enfers, perdu ses parts de marchés, même après avoir abandonné son OS propriétaire et rejoint le standard Android.

Le parcours de Blackberry nous donne des repères sur les durées des périodes où la société perdait de la valeur (mesurée par son cours de Bourse) et montre que les 10 ans de chamboulement de la téléphonie se sont écrits finalement en moins de 3 ans.

L'émergence d'un nouveau modèle porté par Blackberry à durée 2 ans, elle s'est ensuite battue 3 ans entre 2009 et 2011 contre des acteurs qui remettaient en cause son modèle, notamment, l'iPhone et des téléphones sous Android dont Samsung ("simple géant" de l'électronique). A l'issue de cette période de 10 ans la valeur de Blackberry était de 10% de son maximum atteint pendant sa phase de dominance du marché entreprise.
Après 6 années de restructuration, la société Blackberry vient pourtant d'annoncer cette semaine des bénéfices.

Les terminaux resteront marginaux, même dans le domaine de la sécurité, en revanche la plateforme Blackberry a de la valeur et c'est bien son activité logicielle qui annoncé de bons résultats. Depuis l'abandon ou la sous-traitance du hardware, sa stratégie s'articule autour de la plate-forme BlackBerry Secure, qui aide les entreprises à maîtriser leur flotte de mobiles et qui veut conquérir le prochain mobile: la voiture connectée.

En toile de fond du parcours de Nokia et de Blackberry, en B2C et B2B, on a la rupture liée au développement d'un nouveau standard pour le smartphone. Ces deux sociétés avaient elles même porté la rupture précédente des téléphones portables, mais ce modèle a radicalement changé en 10 ans.

Au delà de l'évolution du "form factor" (ci-contre) plus facilement prédictible, ce que Nokia et Blackberry ont vu certainement un peu tard, c'est la valeur du logiciel et la transformation du hardware en une commodité qui pouvait être produite par des géants de l'électronique ne connaissant pas la téléphonie.
En 10 ans le smartphone est devenu un "galet tactile" sur lequel le logiciel peut s'exécuter. 

Le smartphone, relié à une plateforme logicielle amenant les applications, est devenu numérique. Il a été virtualisé, comme le PC ou le serveur avant lui.
Cette virtualisation est une tendance de fond dans le hardware avec la convergence IP et dépasse le secteur de la téléphonie. Les PC, serveurs, réseaux et bientôt le datacenter sont autant de hardware que l'on sait virtualiser avec du logiciel. L'internet des objets va même certainement l'amplifier avec le concept de double numérique (voir ce billet) et d'autres objets plus industriels le seront également.

Le hardware c'est devenu design, exploité par un OS (iOS ou Androïd), sur lequel on amène les services et les applications. La valeur est du pur logiciel, pour ceux qui ne savent pas faire comme Apple et attacher une valeur de marque et d'expérience client à leur design.

Quand une rupture émerge il ne va donc lui falloir que quelques années pour disparaître ou s'affirmer comme une véritable rupture dans les usages.
A partir de là elle entame sa période de croissance pour capturer le plus de clients possibles, dans plusieurs pays et continents à la fois, sans nécessairement être rentable. 

Pendant la phase d'émergence de la rupture, l'entreprise historique risque de rater, voire de la nier. C'est ce qu'à fait Blackberry, née dans les "pagers", en continuant de sortir des téléphones à claviers, organe considéré essentiel pour les SMS. 


Quand la rupture s'est installée elle dépasse rapidement l'entreprise historique qui continue de s'améliorer mais n'introduit aucune rupture dans ses pratiques ou son organisation. C'est donc la seconde peine pour l'entreprise qui se laisse dépasser par une rupture, son organisation ne sait que délivrer la pente historique à laquelle elle s'est habituée... jusqu'à que son marché s'effondre. L'expérience montre que les entreprises réagissent trop tard car n'anticipent pas leur temps d'adaptation. 

L'entreprise traditionnelle a donc tout intérêt à tester l'émergence des ruptures, même celles auxquelles elle ne croit pas, le plus en amont possible. Cela lui permettra de gagner du temps pour la prise en compte de la rupture si elle se confirme.

C'est ce type de finalité que l'on retrouve dans les "Labs" des entreprises (voir ce billet). Leurs projets ne sortiront pas les produits industriels qui assureront l'avenir financier de l'entreprise, mais pour un investissement limité, les Labs permettront de gagner un temps précieux dans la bataille qui va suivre et pour accoutumer l'organisation a autre chose que ce qu'elle connaît.

Dans une conférence récente le Cigref, réunissant les DSI des grandes entreprises françaises, admettait que l'innovation ouverte et la collaboration (interne comme externe) étaient devenues une question de survie.
Cette hypothèse a pour corollaire qu'une entreprise qui n'a aucun dispositif pour explorer, voire anticiper les ruptures de son industrie ou de son modèle économique, a intérêt à avoir une organisation et des processus lui permettant de réagir très vite. 

Récemment j'ai du me demander si je souscrivais au capital d'un groupe bien établi, avec une possibilité de sortie au bout de 5 ans, pas avant. En reprenant le cas de Blackberry ont voit que 2 ou 3 ans en Bourse sont déjà des durées longues qui peuvent être remises en cause par une rupture sur le marché de l'entreprise. Investir sur une durée de 5 ans demande donc de se poser la question des ruptures sur l'horizon de l'entreprise et de sa capacité à les aborder, soit par anticipation, soit par une organisation agile. Si elle n'a aucune des deux, il y a certainement aujourd'hui, plus que par le passé, un risque plus fort dans un investissement sur 5 ans.

Pour GreenSI, si vous pensez à l'ère du digital, acceptez que les ruptures vont plus vite que les organisations et n'attendez pas la rupture pour anticiper la rupture ou repenser l'organisation.

Ne ratez pas les prochains billets #FlipYouMind  
L'importance de développer la culture de la donnée

L'importance de développer la culture de la donnée

Véritable atome (au sens "insécable"), la donnée prend le pas sur la fonctionnalité (voir ce billet), est au cœur de la réflexion sur les nouvelles architectures orientées API, et souvent le fantasme de tous les business modèles pour sa valeur.

C'était donc une très bonne idée pour la FING d'organiser la semaine dernière la 2ème Data Literacy Conférence à Aix-en-Provence. Car finalement se poser la question du potentiel des données partagées et de la donnée pour organiser le monde sont des questions qui méritent que l'on s'y attarde, au moins le temps d'un billet de GreenSI.

La donnée concerne tous les citoyens dans nos sociétés

Ainsi après une première édition de cette conférence en 2016, l'édition #DL2017 a réuni à nouveau les experts internationaux qui lisent et comprennent les données comme Emmanuel Didier, sociologue à l'ENSAE Paris Tech. L'ENSAE est une école d'ingénieur en haut du classement des salaires pour les premières embauches (46.550€ selon Capital) qui nous confirme que la tension est déjà réelle sur la compétence data...

Car pour comprendre cette importance grandissante de la donnée, l'apprentissage de la culture de la donnée - sujet encore très émergent réservé à quelques disciplines comme la Statistique et quelques spécialistes très recherchés - s'avère pourtant essentiel. Au-delà de l'analyse des données, on parle de maîtrise ou de gouvernance de la donnée sur l'ensemble de son cycle de vie, mais où l'apprend t-on réellement ?

Un enseignement de cette conférence est que cette culture de la donnée reste à développer dans les organisations, aussi bien dans les profils techniques que métiers, mais surtout auprès du plus grand nombre (le grand public) pour Emmanuel Didier dans sa keynote d'introduction de la conférence.
Il nous rappelle que la notion "d'avalanche de données" (data deluge) n'est pas nouvelle mais récurrente dans l'Histoire.

Elle nous indique la croissance de ce phénomène. Chaque époque a l'impression de traiter plus de données qu'à l'époque précédente, au fur et à mesure que l'on découvre leur importance et qu'ont les produits. La conséquence de cette croissance est qu'on ne peut pas limiter le travail sur ces données à quelques experts (qui seront vite débordés) et que structurellement on doit également faire participer le plus grand nombre.

D'ailleurs, l'Histoire nous indique les périodes de cette prise de conscience comme l'exemple américain en 1929, au moment du New Deal qui avait la volonté de relancer l'économie - et de le montrer par les chiffres, avec la création de plus de 2.500.000 emplois pour "comptabiliser" l'économie (enquêteurs, statisticiens dans l'administration, ...)


Le pouvoir de la donnée n'est bien sûr pas uniquement contrôlé par les gouvernements.
L'activisme statistique (data activist) est utilisé par des individus (militants) qui, pour défendre leur cause, produisent et utilisent des données. Elle permettent généralement de s'opposer à d'autres données produites par des institutionnels.

C'est également la finalité des journalistes (data journalist) qui exploitent les données pour produire leur contenu et ne se la laissent pas raconter par les communiqués de presse "officiels". Outre une presse dont les objectifs rejoindraient ceux des data activists, on aura reconnu le modèle des nouvelles rédactions, comme celle de BFM, avec leur appétit pour les modèles économiques et les chiffres pour aborder l'actualité.

La culture de la donnée est donc un sujet de société, voire de démocratie, d'où l'importance que l'ensemble de la population en maîtrise l'analyse et y ait accès.

La tendance générale à l'ouverture des données

L'open data est née en France il y 7 ans sur ce constat de transparence du service public et de rendre des comptes aux citoyens dans un pays où ce secteur représente 26% de la population active du pays. Des progrès ont été faits mais ce premier élan a surtout été le révélateur d'une piètre qualité de données partagée dans des formats difficilement réutilisables, rendant une implication citoyenne plus difficile.

Ces dernières années certaines collectivités ont alors pris la mesure du problème et engagé des démarches de structuration et d'organisation des données comme des schémas directeurs pour faire émerger l'intelligence des données (smart data) et faire évoluer leurs systèmes vers une cible partagée. Sur le plan organisationnel, la donnée est rentrée sur l'organigramme de ces mêmes organisations avec des administrateurs généraux des données aux compétences d'animation transverses.

Un second modèle de l'open data est donc en train de se mettre en place et la donnée va émerger comme un fil rouge de la transformation numérique des collectivités locales.
L'open data devient un moyen de décloisonner les services en interne aux organisations et de réutiliser ces données pour créer de nouveaux services en externes. C'est un modèle qui, comme dans le projet du Grand Dijon annoncé début septembre, s'inscrira dans la tendance de développement de la "smart city" qui a justement besoin de données croisées pour être plus "intelligente".


Dans le secteur privé, on parle plutôt d'API pour mettre en avant le moyen d'accéder à la donnée. Mais c'est bien la même tendance de fond de l'open data qui est derrière les nouvelles architectures de système d'information généralisant l'accès aux données des applications par des APIs, accessibles en interne, voire en externe.

D'ailleurs, la même semaine se tenait à Paris la Matinale API World, où les professionnels des SI sont venus partager leur expérience d'utilisation des API pour "casser les silos internes, s’ouvrir sur le monde, travailler en écosystème, s’entourer d’un réseau de start-ups,...".

On retrouve bien là les objectifs du modèle open data précédent appliqués aux SI. La convergence des fonctionnalités entre la l'open data et les plateformes API se retrouve également dans les outils.

L'ouverture et l'échange de données est donc une tendance générale, renforçant le besoin de les comprendre. La force de cette tendance est à son paroxysme quand elle se fait à l'encontre des lois qui régissent la diffusion des données. La publication en masse de documents sur WikiLeaks pour laisser les journalistes faire leur travail d'investigation est certainement l'exemple le plus connu.

La littératie des algorithmes

La production en croissance de données de plus en plus ouvertes devrait dont développer la "data literacy" de tout un chacun.
Mais c'était sans compter sur les développements récents de l'analyse des données par des algorithmes. Le danger serait que ces algorithmes deviennent des "boîtes noires" qui réduiraient à néant les efforts de développement de la compréhension des données. 

Par exemple, le logiciel APB (et ses algorithmes) qui décide de l'orientation post-BAC des étudiants en France, malgré la publication de son code, reste toujours aussi obscur. Il induit des effets secondaires qui défavorisent certaines filières dans leur choix (préemptés très tôt par les second choix d'autres filières qui seront renoncés ensuite) et conduit de plus en plus à des tirages au sort pour l'entrée en Faculté dans certaines filières quand ce n'est pas parfois à aucune affectation du tout.

Une "boîte noire" qui commence à être rejetée par le public, challengé en justice comme par ces 3 étudiants bordelais qui ont obtenu gain de cause et qui a conduit Frédérique Vidal, la nouvelle ministre de l'enseignement supérieur, à promettre sa restructuration en profondeur pour 2018.
L'algorithme pose la question de l'impact sans intention.

Qui est responsable de tous les impacts d'un algorithme ? Comment atteindre la transparence des décisions de l'algorithme, au moins au niveau nécessaire pour une utilisation responsable?
Enfin se pose la question de l'influence inconsciente des auteurs (ou des concepteurs) qui induit peut-être un biais dans le fonctionnement de l'algorithme. Une recherche de l’Université d’Harvard de 2013 a montré que la recherche de noms à consonance africaine dans un moteur de recherche affiche plus fréquemment des dossiers d’arrestation...

Le biais de la Silicon Valley jugée très machiste, en tout cas pas assez diverse (du jeune mâle blanc), et qui produit nombre d'algorithmes utilisés tous les jours, est donc bien réel et doit nous faire réfléchir.

Ce qui fait dire à David Oppenheimer, professeur de droit à l’Université de Californie à Berkeley, que si les algorithmes « ne sont pas conçus avec une intention de discrimination, et même s’ils reproduisent les préférences sociales de manière tout à fait rationnelle, ils tendent aussi à reproduire certaines formes de discrimination ».

La compréhension des données et des algorithmes est donc un sujet majeur qui attend notre société qui se numérise un peu plus chaque jour.

jeudi 21 septembre 2017

L'IA révélatrice de la transformation de la DSI

L'IA révélatrice de la transformation de la DSI

L'intelligence artificielle fait en ce moment l'objet de toutes les interrogations et d'un buzz énorme dans les médias. L'écart entre les annonces et la réalité du quotidien, voire des possibilités actuelles, laissent en effet perplexe. 

Quand dans la majorité des entreprises les applications opérationnelles les plus avancées pour l'analyse des données utilisent de simples modélisations sur des domaines limités, l'actualité se pose la question de qui sera maître du monde par l'analyse de données ; ainsi que de quand va démarrer la prochaine guerre mondiale dirigée par une intelligence artificielle.

Cette actualité, souvent confuse, est entretenue par les propos de quelques entrepreneurs de talents comme Elon Musk ou Mark Zuckerberg et surtout par des prises de positions publiques de dirigeants du Monde comme Vladimir Poutine ou par le Royaume-Uni qui décide cette semaine de bannir les armes autonomes qui seraient pilotées par une IA. 

Mais au milieu de ce brouhaha, les GAFAs continuent de pousser leurs pions - avec le support de startups qui rejoignent leurs "labs" comme à la Station-F (Microsoft) ou à Montréal (Facebook) - lancent des fonds en centaines de millions de dollars, et rachètent des sociétés mais surtout leurs équipes, car le recrutement de talents est de plus en plus compliqué.

Au-delà des questions d'éthique et d'enjeux stratégiques nationaux, d'ailleurs relevés par la France avec une (nouvelle) mission #FranceIA, il n'y a pas de doute que son développement aura un impact sociétal majeur. Ce sera également une rupture clivante dans les entreprises. Il est donc également temps de commencer à prendre en compte ce sujet dans les stratégies d'entreprises.

L'avis du cabinet Gartner avec son classique "hype cycle" sur la "data science" et le "machine learning" nous rappelle que, concrètement, seules l'analyse automatique de photos et vidéos, les techniques d'apprentissage par catégorisation, et la modélisation sont aujourd'hui opérationnelles (pastilles blanches dans la partie droite de la courbe). Ceci qui mènera prochainement à l'analyse de texte, du langage et à la simulation (bleu à droite de la courbe).



C'est une analyse qui tendrait à mettre les projets d'assistants autonomes dans la relation client ("chatbots"), classification automatique de données, d'amélioration des processus par l'analyse d'images ou de vidéos, et l'émergence de centre de pilotage intelligents, dans la catégorie des idées à explorer dès maintenant. 

Elle nous confirme également le nombre de sujets au plus haut sur le pic des espoirs (ou angoisses) les plus fous, comme le "deep learning" quand le programme (et la machine à travers lui) ira au-delà de l'apprentissage assisté. C'est AlphaGo, le programme de Google arrêté cette année, qui a rendu célèbre ces techniques en battant le champion du monde 4 parties contre 1. Depuis, en Corée du Sud, les clubs de Go s'inspirent de la nouvelle façon de jouer d'AlphaGo sur ces 4 parties "uniques" pour renouveler les stratégies humaines et les manuels du jeu de Go.

Au delà du buzz, l'IA est donc suffisamment mature pour rentrer dans les applications de l'entreprise.

Mais qui doit piloter ces initiatives dans l'entreprise ?

L'IA est un sujet amenant une rupture forte, avec un impact social engageant nécessairement la responsabilité de l’entreprise donc de son représentant au plus haut niveau.
On n'imagine pas, par exemple, l'acceptation  des dossiers de crédit d'un conseiller virtuel autonome à base d'IA, en lien téléphonique directe avec les demandeurs, sans que la Direction de la Banque ne soit totalement au fait de ce service.
Pour GreenSI l’IA a donc vocation à être pilotée, au plus haut de l’entreprise.

Est-ce pour autant nécessaire de nommer un « Vice Président IA » ?

À titre provisoire, comme pour le Chief Digital Officer, ce peut être un moyen d'envoyer un signal fort dans l'entreprise sur les enjeux stratégiques associés à l'IA, et de coordonner les réponses de toutes les Directions Fonctionnelles avec un appui en amont :
  • de la Direction de l’innovation pour tester le nouveau paradigme amené par cette rupture, avant d'engager des projets structurés. Ce peut être dans le cadre d’un projet piloté par un Lab interne ou dans un écosystème open-innovation d’acteurs dans l’industrie.
  • de la "communauté data" de ceux qui manipulent déjà les données dans l'entreprise, voire font de la data science. Elle lui sera un autre appui majeur pour faire le lien entre les nouvelles méthodes de l'IA et les cas métiers, donc la capacité à transformer l'entreprise et les modèles économiques.
A terme comme on est bien dans un processus de transformation. L'IA impactera tous les processus de l'entreprise qui sauront générer des données en masse pour alimenter les algorithmes. C'est là que l'internet des objets va jouer un rôle de plus en plus fort pour générer ces données (issues de photos, vidéos, capteurs, ...), en masse, permettant d'optimiser ou de réinventer tous les processus de l'entreprise.

La société SAP, au cœur des ERP, qui outillent nombreux de ces processus, ne s'y est pas trompée et propose déjà "SAP IoT Solutions" de nouveaux processus dans la chaîne logistique digitale, mais également dans ses verticaux industries, exploitant la collecte massive de données IoT et avec SAP Leonardo le "machine learning". Unit4 avec Wanda, Oracle Applications et Sage sont aussi dans la course au chatbot pour interagir avec l'ERP.

À l'image de l'ERP qui se transforme, ce sont donc tous les processus de l'entreprise qui vont potentiellement se transformer et cela va également transformer le système d'information de l'entreprise au sens large.

La DSI est-elle légitime pour mener cette bataille ?

L'IA et son "compagnon IoT" qui l'alimente vont être de bons révélateurs de la transformation de la DSI sur ces dernières années. 

Si la DSI mène déjà la transformation numérique et qu'elle s'est orientée vers le business et vers l'agilité demandée par les secteurs les plus compétitifs de l'entreprise, elle est en bonne position pour accompagner la bataille de l'IA. Ce sera une bataille qui va demander une capture permanente de données en dehors des murs de l'entreprise (là où elle n'est pas très à l'aise) et des services de traitement reposant sur de la puissance de traitement à la demande (architecture data, IoT et cloud).

Si la DSI n’a pas été - ou ne s’est pas - impliquée sur les étapes des relations numériques et de maîtrise des données, elle aura certainement peu de valeur ajoutée pour l’IA qui arrive comme une étape de plus dans la transformation numérique des entreprises.

Comme une partie contre AlphaGo qui a su imaginer des coups jamais joués par les champions, une DSI trop régalienne et trop "prévisible" a peu de chance d'accompagner son entreprise dans cette prochaine bataille qui va demander de jouer des coups non répertoriés dans les manuels de gouvernance et de protection de la propriété intellectuelle et dans la liste des fournisseurs référencés . 

L'IA nous ramène donc à une réalité connue depuis bien longtemps, le SI sert en premier le business, la donnée en est devenue la principale marchandise.

mercredi 13 septembre 2017

Budget 2018: n'oubliez par le "legacy" sous le tapis

Budget 2018: n'oubliez par le "legacy" sous le tapis


C'est généralement à la rentrée que les projets SI se décident. Ils préparent les budgets d'investissements 2018 et vont influencer les futurs coûts d'exploitation à la hausse (nouvelles applications) ou à la baisse (rationalisation, dé-commissionnement...).

C'est donc la bonne période pour se poser la question des priorités et donner du sens à cette évolution du SI. Les développeurs agiles diraient qu'ils définissent le "sprint goal SI 2018", si un sprint d'un an reste encore dans le domaine de l'agilité ;-)

Par expérience, dans les organisations DSI qui sont plutôt conservatrices, ce sont souvent les projets de l'année, que l'on ne veut pas quitter, qui se perpétuent et occupent la majorité du temps de décision. Un projet technique qui dérape ou une conduite des changements métier sous-estimée, voilà deux raisons pour qu'un projet budgété sur 2017 se retrouve également en 2018 sans qu'on ne lui pose plus trop de questions sur ses finalités ou sur son ROI pourtant amputé par le coût du décalage.

En dehors du cadre d'un schéma directeur pluriannuel qui donnerait à l'avance les priorités, cette approche laisse parfois peu de place (et surtout peu de ressources) pour tester les nouveaux sujets comme par exemple l'Iot ou l'IA, deux infrastructures structurantes pour les applications de demain. GreenSI a donc toujours été favorable à "sanctuariser" à priori les budgets d'innovation (en pourcentage par exemple) pour éviter que les urgences du présent empêchent de préparer demain.

Mais ce n'est pas le seul problème d'avoir un présent... un peu trop présent. On en oublie également parfois le passé !

Ce que l'on a tendance à oublier dans cet exercice de budgétisation, ce sont les projets qui concernent les systèmes développés il y a quelque temps et qui n'ont pas été modifiés depuis; appelés souvent "legacy". Après tout ils ont fini par tomber en marche alors on n'y touche plus !

Pour GreenSI c'est une vision avec laquelle il faut être de plus en plus prudent, même si ce n'est pas très porteur auprès des métiers d'expliquer que l'on veut renforcer quelque chose qui pour eux n'est plus un sujet depuis longtemps. Et pourtant l'actualité nous montre que si.


En premier lieu à cause de la sécurité, comme nous l'ont rappelé en 2017 les attaques mondiales par "ransonware" Wanacrypt ou NotPetya.

Car ce "legacy" est peut-être stabilisé fonctionnellement mais il reste techniquement vulnérable en fonction de choix historiques qui ne pouvaient présager l'avenir des plateformes techniques et surtout de leur maintenance par les éditeurs, Microsoft dans le cas présent.

En second lieu quand ce legacy concerne l'ERP, une partie complexe à transformer au cœur de l'entreprise, car elle irrigue de nombreux métiers et processus. Or les risques de ruptures technologiques dans les stratégies des éditeurs augmentent actuellement, ce qui nous ramène au point précédent (le risque d'avoir une plateforme non maintenue). Mais on verra également que l'ERP aura un rôle à jouer dans l'efficacité de l'entreprise digitale qu'il pourrait hypothéquer.

Les cyber-attaques cherchent le maillon faible

Quand en mai 2017 les hôpitaux anglais NHS ont été bloqués plusieurs jours sans pouvoir gérer administrativement les patients, ou que deux semaines plus tard le site Renault de Sandouville a dû être mis à l'arrêt, c'est bien parce les SI de production utilisaient des composants techniques avec des portes dérobées ouvrant sur les milliers d'ordinateurs de l'entreprise. Ce n'était pas la première fois et ce ne sera pas la dernière fois, car l'étanchéité de ces systèmes ne sera jamais totale. Il vaut donc mieux considérer que ça va revenir et s'y préparer.

Comment? En ne laissant pas au hasard (et aux seules décisions métiers) la capacité à maintenir le socle technique des applications installées lors du lancement des systèmes. Ce socle technique devant être maintenu et mis à jour régulièrement, cela va relancer les projets de rationalisation par une réduction du nombre de technologies employées et surtout de ne garder que technologies maintenues par les éditeurs. Voilà donc déjà une idée pour 2018, certainement moins glamour que de connecter le CRM avec un chatbot, mais peut être plus rentable si les attaques reviennent...

Ceci remet donc sur le devant de la scène la capacité de l'entreprise à développer ses applications sur un socle technique commun, plus facile à sécuriser et à cloisonner,.. et non un socle technique par application, au grès des sous-traitances à tel ou tel fournisseur choisi pour être moins disant.


En y ajoutant un soupçon de "cloud", on peut également s'intéresser à créer une "Plateform as a Service"(PaaS), de préférence open source, pour éviter de dépendre du choix des éditeurs de stopper ou pas le support selon leur intérêt à ce que vous engagiez la migration sur une autre version.

L'ERP, socle back-office du monde digital

L'autre raison de regarder son legacy de près c'est de se préparer à une éventuelle mauvaise nouvelle du côté de votre ERP !

Avec la transformation numérique des organisations on aurait presque oublié que l'ERP, avec sa base de données unique pour toute l'entreprise et ses processus transverses, est le fondement de la stratégie SI et de l'efficacité des processus internes, fussent-ils back-office.

Or cette efficacité se révèle être un facteur clef dans la transformation numérique qui digitalise les processus et les étends au-delà de l'entreprise et au-delà des terminaux standards de l'entreprise.

Vous pensiez peut-être qu'Amazon n'était qu'un portail ? C'est surtout une machine logistique totalement automatisée, exploitant des robots dans ses entrepôts pour aider ses employés à tenir la cadence des commandes, et s'engager sur les délais jusqu'au point ultime de livraison de votre appartement au 13em sans ascenseur. La force d'Amazon est donc autant dans son front-office que dans la performance de son back-office à répondre aux engagements pris avec les clients.

On ne peut donc se résoudre à simplement garder son ERP "en l'état", parce qu'il est tombé en marche, sans se questionner sur son rôle à 3-5 ans quand les processus seront totalement numérisés.


Or l'ERP a quelques faiblesses potentielles dans ce nouveau paradigme, comme celui d'être fermé sur lui-même (par construction), de s'intégrer difficilement et de garder jalousement ses données.

C'est certainement un handicap pour pouvoir innover rapidement avec de nouveaux produits ou services numériques sans avoir à le faire évoluer. En effet, les projets ERP restent toujours très risqués (cf. Chaos report) et 1 projet sur 3 ne respecte pas ses délais, son budget ou ses fonctionnalités, s'il n'est pas arrêté avant.

D'autre part une étude CXP de 2014 montre que  plus d'un ERP sur deux en France est âgé de 5 à 10 ans (54 %) et près d'un tiers (29 %) est installé depuis plus de 10 ans. Seules 16 % des installations datent de moins de deux ans. Les modules déployés le plus souvent étant la comptabilité et les achats, dans 73 % des cas chacun, puis la gestion commerciale (67 %), la gestion financière (51 %) et la gestion de production (43 %). Des sujets qui sont au cœur du fonctionnement de l'entreprise, même digitale.

Autre risque, les ruptures technologiques et la migration vers le Cloud demandent aux éditeurs des investissements importants pour faire évoluer leur progiciel. Une obligation que la concurrence des nouveaux entrants leur rappelle tous les jours. Les éditeurs avec une base installée plus faible, ou sans recapitalisation, risquent d'avoir du mal à financer cette bascule technologique en même temps que le passage vers un modèle à l'usage.

Deux exemples d'évolutions où l'ERP "traditionnel" est challengé :
  • Le CRM est un module qui a déjà basculé du côté des domaines où plus d'une vente sur deux est en SaaS. Les éditeurs n'offrant pas de SaaS sont condamnés à court terme.
  • Les objets connectés vont aussi permettre de rendre plus performant les processus avec plus de données pour les piloter, encore faut-il que ces données soient connues de l'ERP. L'ouverture de l'ERP, la création d'un écosystème autour de l'ERP sont deux sujets prioritaires à l'agenda des éditeurs qui proposeront demain les fonctionnalités les plus avancés.
Certains cabinets de conseil comme IDC vont même jusqu'à prédire l'arrivée d'une plateforme ERP post-digital (i-Erp, the new backbone for digital transformation).

En conclusion, que ce soit à cause de la sécurité de la plateforme technique, du risque d'obsolescence d'une solution éditeur ou des freins à automatiser des processus totalement numérisés depuis le smartphone du client, il y a certainement un intérêt à toujours regarder dans le rétroviseur si les systèmes d'hier suivent toujours.

mardi 5 septembre 2017

Quand Agilité rime avec Sécurité

Quand Agilité rime avec Sécurité


Tous ceux qui ont mis en place des projets agiles savent qu'ils vont se heurter au frein de ceux qui n'adoptent pas cette démarche. Ceux qui privilégient une approche d'étude globale avant toute réalisation ont du mal à comprendre ceux qui avancent par itérations successives, validées à chaque sprint par la satisfaction des clients ou des utilisateurs.

Dans ces multiples freins on trouve la sécurité, souvent mise en avant comme incompatible avec l'agilité.

En effet, comment arriver à faire homologuer avant la mise en service la sécurité d'un système qui va être spécifié, construit, testé et mis en production par morceaux ? La démarche de sécurité semble difficilement compatible avec les projets agiles. 

À tel point que certains projets agiles ont certainement du avancer en dehors de l'homologation fixée par la sécurité, sous couvert d'expérimentation ou de priorité stratégique, pour tester de nouveaux services et sans mettre en place dès le démarrage une sécurité disproportionnée avec les enjeux du pilote engagé.

Entre deux enjeux majeurs - la transformation numérique et la cybersécurité - l'entreprise doit parfois choisir le plus important des deux pour assurer sa survie : la transformation numérique ! C'est elle qui va permettre de maintenir ses revenus dans cette nouvelle économie incertaine, quitte à faire l'impasse dans un premier temps sur la démarche sécurité, le temps d'assurer l'installation des nouveaux services numériques, et y revenir ensuite une fois les premiers objectifs atteints.

Alors comment réconcilier ces deux démarches sans que l'une ignore l'autre ?

Et bien cet été, c'est l'ANSSI, l'Agence Nationale de Sécurité des Systèmes d'Information créée en 2009, qui en a certainement surpris plus d'un en publiant une note en version bêta sur comment "Intégrer la sécurité numérique en démarche Agile ?".
Cette initiative est saluée par GreenSI via ce billet pour de nombreuses raisons.

Tout d'abord elle démontre comment un organisme de gouvernance, au lieu de se cacher derrière le caractère régalien de sa mission, reconnaît l'évolution amenée par le digital et l'efficacité de l'agilité pour y répondre.

Ainsi, elle fait avancer la réflexion et propose d'y répondre en conservant l'objectif de sécurité à atteindre, mais en ouvrant un autre chemin pour s'y rendre.

Cette démarche conforte tous les RSSI - Responsable de la Sécurité des SI - qui ont déjà choisi de déchausser leurs "bottes régaliennes" pour se mettre au service des métiers. Ces RSSI sont passés du contrôle au conseil et aident les métiers à mettre en oeuvre les nouveaux systèmes souhaités au lieu de simplement en refuser les dossiers de conception quand ils ne respectent pas les attendus, même quand ces attendus sont discutables dans la nouvelle économie.

Ensuite, elle propose aux professionnels de l'informatique de consulter une version de ce document pour appel à commentaires. L'ANSSI propose de confronter sa vision au retour d'expérience pratique de mise en oeuvre dans les projets des entreprises publiques ou privées.

GreenSI trouve cette co-construction ouverte très innovante et complémentaire des travaux qui peuvent se tenir dans les commissions de groupes de DSI comme le Cigref.

Enfin, la démarche proposée est simple et pragmatique. Elle vise à répondre à une contrainte réglementaire d'homologation en contournant l'approche traditionnelle. Pour cela elle s'inspire de l'agilité, en adopte le fonctionnement, et adapte la démarche sécurité pour intégrer ces projets construits de façon itérative avec des cycles "Dev et Ops" qui s'enchaînent. La mécanique de comment intégrer cette démarche dans les sprints et les activités de développement est très bien détaillée. Globalement cela repose sur deux principes.

Le premier principe proposé est celui d'adapter le niveau de sécurité aux enjeux du projet.

Quand un projet se construit de façon itérative, ce niveau de sécurité va monter progressivement, mais surtout commence au bon niveau.
Si votre premier sprint consiste à mettre en production une page blanche avec inscrit dessus "Hello world!" (pour valider la chaîne de construction par exemple), vous imaginez bien que même si un hackeur s'empare de la page, l'impact pour l'entreprise est quasi nul et ce système n'aura pas été connecté au reste du SI. 

Dans le paradigme classique de la sécurité, l'affichage de cette page (et donc le test de la chaîne de bout en bout) n'aurait pu se faire qu'une fois l'ensemble du système homologué et le système de sécurité complet des serveurs mis en place... Même si finalement cette réponse sécuritaire porte sur 99% de fonctions encore non développées !

A la clef, le time to market, car pendant que l'on étudie et on imagine des solutions pour des problèmes qui ne sont pas encore posés, les concurrents avancent et les startups innovent. 

Le second principe est de traiter les risques de manière rigoureuse et itérative pour tendre vers l'exhaustivité.

C'est l'agilité adaptée à l'identification des risques ; mais en réajustant les objectifs de sécurité à chaque itération et en intégrant les risques induits par les interactions entre composants au fur et à mesure qu'ils sont présents ensemble dans le système. Les fameuses 99% de fonctions non développées qui passent par la page "Hello world!" n'induisent pas leurs contraintes à cette page tant qu'elles ne sont pas développées.

Les premiers retours d'expérience des professionnels de la sécurité sur le site de consultation ouvert par la DINSIC montre une très bonne réception à la fois de la démarche de co-construction de l'ANSSI, et de la nouvelle démarche de sécurité agile. Beaucoup remercient également la publication et la clarté du document d'accompagnement "Outils et bases de connaissance"qui pose les bases de la sécurité numérique.

GreenSI pense même que cette démarche peut renforcer la sécurité finale obtenue par rapport à une approche traditionnelle. Non pas que l'analyse soit plus poussée, mais parce que les femmes et les hommes de ces projets vont tout simplement collaborer et non s'affronter quand l'approche régalienne instaure des hiérarchies de pouvoirs.
  • La démarche agile demande un niveau de compréhension de la sécurité par les développeurs et l'équipe projet plus élevé que dans la démarche classique ; donc demande plus de dialogue entre développeurs et l'équipe sécurité.
  • De plus comme elle est itérative, à chaque itération ce dialogue va permettre l'amélioration continue, et de revenir à la marge sur les choix du sprint précédent. Les développeurs agiles font déjà cela pour l'architecture logicielle avec le "code refactoring" qui consiste à rendre générique au sprint suivant des parties du code qui avaient été produites au départ pour un seul cas, sans changer les fonctionnalités produites.
Sans aucun doute, c'est donc un processus à la fois beaucoup plus responsabilisant et très formateur à la sécurité pour les équipes projets qui améliorera la sécurité des nouveaux systèmes produits de cette façon. Bien sûr elle va demander plus de ressources aux équipes sécurité en revenant régulièrement sur des dossiers qu'ils ont l'habitude de traiter en une fois. Mais a priori c'est bien leur mission que d'améliorer la sécurité globale des systèmes donc d'explorer toutes les méthodes pour y arriver, et pas d'en imposer une à priori.

Cela n'est pas sans rappeler la démarche DevOps, quand les Développeurs et les Opérations ont commencé à se parler et ne plus se retrancher derrière les dogmes de chacun de ces métiers (comme celui des évolutions du SI globales et par paliers).

L'agilité démontre une fois de plus sa capacité de transformation des organisations. Elle est ici en train de transformer une interface de plus dans le processus collaboratif de construction du logiciel, celle entre la conception et la sécurité, car comme GreenSI aime bien l'écrire, l'agilité c'est dans toutes les directions

Alors, allez vite contribuer et poster votre commentaire sur le document de l'ANSSI avant le 15 septembre. Dans 5 ans quand l'agilité sera devenue une évidence pour toute monde, vous pourrez dire "j'y ai contribué !".
Ne ratez pas non plus les "Assises de la sécurité 2017" qui auront lieu le mois prochain. 


La conférence d'ouverture sera tenue par Guillaume Poupard, le Directeur Général de l'ANSSI qui "pitchait" cette semaine à l'université d'été du MEDEF pour rappeler aux patrons d'entreprises que la sécurité était d'abord leur sujet, avant d'être celui de leur RSSI.
Maintenant c'est au tour de ces RSSI de montrer qu'ils savent répondre aux enjeux d'agilité du business.

lundi 24 juillet 2017

IoT: sortir de l'Internet des Silos

IoT: sortir de l'Internet des Silos

Il ne passe pas un jour sans qu'on entende parler du dernier saint Graal: la plateforme IoT.

Une plateforme qui connectera tous les objets de l'entreprise, en remontera les données via un réseau et exposera ces données sous la forme d'API prêtes à s'intégrer dans vos applications ou sous la forme d'un tableau de bord prêt à l'emploi. L'internet des objets serait donc en train de réaliser sa promesse de 30 à 50 milliards d'objets en 2020 et surtout des milliards d'économies en performance industrielle et nouveaux services ?

Mais ce qui ne rassure pas GreenSI ce sont toujours les discours un peu trop marketing, avec des idées simplistes qui sèment la confusion chez les décideurs IoT, qu'ils soient en train d'urbaniser leur "smart city" ou de moderniser leur "usine 4.0". Ce billet va essayer d'éclairer une de ces idées, souvent poussées par ceux qui auraient un intérêt à ce qu'elles se réalisent...

L'internet des objets sera interopérable

Pour GreenSI, dans l'idée même de l'internet des objets, donc une nouvelle ère de l'internet qui va connecter à l'échelle de la planète les objets en plus des humains, la notion d'interopérabilité finira par s'imposer. 

Un feu rouge ou un réverbère de marque X devra pouvoir envoyer des informations à une plateforme Y par le réseau Z. Cette interopérabilité sera soit "restreinte" au sein de grands écosystèmes qui auront décidé de partager des standards communs, soit native par l'émergence de standards plus globaux comme dans la v1 de l'internet avec IP ou Http.

A la clef, notamment au niveau des équipements et des réseaux, la capacité de trouver les business modèles qui financeront cet internet avec des logiciels plus intelligents qui dégageront des économies ou de nouveaux revenus en exploitants ces nouvelles données.

Sans cette valorisation, l'internet des objets sera stérile et surtout non financé, mais  comme pour la ruée vers l'or il aura enrichi les vendeurs de pioches.

On se souvient il y a 30 ans du hardware "PC compatible IBM" qui en se déployant a été le fédérateur de l'industrie logicielle qui a pu se développer comme on l'a connue par la suite.

Si cette interopérabilité n'arrive pas, l'internet des objets risque d'être réduit à un "Internet des silos" comme l'appelait Philippe Krief de la fondation Eclipse dans une de ses conférences.

Des silos comme aujourd'hui les distributeurs automatiques de billets (DAB), ces objets connectés partout en ville depuis 30 ans qui continuent de ne délivrer que des billets, avec une interopérabilité limitée aux banques - on peut retirer des billets dans le DAB d'une banque en ayant un compte dans une seconde - alors qu'en 30 ans ils auraient pu devenir multi-services et générer des revenus additionnels (au delà du chargement des cartes de mobiles).
Tous ceux qui ne jurent que par une plateforme unique, voir un duopole, ont certainement l'agenda caché de vouloir reproduire le réseau des DAB et de vendre de pioches.

Le billet publié cette semaine sur Les Echos pour "Faire de la France un nouveau laboratoire mondial de l'Internet des objets" a attiré l'attention de GreenSI.

La première vision simpliste de ce billet est de ne mettre en avant que la partie réseau alors que la plateforme IoT commence bien sûr par les objets. Et la France regorge de Fablabs pour les fabriquer, c'est une compétence reconnue et enviée, comme avec celui #FrenchTech d'Orléans : le Lab'O.

La France a aussi un mouvement des "makers" très dynamique et même d'une Citée de l'objet connecté à Angers, également #FrenchTech, une ville qui va accueillir en octobre 2017 le prochain WEF, le forum mondial de l'électronique, une technologie de base de l'IoT. L'atout de la France sur ce premier niveau du modèle IoT est donc certain. Sur le niveau des applications également il ne fait aucun doute.
 

La seconde vision simpliste est surtout de limiter les réseaux connectés aux objets à deux réseaux, Lora et Sigfox, ceux qui ont certainement les budgets marketing les mieux fournis.

Pourtant l'IoT en France et l'avenir de l'Internet ne s'écrira pas avec seulement ces deux sigles, souvent seuls cités par la presse. Même en France ça n'est déjà plus le cas quand on analyse les usages dans le détail et aux États-Unis l'histoire reste à écrire.
 

Il y a bien sûr de multiples moyens de connecter les objets industriels en commençant par le Wifi 802.11 où la bonne vielle carte SIM en 3G ou 4G. Et puis ce serait oublier les réseaux déjà en place dans les villes pour télé-relever en France les compteurs d'eau et de gaz (LPWA 169Mhz) et qui sont autant d'atouts pour la France comme laboratoire de l'IoT pour tous les usages dans l'environnement ou pour la performance énergétique quand on recherche une longue portée et une très faible consommation d'énergie ou capter à l'intérieur des bâtiments.

Sans compter comme nous le rappelle l'analyste Gartner, les réseaux qui arrivent prochainement à maturité comme la 5G ou le NB-IoT et qui vont redistribuer les cartes. Les standards sont donc encore largement ouverts.



Sur le long terme, la question de la technologie réseau est surtout celle de sa pérennité pour l'entretenir et maintenir un coût d'accès (abonnement) abordable

La pérennité des acteurs financés par des levées de fonds sera fonction de l'atteinte rapide des objectifs commerciaux fixés par les actionnaires. A l'inverse avoir une première base installée d'usages stables comme le comptage des fluides et une roadmap de déploiement du réseau financée pour cet usage jusqu'en 2022, avec des engagements jusqu'en 2042, est certainement un atout solide pour la longue portée 169MHz et son Alliance Wize. La technologie n'est donc pas tout dans ces choix, l'existence de suffisamment de clients avec des usages sur le moyen-long terme est aussi essentiel.

Alors pour ne pas tomber systématiquement dans la simplification, l'image à garder pour le moyen terme c'est d'imaginer l'internet des objets comme un internet interopérable à trois niveaux, les objets, les réseaux (via des gateways) et les plateformes pour développer les usages.
Il y aura des milliards d'objets mais aussi des dizaines de réseaux disponibles sur un territoire, et c'est tant mieux pour réduire les futures zones blanches et choisir le réseau le plus adapté en fonction des usages souhaités.

Un internet des objets plateforme de développement

L'Internet des objets doit être également être vu comme une plate-forme de développement aussi diversifiée et interopérable qu'innovante. Il impacte déjà les architectures des SI pour intégrer le temps-réel et la sécurité et fait en fait émerger de nouvelles.

Diversifiée car comme pour les réseaux, il serait illusoire de croire qu'il n'y aura que quelques plates-formes sur lesquelles on pourra développer les technologies de l'IoT.
L'histoire des GAFAs qui ont dominé l'Internet 1.0 et 2.0 avec leurs plateformes mondiales centralisées ne sera pas facile à reproduire pour l'Internet des objets car il faudrait être à la fois leader sur le matériel, de la voiture au bracelet montre en passant par la machine outils, et en même temps sur le logiciel dans tous les métiers de l'entreprise.

Android a certes pris un temps d'avance mais Android est ouvert et pour l'instant son modèle n'est pas celui du contrôle.

L'analyste IDC présente un classement des éditeurs de plateformes, qui se verraient bien en nouveaux GAFAs de l'Internet des objets: IBM Watson, PTC Thingworx, GE Predix...

Des plateformes qui sont fonctionnellement redondantes en partie avec les services offerts par ceux qui opèrent les réseaux pour gérer les objets ou les configurer. En revanche elle vont plus loin sur le traitement des données et les tableaux de bords temps réel.

Mais comme trop souvent dans ces classements d'analystes, les solutions open source sont oubliées. Ce graphique n'est donc pas complet et les revenus de ces éditeurs ne sont pas pertinents pour apprécier les leaders d'une chaîne complète "objet - réseau - plateforme - applications smart".

Or dans l'Internet des objets l'open source est omniprésent dans les choix logiciels mais aussi matériels, par exemple avec la plateforme de cartes Arduino, un standard ouvert qui permet de faire des prototypes d'objets ou avec le Raspberry Pi sous Linux pour plus de puissance de calcul embarquée. 

La société Smile a d'ailleurs écrit un ouvrage pour recenser les solutions open source pour l'IoT et un autre pour les solutions Linux dans des systèmes embarqués. On pourra y vérifier le poids de l'open source.
Côté logiciel on va retrouver l'incontournable Node-RED qui permet de créer le "câblage numérique" nécessaire pour les données le long de ces nouvelles chaînes de mesures. Un code qui s'exécute ensuite soit dans l'objet soit dans le Cloud.


Ensuite côté portails ou applications mobiles pour développer les usages et valoriser les données, l'open source a déjà démontré sa capacité à être une plateforme incontournable pour de simples applications web (Symfony2, Angular, ...) à l'analyse des données massives (Hadoop, Spark...).

Donc pour échapper au chant des sirènes marketing, la bonne question à poser aux vendeurs de technologies est finalement  simple: comment votre solution est interopérable horizontalement avec vos pairs et verticalement dans la chaîne de communication ? 

Si elle ne l'est pas aujourd'hui, elle devra l'être demain, sinon les projets IoT termineront dans les limbes de "l'internet des silos". Des silos souvent relayés par la presse et les analystes qui aiment bien les histoires simples, mais après les premiers prototypes, ces histoires simplistes pourraient mal se terminer pour les investissements à long terme.