mardi 20 juin 2017

#Hyperlean : pourquoi l'exécution est devenue la stratégie

#Hyperlean : pourquoi l'exécution est devenue la stratégie


Spécialiste de la stratégie des SI, en charge de la gouvernance dans une grande DSI, je suis tombé dans le lean quand nos clients nous ont poussé à accélérer notre rythme de l'innovation.

Il ne s'agissait plus de définir la stratégie puis de l'exécuter "tranquillement" comme un plan quinquennal, et comme tous les ouvrages de gouvernance SI l'expliquait, mais progressivement la stratégie devenait exécution et la vision à long terme prenait le pas sur le plan.

Au niveau des équipes cela se traduisait par de l'agilité dans les projets et comme personne n'est parfait, par de l'amélioration continue.

Le cloud et le digital étaient devenus des moteurs d'une transformation des business modèles et des processus de l'entreprise, beaucoup plus profonde et radicale que le changement de technologie qui était supposé au départ. Les objets connectés et le nouvel internet qu'ils amènent ne vont que l'amplifier.


Cette histoire personnelle commencée en 2012 et dans laquelle ce blog GreenSI, témoin de cette transformation a été initié, a croisé Cécil Dijoux en 2014 quand j'ai eu besoin de comprendre et de pratiquer le lean avec mes équipes dans le cadre d'un projet de transformation.

Cécil est un excellent coach!

Cécil publie aujourd'hui #hyperlean, un ouvrage qui décrypte et simplifie les rouages de la réalité de cet univers digital : lentes adoptions, rapides innovations, expérience utilisateur, manager, désintégration de la DSI, ...

Des rouages que GreenSI décrit régulièrement dans ses billets. Mais ce qui est novateur dans cet ouvrage, c'est de montrer comment la pensée Lean est LA solution pour mettre en oeuvre les principes stratégiques d’agilité et de perfection d’expérience client requis par le numérique.

Déclinés par les géants du web et un grand nombre des pratiques du numérique (méthodes agiles, Lean UX, Lean Start-up etc …) les principes de ce système de management robuste et vertueux sont adaptés à cette époque de grande incertitude.

Le numérique est aussi un enjeu de management et le manager doit guider ses équipes et son entreprise dans ce nouvel univers?

chap 8 - copyright - Xsmall

#hyperlean est disponible sur Amazon et je vous le conseille vivement. Alors bonne lecture !
La transformation numérique au service de la transition énergétique

La transformation numérique au service de la transition énergétique

Cette semaine on ne pouvait pas rater Viva Technology qui revenait, pour sa seconde édition, faire vibrer l'innovation et la technologie mondiale au cœur de Paris, avec quand même une majorité de pépites françaises
.
Mais la technologie n'est rien sans les usages, fusse t-elle un feu d'artifice.

Il était facile de l'oublier en parcourant ces allées occupées par des robots, des drones, des applications les plus folles de réalité virtuelle ou en écoutant le brouhaha des promesses de l'Intelligence Artificielle. Comme pour un 14 juillet, ce fut une parade de l'innovation et de technologies qui démontre la capacité de mobilisation de la France autour du numérique.

Maintenant, imaginons cette déferlante d'innovations, de technologies, et d'énergie de nos jeunes startupeurs, se pencher sur un problème concret qui concernera plus de 70% de la population mondiale en 2050, les citadins. On se dit que rien ne pourra lui résister.

Ce problème c'est celui de l'environnement et de la transition énergétique qui est devant nous mais donc les premiers signes sont déjà visibles : congestion du trafic, pollution de l'air, boulimie énergétique... autant de problèmes communs que les grandes villes vont devoir résoudre.

Les troupes mobilisées pour le résoudre c'est celles de DataCity, coordonnées par le NUMA, pour mobiliser l'intelligence et l'innovation des petites et grandes entreprises afin de réinventer les villes en exploitant leurs données.
Les données, on en parle tout le temps - et personne ne contestera l'entrée dans l'ère de l'économie de la donnée - mais comment les mobiliser collectivement pour une cause commune est la question moins triviale à laquelle s'est attachée ce programme.

DataCity, programme d'innovation ouverte, est donc cette idée simple que la mise en commun des données au niveau d'une ville permet de la réinventer en développant de nouveaux services et en optimisant globalement son fonctionnement. 

C'est par exemple l'analyse de la localisation des tweets la nuit, ou des données (anonymes) des opérateurs permettant d'optimiser l'éclairage urbain là où il y en a besoin, ou d'identifier les lieux de vie nocturne pour adapter l'offre de sécurité à ces zones. Autre exemple, quand la circulation individuelle baisse en ville, ce bénéfice est effacé par l'augmentation annuelle de 15% du e-commerce et des livraisons, de plus en plus rapides. Comment optimiser ces livraisons ?

D'une façon générale les villes ont besoin de mieux connaître en temps réel et à long terme les flux urbains, ouvrant par là de nouveaux modes de gestion et d'organisation des services pour optimiser ces flux, mais aussi délivrer de nouveaux services aux habitants comme pouvoir leur dire s'il est déjà trop tard pour sortir leur bac poubelle ou si le camion n'est pas encore passé.

C'est donc le 6 juin, dans une salle des fêtes de l'hôtel de ville pleine à craquer (plus de 600 personnes) qu'Anne Hidalgo, Maire de paris, a ouvert le "Datacity Demo Day", la cérémonie qui a motivé toutes ces équipes pendant 8 mois pour venir en ce jour y présenter fièrement leurs résultats.


Y sont venus des projets qui mixent toutes les technologies disponibles et toutes les données des opérateurs de la ville, pour de nouveaux usages qui réinventent la mobilité en ville ou l'efficacité énergétique des bâtiments et de la ville toute entière.

Au sein de ces projets se trouvaient des startups qui ont choisi de confronter leurs innovations et leurs technologies à des cas concrets et de relever les défis posés dans chaque domaine par 9 grandes entreprise. 
Ces dernières sont opérateurs ou aménageur de la ville (5 pour la première édition en 2015), comme Bouygues Energie Services, La Poste, Nexity, RATP ou Suez.

Une façon de passer de la technologie à l'usage et en alignant les défis à la cause plus grande de la durabilité de la ville, de faire que chacun contribue à cet objectif commun.

A l'issue de ces tests de prototypes par les startups, les entreprises et la ville de Paris bénéficient des solutions, et les industriels envisagent de déployer ces systèmes dans d'autres villes où ils sont présents.

L'économie mondiale de la donnée ne s'arrête donc pas à la grande porte de la ville.

Pour inventer les services urbains il faut maintenant analyser les grandes bases de données, du public ou du privé, avec beaucoup de données locales. C'est là que les nouvelles technologies de "machine learning" prennent de l'importance.
 

Mais les challenges à cette démarche sont énormes, comme ceux de la protection des données personnelles, du respect de l'intérêt général.

Et en même temps, les salaires des datascientists s'envolent et les économies d'échelle risquent de ne faire émerger que quelques plateformes mondiales (américaines ?) qui seules auront les algorithmes les plus avancés.
Mais le défi est relevé par les villes et une approche collective et coopérative avec les opérateurs est certainement une réponse à ce challenge. Cette démarche DataCity dépasse la seule logique d'opendata généralement mise en oeuvre, car elle la couple à une démarche d'open innovation et lui cherche un modèle économique.

Ce DemoDay ne pouvait d'ailleurs pas mieux tomber juste après l'annonce, contestée partout dans le Monde, du Président américain, de ne pas appliquer l'accord de Paris sur le climat. Le C40 qui réunit les 40 plus grandes villes mondiales, dont la Maire de Paris assure actuellement la présidence, a décidé de riposter et de maintenir ses engagements pour le Climat. Dans les outils à leur disposition, le programme DataCity, déjà répliqué à Casablanca, va donc être amené à être déployé dans ces villes.

La façon dont les données - et tout le numérique - peuvent être mobilisées pour contribuer à atteindre des objectifs environnementaux n'est pas nouveau, mais GreenSI pense qu'elle est maintenant mieux perçue par tous.

Le numérique est le moteur qui fait émerger, en masse, un ensemble de solutions, sans pour autant trouver leur origine dans la réponse à un problème commun. Une "cacophonie technologique" de plus en plus palpable à travers la presse et les salons spécialisés.
De plus, le numérique a encore plus de potentiel avec le passage de l’internet que l'on connaît, à celui des objets connectés et de l'analyse en masse des données par des algorithmes permettant des analyses de plus en plus rapides voir prédictives.

La transition énergétique est un défi commun dont il manque parfois un moteur pour en construire des réponses. Les accords internationaux sont essentiels pour mettre en marche ce moteur et les villes sont en train de prendre le relais. 

Le numérique est donc sans aucun doute un des moteurs de la transition écologique.

Mais le numérique va devoir aussi répondre au problème qu'il créée lui-même en terme de déchets électroniques et de consommation énergétique.

Pour cela, le numérique devra devenir plus vert (Green IT), un sujet pour GreenSI pas encore assez sous les projecteurs de la presse ni enseigné dans les écoles, et surtout en mettant ses technologies au service d'une gestion plus efficace et plus durable des ressources (IT for green) comme DataCity a démontré par deux fois que c'était possible.

Ce que l'on observe avec cette démarche, au-delà de la technologie, c'est l'émergence d'écosystèmes tout aussi essentiels qui travaillent ensemble et se coordonnent. La feuille de route du numérique dans la ville devrait donc se construire autour de trois axes pour "motoriser" la transition énergétique:
  • des données ouvertes, pour trouver une utilité collective et des services concrets, au-delà des discours de souveraineté et d'égos parfois portés par l'open data.
  • des outils « smart », qui s'appuient sur ces données pour optimiser les processus et imaginer de nouveaux usages. L'économie collaborative a montré la voie et à déjà changé la façon de se déplacer avec le co-voiturage.
  • mais surtout des approches « agiles », donc itératives au niveau local, en réponse à la complexité et l’interdépendance des écosystèmes concernés. Il faudra certainement inventer un nouvel urbanisme pour concilier la planification long terme et l'agilité à court terme.
La ville de demain sera nécessairement durable et la transformation numérique est déjà à son service pour relever le défi. Souhaitons-lui qu'elle réussisse.

mardi 6 juin 2017

Va-t-on assister à une bataille pour les données des machines?

Va-t-on assister à une bataille pour les données des machines?

Avec le digital les données prennent de la valeur. Avec les objets connectés leur volume augmente exponentiellement et les batailles pour s'en emparer s'organisent, c'est du moins ce que pense GreenSI.

Dans le B2C, les données du grand public sont généralement considérées comme des données personnelles et sont à ce titre protégées par une réglementation qui s'adapte et se renforce en Europe (GDPR). Quand les GAFAs créent des business pour les valoriser, ils obtiennent ces données des consommateurs eux-même qui leur en abandonnent les droits, volontairement ou forcés, en échange de services.

La propriété des données d'exploitation

Mais dans le monde des machines et des actifs des entreprises, qui est réellement propriétaire des données ?
La question de la propriété peut paraître étrange, mais nous passons d'un monde où personne ne s'en souciait à un monde ou tout le monde va les réclamer. Et pour GreenSI ce changement de paradigme va révéler des trous dans les règles de gouvernance des données et les moyens pour les protéger ou les partager. La propriété des données des équipements industriels utilisés dans les chaînes de production des entreprises va certainement être un nouveau défi à relever pour beaucoup d'entreprises et certainement pour leur DSI.


En effet, dans l'industrie, la performance des actifs (machines, équipements industriels, ...) est au cœur du modèle économique de l'entreprise. Ce sont les bénéfices de l'IIoT - Industrial Internet of Things.

Nous avons vu dans le billet précédent qu'avec le développement de l'internet des objets - IoT - notamment dans le Cloud, que la maîtrise en temps réel des données des machines devenait un axe important de développement des systèmes d'information de contrôle de cette performance industrielle. 

La question de savoir à qui appartiennent les données est donc liée à qui bénéficiera de cette nouvelle performance.

Et ce qui est vrai dans l'industrie l'est aussi dans beaucoup d'autres industries où les actifs immobilisent des montants importants comme dans l'aéronautique, l'immobilier, ou chez les opérateurs de services urbains (opérateurs des réseaux de distribution, usine de production des utilités,...).

C'est un exemple célèbre revu cette semaine pour expliquer le digital qui m'a fait prendre conscience que la réponse à cette question de la propriété n'était finalement pas si anodine que cela pour la stratégie digitale des entreprises industrielles.
Cet exemple, c'est celui du changement de business modèle des fabricants de moteurs d'avions comme Pratt & Whitney ou GE, qui offrent maintenant la possibilité d'acheter, non plus des moteurs, mais des heures de vols. Le moteur des avions des compagnies aériennes peut donc se louer avec la responsabilité pour le fabricant de le maintenir en permanence en fonctionnement. Pour cela, le fabricant collecte toutes les données de vol sur les avions en exploitation ce qui lui permet avec des techniques informatiques de prédire les interventions de maintenance (voir la vidéo ci-contre).

Avec l'IoT, on assiste donc à la volonté des fabricants d'équipements de garder un accès exclusif aux données pour gérer la maintenance et transformer leur modèle économique.


Mais si l'entreprise fait l'acquisition de l'équipement, elle peut aussi souhaiter garder le contrôle sur ces (ou ses ?) données pour organiser elle-même sa maintenance et peut-être les protéger, car elles peuvent en dire long sur son activité. Imaginez les données d'une chaîne de production d'une entreprise, accessibles par le fabricant des équipements de cette chaîne, qui pourraient arriver, par mégarde ou par revente si rien ne l'interdit, chez les concurrents et les renseigner sur l'activité de l'entreprise via ses données de production.
Bref, comme avec les données personnelles, on peut partir d'une bonne intention mais le diable se cache dans le détail... de l'analyse !

Et puis, entre le fabricant et l'entreprise utilisatrice, peut aussi venir se glisser une société spécialisée dans la maintenance, qui va avoir le même appétit pour ces données car elle pourra les croiser avec des données semblables provenant d'autres fabricants et d'autres entreprises pour lesquelles elle assure le service. Elle va par là créer de la valeur potentielle pour l'entreprise utilisatrice - benchmarks - mais pouvant concurrencer le fabricant, voire aussi révéler des secrets de fabrication.

Pour GreenSI, à l'avenir, les fabricants, les mainteneurs et les utilisateurs, pourraient donc être tentés de vouloir chacun maîtriser les mêmes données de fonctionnement des équipements...

La propriété des modèles

Mais on peut aussi trouver des conflits d'intérêts dans les modèles (2D, 3D, ...) qui représentent (avec des données) l'équipement, son fonctionnement, et ce jusqu'à pouvoir en simuler le fonctionnement virtuellement.

C'est une autre tendance qui se dégage et qui a fait l'objet de la conférence de l'éditeur de Thingworx (PTC) il y a deux semaines, LiveWorx 2017 : l'ère de la convergence entre les actifs digitaux et physiques. 

Les technologies telles que l'impression 3D, la réalité augmentée, la réalité virtuelle, ou l'IoT temps réel ouvrent de nouvelles portes tous les jours entre ces deux mondes, réels et virtuels. Les équipements physiques sont maintenant couplés à leurs modèles numériques et on pourra de plus en plus indifféremment agir sur l'objet ou sur son modèle numérique.


L'aéronautique est très en avance et le prochain "Paris Air Show" fin juin, avec ses exposants venus du numérique, sera l'occasion de faire le point sur l'état de l'art de cette convergence avec un billet GreenSI.

Un concept qui va toucher de plus en plus d'industries et on le retrouve déjà dans la construction avec le BIM - Building Information Modeling - cette notion de partage d'une maquette numérique tout au long du cycle de vie du bâtiment. 

Ainsi, la maquette numérique créée par l'architecte (et rendue obligatoire pour les grands appels d'offres internationaux) est ensuite utilisée et mise à jour sur le chantier de construction, puis transmise à l'exploitant de l'ouvrage jusqu'à sa déconstruction pour en réutiliser les matériaux.

Les actifs numériques , comme les maquettes numériques, ont donc vocation à se développer. La protection des actifs physiques est aujourd'hui bien maîtrisée, celle des actifs numériques beaucoup moins.
En plus, on réalise les difficultés qui s'annoncent pour définir la propriété d'un actif numérique relatif à un équipement. Le coût de modélisation étant élevé, celui qui réalise la maquette numérique va vouloir en réclamer la propriété. Mais une maquette trop parfaite ne reflète t-elle pas l'objet lui même, déjà propriété de son fabricant et qui en cède des droits d'utilisation à ses utilisateurs tout en gardant la propriété ? Et si d'ailleurs vous n'avez pas besoin de l'actif physique, mais uniquement de sa version numérique pour intégrer à votre environnement de simulation virtuel, qui a le droit de vous la vendre ?

Les entreprises doivent donc prendre en compte cette perspective et se préparer à protéger dans des contrats la propriété des données, des modèles, de leur accès ou de l'interdiction de leur accès, sous peine que d'autres ne le fassent sans leur demander leur avis.


Une propriété qui n'a de valeur que si elle peut être protégée pour ensuite mieux en partager les données et développer de nouveaux modèles collaboratifs, dans l'espace et dans le temps, comme le BIM tente de l'installer.
Et puis, tant qu'a renoncer à la propriété des données pour permettre à d'autres l'amélioration des processus de fabrication, de maintenance ou d'exploitation des équipements, autant en tirer un bénéfice, non ? La notion de licence d'accès aux données sera peut-être utile et rémunératrice.

Beaucoup de questions qui feront certainement l'objet de prochains billets au fur et à mesure de l'émergence des premières réussites et certainement des premiers conflits.

samedi 3 juin 2017

L'internet des objets se construit aussi dans les nuages

L'internet des objets se construit aussi dans les nuages

On a pu lire dans le dernier billet de GreenSI comment Google a basculé en dix ans d'une stratégie "Mobile First" à une stratégie "AI first", pour faire de l'intelligence artificielle le cœur de tous ses services et des prochaines interface homme-machine. Cette semaine, nous allons revenir sur les annonces de la conférence Google "Cloud Next" qui s'est tenue en mars de cette année, et faire le lien entre le Cloud, l'IoT et l'IA. Comme le nom de la conférence le suggère, Google y a présenté aux développeurs sa vision de l'avenir du Cloud. Une vision, qui si elle se réalise, ne sera pas sans impact sur les SI des entreprises et la façon de les gérer.

Ce qui a retenu l'attention de GreenSI, c'est la volonté de Google de rattraper son retard sur l'internet des objets dans les entreprises.


Google en retard ? Oui, GreenSI le pense, mais peut-être pas pour encore très longtemps. Aujourd'hui, quand on parle d'internet des objets et que l'on pense à Google, on pense par exemple à Nest, le thermostat connecté racheté en 2014. On peut également penser à Google Home, son interface vocale qui arrive en France à l'été, et qui va monter en puissance pour tenter de rattraper Amazon Alexa. Dans les deux cas, il s'agit d'applications grand public et non utilisées en entreprises.
 
Il y a bien eu fin 2016 l'annonce d'Android Things pour les futur fabricants d'objets connectés, et notamment ceux de la voiture connectée, mais Google n'est pas aujourd'hui encore très présent dans les entreprises sur ce marché estimé à $1420 milliards en 2020. Pour Gartner, en 2017 le marché des particuliers représente 63% des applications IoT en 2017 en nombre (communiqué) mais les dépenses des entreprises représentent, elles, 57% du marché en chiffre d'affaires. Le marché des entreprises créée donc beaucoup plus de valeur autour d'un objet connecté.

Ce segment du marché des solutions informatiques est déjà très occupé par des sociétés spécialisées sur le monde l'industrie (comme PTC qui annonce sa version 8 de ThingWorx et veut en faire le Microsoft Office de l'IoT), mais il attire aussi les convoitises des nouveaux acteurs du Cloud comme Amazon, Microsoft et plus récemment Salesforce. C'est aussi un virage stratégique pour SAP et sa plateforme HANA, un éditeur bien implanté dans l'industrie notamment en Allemagne.

Tous les quatre proposent maintenant une offre de collecte des données des objets connectés industriels : machines dans une usine, réverbères dans une ville ou compteurs d'eau chez les particuliers, pour en remonter les données mesurées régulièrement directement dans leur Cloud. 

Vous l'avez compris, capturer les données c'est ensuite un formidable produit d'appel pour utiliser les autres services Cloud de ces fournisseurs, y héberger les applications métiers qui ont besoin de ces données ou de souscrire à leurs propres services de data visualisation par exemple.

Le Cloud de Google ne pouvait pas laisser passer la combinaison motrice de la 4ème révolution industrielle : Cloud + IoT

C'est donc chose faite puisque Google a annoncé sa plateforme "Cloud IoT" de collecte de données, intégrée avec sa plateforme Cloud et ses autres services. Les atouts annoncés sont la disponibilité, l'interopérabilité avec le monde industriel, et la capacité des infrastructures de Google à absorber et traiter beaucoup de données, car le sujet n'est pas tellement applicatif, mais surtout technique. Les DSI qui regardent ce type d'offres pensent à étendre les capacités (nécessairement limitées) de leurs propres infrastructures.


La tendance observée est donc celle de la poursuite de la convergence "OT" + "IT", dans toutes les activités de l'entreprise. Les OT ("operational technologies") sont les technologies au cœur des chaînes de production et les IT ("information technologies") sont les technologies de l'informatique dites de gestion par rapport à l'autre informatique, dite industrielle. Des informatiques qui parfois ont même chacun leur propre DSI pour leur gouvernance.

Les opérateurs de télécoms connaissent depuis longtemps cette convergence entre ces deux informatiques, celle qui assure la communication (réseau, autocom...) et l'information de gestion (facturation, services...). Les regroupement des deux DSI, celle OT et celle IT, se sont produits au début des années 2000. Internet a ensuite confirmé cette tendance en imposant IP comme protocole unique de communication pour les réseaux et les offres de communication ont toutes convergé. 

Aujourd'hui toutes les entreprises sont confrontées à cette fusion OT+IT, car même les entreprises qui pensaient ne pas avoir "d'OT" les voient apparaître avec l'internet des objets le long des chaînes de production et de livraison, et également avec la multiplication des capteurs (dont les coûts baissent), mais aussi au cœur de la relation avec les clients (box, objets connectés...).
Mixer en temps réel les données des ventes (IT) et de la température ou de l'éclairage des magasins (OT) devient une optimisation de la performance possible pour un distributeur de vêtements ; comme un industriel va lui piloter la qualité de fabrication en fonction (IT) de la température de chauffe d'une machine (OT).

Vous saviez qu'à l'ère du digital, toutes les entreprises allaient devenir des éditeurs de logiciels, on peut désormais ajouter que ce sera avec une infrastructure d'informatique industrielle.

D'ailleurs dans de nombreux cas les capteurs sont déjà là, ce qui va accélérer les applications par rapport au grand public qui doit encore s'équiper en nouveaux objets. Ce qu'il manque c'est de pouvoir y accéder!
La difficulté c'est soit parce que les constructeurs gèrent ces données à un format propriétaire, soit tout simplement parce qu'il n'y a pas de possibilité technique (port, interface, données analogiques...) de les extraire. Mais la capture de ces données avec des "add on" (2) permettant d'ouvrir les données de ces équipements (1) attire de plus en plus de startups qui débordent d'imagination pour réutiliser ces données en dehors des équipements avec de nouveaux services d'optimisation (3). C'est une application concrète de l'opendata, un concept qui est loin d'être réservé aux organismes publics voulant faire preuve de transparence. Dans les cas où l'interface existe et est normalisée, comme dans les véhicules et les camions, c'est encore plus simple.


Tout équipement de l'entreprise qui ne sera pas connecté au Cloud pour pouvoir en lire les données va vieillir en accéléré et devenir un équipement "legacy" de l'entreprise.

De facto, un corollaire est le besoin de renfort de la sécurité des SI des entreprises qui doivent imaginer de nouveaux moyens de défense adaptés à ce nouveau paradigme.

Une fois ces données collectés, Google met en avant la puissance de ses autres services Cloud comme BigQuery pour avoir la capacité de traitement d'importants volumes de données ou ses API de machine learning qui peuvent apprendre de ces données. On retrouve ici la cohérence avec stratégie "AI first" de Google qui propose les outils d'exploitation de ces données et c'est là que Google peut dépasser ses compétiteurs.

Aujourd'hui l'attention est sur la "datavisualisation" et on s'extasie dans les démos de Salesforce voir la température d'un moteur en temps réel sur un smartphone, et on a pas attendu Salesforce pour avoir ce type d'applications dans l'industrie, mais demain la question sera de prédire cette température et d'optimiser la performance en temps réel avec cette prédiction. D'où certainement le partenariat stratégique en Salesforce et IBM pour bénéficier des avancés de Watson, l'IA d'IBM, sur la plateforme de Salesforce.

Et puis ces données vont aussi devenir des photos et de la vidéo qui va demander encore plus de puissance de stockage et de traitements. Les API de traitement d'images et de vidéos (Cloud Vision API)  ont été présentées à la conférence et sont déjà impressionantes pour catégoriser et identifier des objets en temps réel (détection de visages, d'objets, de lieux, de marques dans les photos et vidéos, lecture OCR dans l'image...)

Avec cette perspective de l'IA à la fin de l'équation Iot + Cloud, non seulement Google exploite son avantage pour rattraper son retard, mais il pose aussi une double question à tous les acteurs du SI de l'entreprise : votre infrastructure est-elle prête à affronter les défis des besoins des entreprises numériques et industrielles ? quel est votre plan IA ?

Sans aucun doute, l'internet des objets est certainement en train de se construire dans les nuages.
Artificial Intelligence first!

Artificial Intelligence first!

L'actualité autour de la nomination du nouveau gouvernement d'Edouard Philippe cette semaine nous a peut-être fait passer à côté de la Google I/O, la conférence des développeurs de Google qui s'est tenue du 17 au 19 mai à Mountain View.

GreenSI l'a vue comme la confirmation d'un tournant pour Google, l'intelligence artificielle, pris il y a quelques temps sous la direction de son CEO Sundar Pichai, qui a ouvert avec une keynote très inspirante.

Il y a dix ans, pour le maître de la recherche sur Internet qu'il avait transformée en revenus publicitaires massifs, la bascule vers le mobile était une question stratégique. Les internautes allait de moins en moins utiliser un PC. Sa doctrine était devenue: "mobile first".
Rétrospectivement, on voit que la stratégie d'ouverture d'Android a payé devant iOS et que Google est leader mondial de l'internet mobile, même si le mobile a aussi été une opportunité pour Facebook qui a regagné du terrain sur la publicité en ligne.

Aujourd'hui, c'est sur cette nouvelle IHM que va devenir l'intelligence artificielle sous toutes ses formes, qu'Alphabet remobilise toutes ses divisions avec un nouveau cri de guerre : "AI first" !

L'IA a donc été présente, mais pas toujours visible, dans toutes les annonces majeures des nouveaux produits et services de cette conférence. C'est toute une stratégie de plateformes, de services et d'applications qui est en train de s'installer pour permettre à Alphabet de garder sa position avec l'arrivée de la prochain vague de l'internet, celle des objets connectés et intelligents.

Dans les annonces, l'assistant vocal de Google continue de s'enrichir et vient d'ailleurs de débarquer en français dans Allo sur smartphone. Cet été il sera disponible également dans Google Home, l'objet connecté qui concurrence directement Amazon Echo et son assistant vocal intelligent Alexa qui a surpris tout le monde en 2016 par son succès fulgurant (estimation de 10 millions vendus à fin d'année). Des maisons aux hôtels, la force de frappe d'Amazon en a fait un produit grand public recherche.

La guerre pour l'interface utilisateur ultime est donc déclarée, et comme sur le mobile, c'est celui qui ira la plus vite à déployer son assistant dans tous les terminaux qui aura une position dominante dans les revenus qui découleront des prochains services, par exemple, de publicité ou de conciergerie.

Pour accélérer son développement, Alphabet a donc annoncé la mise en place d'un nouveau département transverse "Google.ai" qui permet en interne comme en externe d'aider les projets avec de l'expertise et une plateforme ouverte de services reposant sur l'intelligence artificielle. Dans ce domaine la puissance de calcul est essentielle et constitue une barrière à l'entrée ce qui rime avec centralisation.

Comme pour Android, la vitesse d'adoption dépendra du nombre d'applications lui-même dépendant de la taille de la communauté des développeurs, d'où les efforts pour diffuser TenserFlow le produit de machine learning développé pour ses besoins propres et mis à la disposition gratuitement de la communauté.

Ainsi, contrairement à l'approche classique des éditeurs, Alphabet ouvre sa recherche et propose à ceux qui veulent se lancer d'utiliser ses applications, sachant que la valorisation viendra ensuite dans les services. 

Ensuite Alphabet cherche à dépasser l'interface vocale avec le visuel (Google Lens), très adaptée au mobile, et qui lui permet de trouver rapidement des synergies grâce à sa domination dans les mobiles. Ainsi avec votre prochain téléphone Androïd dopé aux services de reconnaissance visuelle de Google, vous pourrez pointer visuellement un objet et en extraire en temps réel de l'information. 

Une image vaut mieux qu'un long discours, la bataille pour l'interface homme machine se déroule aussi sur ce terrain!

Alphabet a également annoncé la poursuite de ses investissements dans deux industries qui vont être révolutionnés par l'IA, les véhicules autonomes et la santé. Mais contrairement aux nouveaux produits qu'il créé en innovant là où il n'y avait rien, comme avec les assistants, dans ces industries il y a déjà des acteurs historiques qui vont certainement résister et de nouveaux entrants aux arguments bien rodés comme IBM Watson ou @-health, donc GreenSI avait déjà parlé. La compétition sera donc dure.

Profitons de ce billet pour saluer Valéo, équipementier automobile inconnu du grand public, dont pourtant la vie de chacun dépend puisqu'il équipe entre autres les systèmes de freinage et de gestion du moteur de nombreux constructeurs.  Valéo a donc annoncé il y a 15 jours qu'il allait avoir l'autorisation du ministère de l'Intérieur de l'autoriser à faire rouler un Range Rover sans chauffeur dans les rues de Paris. L'algorithme de Valéo va donc être confronté progressivement à la circulation d'une grande métropole, avec comme point ultime la traversée de la place de l'Etoile. 

Cette annonce est très importante puisqu'elle déplace le centre de gravité du véhicule autonome sur l'Europe et rappelle aux américains que cette industrie est aussi dominée par Renault-Nissan, BMW et Mercedes.

Aux européens maintenant de dépoussièrer les vieux projets ITS - Intelligent Transport Systems - comme ARAMIS, PROMETHEUS, SOCRATES et autres ERTRAC engagés autour de la route intelligente depuis au moins 30 ans et prendre en compte qu'ils ont été pris de vitesse par Google et Tesla en seulement 10 ans.

Par exemple pour améliorer la logistique des villes ERTRAC, dont la roadmap figure dans le schéma ci-dessous, pourrait peut-être aussi penser à des flottes de drones ?


En tout cas c'est comme cela qu'Amazon y pense en France puisque qu'ils ont annoncé cette semaine l'ouverture du centre de développement du programme Prime Air à Clichy en région parisienne. Un centre qui va devoir inventer les logiciels de gestion des routes aériennes des drones entre celles des avions et celle des camions, reposant certainement sur beaucoup l'intelligence artificielle.

L'avenir reste donc à écrire. Voilà un sujet de réflexion et d'amélioration pour engager des projets numérique ambitieux, et espérons pragmatiques et opérationnels, au niveau européens comme Airbus ou Ariane nous y avait habitué.

Mais revenons en France avec notre nouveau secrétaire d'Etat au numérique, Mounir Mahjoubi, qui a trouvé dans ses tiroirs en prenant son poste le rapport "#FranceIA". La stratégie de Google est certainement le signal de remettre ce dossier sur le dessus de la pile, à côté de celui de la transformation numérique des TPE/PME, car si il y a des domaines où c'est bien le rôle de l'Etat d'être visionnaire et de faciliter l'émergence d'industries (en tout cas de ne pas l'empêcher), l'Intelligence Artificielle est certainement tout en haut de la liste.
Pour être leader dans les techniques d'IA la France est très bien placée, c'est ce que montre le rapport #FranceIA, mais avec le risque de développer la valeur ailleurs. Google qui ouvre sa technologie et sa recherche montre bien que l'essentiel de la valeur n'est pas ici mais dans les services et les nouvelles industries qui vont émerger.

Pour être leader dans les services d'IA il faut être leader dans la captation de données. Seules les données massives et la répétition permettront aux machines d'apprendre assez vite pour dépasser l'homme dans certaines tâches. Les réseaux sociaux où s'échangent la majorité des données de l'Internet sont presque tous contrôlés par des américains ou des chinois (il y a bien Blablacar...), leur donnant un avantage indéniable pour contrôler les futurs services intelligents aux personnes.

Mais la France et l'Europe peuvent cependant encore capturer les données de la vague suivante de l'internet, celles des objets et des machines. C'est donc dans la transformation numérique de l'industrie, de la ville, de la route, de la voiture ou de la maison, dopée aux objets connectés et à l'intelligence artificielle, que se cachent peut-être les géants européens de demain si on prend aujourd'hui les bonnes décisions d'investissements.

dimanche 21 mai 2017

WanaCrypt or WanaUpgrade your IT ?

WanaCrypt or WanaUpgrade your IT ?

Ce lundi 15 mai, de nombreuses DSI vont se réveiller avec la gueule de bois après le passage ce week-end d'une tornade non prévue: WanaCrypt.
Certains furent déjà sur le pont tout le week-end pour prévenir leurs utilisateurs. La mauvaise nouvelle c'est que cette tornade pourrait encore durer quelques temps vu la boîte de Pandore qu'elle vient d'ouvrir. C'est l'objet de ce billet que d'aider les managers et les équipes métiers en charge des applications à en prendre conscience.
WanaCrypt est un "rançonware", c'est à dire un logiciel qui une fois installé sur un poste de travail (via la pièce jointe d'un email reçue et ouverte ou la propagation sur le réseau local de l'entreprise en mode "worm") en crypte tous les fichiers puis demande entre $300 et $600 en bitcoin pour récupérer ses données. Le bitcoin permet aux hackeurs de garder l'anonymat pour réutiliser la somme.
Même si l'argent est généralement la principale motivation des hackeurs, dans le cas présent rien ne garantit que les données soient restituées. Les consignes sont d'ailleurs généralement de ne pas payer pour ne pas encourager de prochaines opérations. Traduisez, votre poste crypté vient d'être sacrifié...


Vendredi 12 mai c'est le Royaume Uni qui a fait les frais d'une vague massive d'emails de phishing et d'une propagation fulgurante au sein de ses entreprises. Elle a notamment touché une entreprise publique très médiatisée, National Health Service, le gestionnaire des hôpitaux anglais, des hôpitaux qui ont été rapidement désorganisés quand les employés ne pouvaient plus utiliser leur ordinateur pour récupérer les données des patients.

Des entreprises de toute l'Europe ont également été touchées, comme Renault qui a immédiatement stoppé la production sur son site de Sandouville, Nissan UK, la Deutsche Bank, la Banque de Bilbao ou Telefonica l'opérateur historique espagnol.

Depuis on parle de cyber-attaque massive et mondiale, et fait rare, le journal de 20h de la Une a ouvert pendant 5 minutes sur ce titre samedi soir, la veille d'une actualité politique pourtant chargée en France avec la prise de fonction du nouveau Président de la République française.

  Image: Malwaretech.com.

C'est vrai que l'envoi de 5 millions d'emails par heure (comme cité par certains rapports de sécurité) peut être considérée comme une attaque massive (en 2016 les 215 milliards d'emails envoyés dans le monde - hors spam - correspondent à 24 millions d'emails par heure en moyenne).
Cependant GreenSI trouve que c'est un peu simpliste de ne regarder que le côté "cyber-attaque" même si visiblement cette attaque paraît organisée (préparer des millions d'emails à l'avance) et pensée (lancement un vendredi avant le week-end en ciblant les entreprises ?).

Dans cette crise le vrai problème pour les SI est surtout du côté de la défense! 

En effet, plusieurs "faits" découlant de politiques passées ont considérablement affaibli les défenses des entreprises, ce qui a favorisé la vitesse de propagation du virus en leur sein. Ces faits doivent nous faire réfléchir sur la gouvernance des systèmes d'information au moment où ils deviennent de plus en plus critiques pour toutes les activités.
  • Une faille connueCette faille de sécurité dans Windows était connue et bien identifiée, notamment par la NSA qui l'exploitait comme porte dérobée pour espionner les PCs. Elle a fait l'objet du bulletin de sécurité de Microsoft du 14 mars (MS17-010), donc il y a déjà un mois, avec la liste des systèmes concernés et le correctif à appliquer.


    Et pourtant tous les systèmes n'ont pas été mis à jour en un mois alors que la mise à jour était critique

  • Des SI qui utilisent des produits non maintenus
    La faille est aussi présente sur Windows XP, Windows 7 et Server 2003 qui représentent encore un bon pourcentage respectivement des postes de travail et serveurs, et notamment ceux du NHS, alors que ces produits ne sont plus maintenus par l'éditeur. Heureusement, dans l'urgence, Microsoft a diffusé gratuitement un correctif ce week-end.
    Les grands comptes qui ont payé très chère la "software assurance" de Microsoft pour XP, pour avoir de façon privilégiée quelques correctifs, doivent l'avoir mauvaise puisque le correctif du week-end a été livré gratuitement a tout le monde ;-)

    Quoi qu'il en soit, l'obsolescence est une réalité dont le management devrait se préoccuper, une partie du SI tourne sur des produits non maintenus donc vulnérables et ce souvent des applications anciennes au cœur des processus et de l'organisation. Est-ce que les métiers en charge des applications en sont conscients ?


  • Des postes de travail pas toujours sauvegardésAvoir un backup de l'ensemble des postes de travail de son entreprise peut sembler une évidence, mais est en fait très compliqué à mettre en oeuvre opérationnellement (avec la mobilité et les portables par exemple). La réalité est donc que si un poste est verrouillé et crypté, le retour arrière se fera en perdant certainement des données du poste.

    Il faut donc accepter cette réalité, tout poste de travail doit pouvoir être détruit sans prévenir et sans impacter l'entreprise (au-delà des heures perdues par son malchanceux utilisateur... ) et surtout se préparer à l'affronter.


    Ceux qui ont engagé des politiques d'outils collaboratifs auront plus de chance avec les données des projets stockées dans ces outils au lieu d'être sur les postes des utilisateurs. Mais j'ai malheureusement vu trop de projets repasser d'outils collaboratifs à des outils personnels sous Excel, au gré des consultants de passage, pour encore y croire...


  • Une NSA qui joue à l'apprenti sorcier
    La faille a été identifiée par la NSA il y a longtemps et les outils pour l'exploiter, qui ont certainement mobilisé les meilleurs experts en sécurité du moment, ont malencontreusement été dérobés à la NSA par un collectif de hackers en mars dernier (Shadow Brokers). Un peu comme si l'Institut Pasteur laissez filer plusieurs souches du virus de la variole, aujourd'hui disparu, et qu'il conserve à des fins scientifiques.

    On peut accuser tous les hackeurs du monde, la responsabilité de la NSA ne doit pas être oubliée et elle est double: avoir fabriqué les matériaux du virus ET les avoirs perdus dans la nature. Il n'y a malheureusement pas de comité d'éthique pour ce qui concerne l'informatique. Avec l'arrivée de l'intelligence artificielle, peut-on tout laisser faire parce que c'est du logiciel et non de la manipulation d'embryons humains?

    Et finalement, cela ne montre-t-il pas que les gouvernements peuvent aussi être plus dangereux que les hackers ?
Les systèmes d'information des entreprises reliés dans un SI global par Internet étaient donc bien malades avant d'aborder cette nouvelle attaque virale !
Là où les défenses étaient faibles, là où les investissements pour le maintenir n'étaient plus en phase avec la criticité métier, c'est là que le SI est tombé rapidement. 

Dans un hôpital, dans une chaîne de production, dans une chaîne logistique, certainement tous des systèmes anciens qui ont toujours donné satisfaction, qui évoluent peu ou plus, et qui sont passés sous la ligne de visibilité des investissements d'obsolescence technique.

La Première Ministre Théresa May, est intervenue rapidement pour rassurer sur le fait que le Royaume Uni n'était pas la seule cible de l'attaque mais a surtout déploré le fait que l'ampleur au Royaume Uni avait été exacerbée par une "politique conservative du NHS découlant des mesures d'austérité du gouvernement". 

GreenSI vous rappelle le graphe de décision de la maintenance: si la probabilité est forte et que le coût de mise à jour est élevé alors il n'y a qu'une alternative, patcher !

A l'ère du digital et de la transformation numérique le rôle de la DSI reste prioritairement de gérer cette obsolescence, car la durée de vie des applications est entre 7 et 10 ans, donc bien après la fin des projets de développement. Pour cela elle a besoin des métiers et du management, elle doit mettre en place une gestion des compétences pour conserver celles dont on peut avoir besoin sur des systèmes obsolètes. Mais pour ne pas faire crouler les investissements sous le poids de sa dette (technique) la meilleure stratégie reste encore de supprimer les applications qui apportent une valeur marginale mais sont surtout un handicap ou un danger pour la globalité du SI.
Plus on a d'applications, plus on a un SI hétérogène technologiquement, et plus on est exposé à l'ensemble des failles qui ne manqueront pas de survenir dans un des composants techniques. WanaCrypt aura au moins eu le mérite de nous le rappeler et GreenSI pense pour longtemps.

Alors maintenant qu'est-ce qu'on fait: I want to crypt (wanacrypt) or I want to upgrade ?

mardi 9 mai 2017

L'ERP à l'ère de l'IA et des robots

L'ERP à l'ère de l'IA et des robots

Chaque année, GreenSI se pose la même question en actualisant un cours de management des SI sur la mise en place des ERP : comment cet animal, né depuis 45 ans sur un mainframe, a traversé toutes les architectures informatiques, et continue de se frayer un chemin dans l'évolution rapide des technologies (client serveur, mobilité, cloud, big data) ?

En 2017, l'ERP essaye même de se faufiler au travers des arcanes de l'intelligence artificielle et des robots connectés que nous promet l'industrie 4.0 : c'est le thème de ce billet.

Le fondateur de ce segment de l'industrie logicielle, l'européen SAP, n'a d'ailleurs jamais perdu sa place de leader depuis 45 ans. Une place pourtant très challengée par une myriade d'éditeurs américains dont la nouvelle génération apparue il y 7-10 ans surfe sur la vague des ERP dans le cloud. 

C'est le cas par exemple de Netsuite un ERP 100% SaaS qui s'est fait croquer par Oracle en novembre dernier (pour $8,9 milliards) et qui permet ainsi à Oracle, à défaut d'accélerer sa mutation vers le Cloud, d'afficher de la croissance (externe) dans le Cloud tant attendue par les analystes et ses actionnaires.

En 2016, SAP réalise 3 milliards de revenus dans le Cloud, un chiffre en croissance de 30%. Il  annonce même 2018 comme année charnière où les ventes de licenses (qui baissent) passeront en dessous des ventes SaaS (qui augmentent). Le Cloud est donc bien la dernière architecture à laquelle les ERP commencent à s'adapter pour ne pas disparaître.

La stratégie de SAP s'est concentrée sur S/4 HANA, sa nouvelle version après R/3, une stratégie qui met en avant les capacités d'une nouvelle base de données (HANA) à l'heure du bigdata et de l'ouverture des données - plus que la poursuite d'un ERP 100% cloud. Quand on sait que la majorité des implémentations de SAP le sont sur une base Oracle, maison mère de son 1er concurrent, on comprend pourquoi SAP s'attaque en priorité à la base de données. 

De toutes les façons, le passage au Cloud va redistribuer les cartes de cet avantage pour Oracle, car non seulement en SaaS le choix de la base de données n'est plus critique, mais en plus Oracle est très peu utilisé pour les développements dans le Cloud à cause de sa politique tarifaire de license.
La stratégie HANA de SAP est aussi la réponse à des bases de données devenues trop volumineuses (sans réelles stratégies d'archivage des données moins utilisées avec le temps), aux promesses du big data qui a besoin de capturer encore plus de données et surtout de les traiter en temps réel ("in memory"). Les systèmes décisionnels à l'ère des objets connectés ne peuvent pas reposer sur les entrepôts de données traditionnels mis à jour en batch, avec des données disponibles au mieux le lendemain.

Pour GreenSI, Mark Hurd (CEO d'Oracle) sait qu'Oracle Applications a pour l'instant raté le virage technologique des ventes Cloud et que le rachat de Netsuite lui permet de reprendre la main. Ceci à condition qu'il laisse Netsuite continuer d'innover, ce qu'il a promis à ses clients en avril dernier à Las Vegas lors du SuiteWorld 2017, la conférence mondiale des utilisateurs de Netsuite.  
Oracle, dirigée par l'ex-CEO d'HP, peut aussi amener à Netsuite son expertise sur les infrastructures et ses compétences en machines performantes depuis le rachat de Sun Microsystems. En revanche, pour les utilisateurs historiques de la suite Oracle Applications, beaucoup de questions et de nuages masquent la visibilité à moyen terme de leurs investissements, mais ils sont habitués...

Tous les DSI le savent bien, avec les ERP la question est moins l'innovation, qui est devant, que la gestion de la dette technique, qui est derrière.
 
De façon symétrique, les positions des éditeurs sont difficiles à prendre quand ils ont beaucoup de clients qui payent chaque année entre 18 et 22% de leur investissement initial en coûts maintenance. Ce focus sur les choix passés explique certainement une grande partie de la relative stabilité du marché des ERP qui change surtout par acquisitions.

Mais le corolaire de cette situation est qu'il faut donc piloter ses investissements ERP de façon beaucoup plus stratégique et à beaucoup plus long terme, que par exemple les choix d'une application mobile qui sera obsolète en 3 ans et re-écrite en 3 mois. 

Attention au réveil brutal dans les DSI aux yeux rivés sur le budget de l'année.

Pour GreenSI, maintenant que le Cloud s'est imposé comme le modèle de réduction des coûts, des risques et des délais de mise en oeuvre des ERP, c'est donc dans la direction de l'internet des objets et des prochaines architectures, pourquoi pas aussi la blockchain, qu'il faut regarder. À la clef, l'adaptation des ERP à l'ère des robots quand l'industrie et le commerce seront encore plus automatisés qu'aujourd'hui, et de l'intelligence artificielle qui va bouleverser les interfaces hommes-machines et la répartition des tâches entre les hommes et les machines devenues plus intelligentes.


L'Allemagne, berceau de SAP, de l'Industrie 4.0 et d'une chancellière visionnaire pour le maintien de la compétitivité de son industrie, est certainement un endroit privilégié dans le monde pour orienter les radars de sa veille (Chine et Corée du Sud sont aussi à surveiller mais n'ont pas d'éditeurs d'ERP reconnus mondialement).

Et c'est certainement sous cet angle là qu'il faut décoder l'implantation du centre européen Watson IOT d'IBM en Allemagne à Munich, pour co-innover avec clients industriels.

Justement, fin 2016, SAP annonçait un plan d'investissement de 2,2 milliards de dollars pour connecter son ERP aux solutions reconnues dans l'Internet des objets (IoT).

SAP IoT est donc la direction fixée par SAP pour combiner en temps réel, avec des capacités d'apprentissage (machine learning), les données de sa base de données HANA et les nombreuses données du monde externe issues des machines. A la clef un pilotage intelligent des processus de production.
C'est une direction qui ouvre des partenariats avec les éditeurs de solution de PLM - Product Lifecycle Management - très présente dans l'industrie pour gérer des machines complexes, les modéliser en 3D et les enrichir avec des données de mesures. Dans ces partenaires on retrouve l'américain PTC (et sa solution Thingworx) et les allemands Siemens et Bosch.

Dommage pour l'Europe que le français 3DS (Dassault Systems) fasse pour l'instant cavalier seul avec sa plateforme 3DExperience car une stratégie commune entre les deux premiers éditeurs mondiaux non américains (SAP et 3DS) renforcerait certainement le poids de l'Europe dans le logiciel mondial dominé très largement par les américains.


Ainsi, Siemens annonce Mindsphere, un écosystème ouvert basé sur SAP HANA que les clients et les développeurs peuvent utiliser pour développer, étendre et exploiter des applications dans le cloud. Les applications imaginées sont la surveillance en ligne de machines-outils distribuées à l'échelle mondiale, des robots industriels ou des équipements industriels tels que des compresseurs et des pompes.
Bosch a aussi signé un accord stratégique avec SAP HANA, montrant, si on en doutait, la puissance de frappe de l'économie allemande quand elle avance en "pack".

Attention cependant au fait que cette stratégie très pertinente dans l'industrie l'est beaucoup moins dans les services où l'ERP n'a toujours pas tenu sa promesse de mieux s'intégrer dans les processus collaboratifs qui se développent dans l'entreprise 2.0.

Dans la bataille de l'infrastructure cloud fiable qui sera le fondement de l'industrie 4.0, finalement l'ERP est en train (une fois de plus) de tirer son épingle du jeu en s'ouvrant au monde des objets connectés et de l'intelligence artificielle. Quarante cinq ans plus tard, SAP mène toujours le jeu mais le terrain de jeu s'est considérablement étendu.