dimanche 24 novembre 2019

Le modèle opératonnel agile de la DSI

Le modèle opérationnel agile de la DSIPlusieurs articles, ces deux dernières semaines, mettent en avant le DSI comme le pilote la transformation digitale, que ce soit dans l'entreprise (Le rôle de la DSI dans l’entreprise de demain - Silicon, Les DSI, grands orchestrateurs de la transformation numérique - Les Echos) ou dans les collectivités locales (Le DSI est devenu un Directeur du numérique, un acteur incontournable de la Smart City).

Une position que beaucoup de directions générales appelleraient de leurs vœux puisque la maîtrise de la technologie est un facteur essentiel pour le succès des investissements dans le digital, même si l'accompagnement aux changements induits par la transformation, ou les opportunités qu'elle amène, sont complémentaires.

GreenSI pense aussi que les DSI ont un rôle clef à jouer dans la transformation digitale. Mais, pour GreenSI, si ils ne changent rien il y a peu de chance qu'ils deviennent par magie les hommes de la situation. D'ailleurs la première chose à changer serait peut-être que la moitié d''entre eux soient les femmes de la situation. Ce serait un message fort pour s'attaquer au problème de diversité qui fait que la profession se prive de 50% des talents et des idées, puisque les jeunes filles rejoignent peu le numérique et gravissent encore moins ses échelons.

Cette question du rôle de la DSI dans la transformation digitale n'est pas nouveau. Il a certainement été brouillé ces dernières années avec l'émergence des CDO - Chief Digital Officers - mais au final, une entreprise n'abordera pas le digital à l'échelle sans son SI. Pour cela, l'entité qui le pilote devra au préalable en adopter les fondamentaux que sont l'agilité et la maîtrise du développement, la technologie des plateformes et l'obsession pour l'expérience client

L'agilité a commencé à s'installer dans les équipes en charge des développements, souvent sous-traités. Pour IT Social 2020 sera l’année de la maturité DevOps, ou ne le sera pas si les équipes en charge des infrastructures continuent d'appliquer des méthodes d'exploitation d'un autre temps sur les nouvelles infrastructures dans le cloud, du container jusqu'au serverless.
La DSI doit changer ses méthodes. Son "operating model" issu d'un monde stable et fermé sur l'entreprise, s'il n'a pas été revu récemment, est obsolète dans un monde digital et surtout dans les relations de la DSI avec son écosystème, que ce soit les métiers, ses fournisseurs ou les clients de l'entreprise en interaction avec son SI ou ses objets connectés.

En 2015, de l'autre côté de l'Atlantique, la revue d'Harvard publiait l'étude "Driving Digital Transformation: New Skills for Leaders, New Role for the CIO" qui développait déjà les 7 stratégies du DSI pour piloter la transformation digitale (par analogie avec le best seller "Les 7 habitudes des gens efficaces"):
  • Être le leader de confiance
  • Accompagner les responsables métiers
  • Favoriser les talents
  • Être le guide vers qui l’on se tourne
  • Parler le langage de vos clients
  • Indiquer les voies du possible
  • Recruter des experts externes
On constate que, les "soft skills" nécessaires étaient mis en avant par rapport à la technologie ou au "hard skills" de la gouvernance, mécanique, longuement négociée, et souvent inadaptée aux situations nouvelles que la nouvelle économie amène dans tous les domaines.
Presque cinq ans plus tard, le constat fait par les différents articles publiés en novembre est toujours sur le côté RH de la transformation, avec en 2019 des DSI qui ont réussi (où que l'on a laissé réussir) et qui amènent leur propre retour d'expérience.

L'étude sur l'avenir de la profession, publiée ce début novembre par Topics et Fabernovel, montre des DSI optimistes qui, même si leur avenir peut sembler incertain, sont convaincus d'une évolution professionnelle passionnante. Ils ont un rôle plus transversal (ce qui a toujours été le cas de l'informatique) mais surtout qu'ils sont maintenant reconnus pour cette transversalité.

Le point d'achoppement pointé du doigt par les DSI est l'accompagnement RH, car les sujets au cœur de leur transformation sont le recrutement de développeurs, la (re)formation des équipes, la conduite des changements, la rétention des talents,...

Au niveau des "hard skills", c'est le sacro-saint "operating model" qui doit changer et s'adapter au digital, ce qui va demander un effort important de conduite des changements pour ne pas revenir en arrière à chaque progrès fait. Prenons trois exemples parmi les 11 ou 12 piliers, selon les modèles, qui structurent l'action de la DSI, pour illustrer les changements fondamentaux et opérer des organisations vraiment agiles, de bout en bout et adaptées au digital.

L'agilité s'applique a tous les domaines du modèle et pas uniquement aux méthodes développement informatique.

La stratégie aussi devient agile, développant une vision moyen terme, mais testant également des idées a court terme avant de leur consacrer des moyens importants. La stratégie n'est plus le mot magique pour faire accepter une décision, mais un processus collaboratif partagé avec toute l'entreprise pour encourager les équipes à expérimenter, à apprendre, pour consolider les chemins permettant de se rapprocher de la vision et réduire les investissements sur les fausses pistes.

Dans cette transformation digitale c'est le business modèle de l'entreprise qui est en transformation et qui demande aux métiers une approche évolutive de tests et d'apprentissages, et au SI de l'accompagner.
 
L'organisation d'une DSI digitale est centrée sur les produits. Les projets et les infrastructures ne sont que des moyens au service des produits, orientés vers les clients externes de l'entreprise et son écosystème.
Ce nouveau modèle opérationnel est bien sûr aligné avec la culture DevOps, qui dit que ceux qui construisent les systèmes (Dev) travaillent efficacement avec ceux qui font tourner les systèmes (Ops), mais aussi en amont avec ceux qui les vendent aux client et les conçoivent pour cela, les product owner.

C'est la fin de la séparation traditionnelle entre la conception, le build et le run.

L'agilité avec sa démarche itérative, ses principes fondamentaux, devient un mode de fonctionnement apaisé sur l'ensemble de la chaîne, de l'idée stratégique à sa valorisation au quotidien chez les clients. Les métiers de la DSI deviennent alors plus spécialisés (designer, architecte, développeur, product owner, coach agile, ...) pour animer la construction de façon rapide, sur chaque maillon de la chaîne, de façon efficace et améliorable en continue.
Est-ce la fin des chefs de projets non spécialisés et autres "consultants" qui utilisent leur position pour se mêler de tout ? GreenSI le pense. Chacun travaille en confiance, à son poste, dans un environnement bienveillant. Même les managers, car quand la donnée, la plateforme ou la technologie prennent le pouvoir, on redécouvre l'évidence de la valeur d'une l'entreprise : investir dans les salariés et les équipes !

Cela commence par le recrutement de personnes qui n'ont pas connu l'ancien modèle de gouvernance. C'est souvent le meilleur moyen de ne pas en être esclave et pour GreenSI c'est un enjeu supplémentaire pour plus de diversité dans les équipes informatiques. Dans la même logique, si beaucoup de ressources sont externes, changez vos fournisseurs traditionnels pour de nouveaux acteurs nés avec le digital. Enfin, le faible taux de féminisation de la profession est finalement une chance de ne pas avoir préformaté un ensemble de talents qui peuvent, maintenant que de multiples initiatives se développent pour les attirer, plus facilement amener un regard neuf pour faire évoluer les systèmes.
L'investissement dans les équipes, c'est aussi l'apprentissage de la collaboration, de l'amélioration continue, et d'une certaine façon du droit l'erreur parfois tabou. Les équipes apprennent à s'auto-organiser pour leur propre efficacité de collaboration, pas uniquement pour appliquer des modèles qui ne peuvent intègrent toutes les contraintes pour servir et satisfaire tous les clients dont ils sont responsables.

La performance de l'équipe devient la métrique du bon fonctionnement, ce qui est à l'opposé de la culture que l'on peut rencontrer parfois, celle qui recherche les coupables et veut externalisation systématiquement tous les risques.

Une stratégie agile, une organisation centrée sur les produits (et donc les clients) et l'investissement dans les équipes, sont trois des piliers d'un nouveau "operating model" de la DSI adaptée au digital, qui amènera de la valeur à l'entreprise dans la transformation qu'elle a engagé. Ceci demande un travail sur les méthodes et les soft skills. Un prochain billet traitera des autres piliers plus techniques et en attendant vous pouvez consulter le guide d'audit du Cigref, l'AFAI et l'IFACI, qui a commencé à dépoussiérer la gouvernance traditionnelle.

Mais si vous pensiez que le chef de projet blockchain était ce qui vous manquait pour que votre DSI passe au stade supérieur de la transformation digitale, alors GreenSI espère que vous avez été convaincu par les soft skills et une approche plus transformatrice en profondeur ;-)

lundi 18 novembre 2019

Disney+ : bienvenue dans le monde digital

Disney+ a été lancé aux États-Unis, Canada et Pays-bas, par la Walt Disney Company. C'est une plateforme de vidéo à la demande qui promet d'accéder à l'impressionnant catalogue du premier groupe de divertissement au Monde après ses multiples acquisitions (ABC-cable, Fox, Pixar, Marvel, Lucas Film, ...).
C'est fait ! Cette semaine 

C'est en 2017 que le DG Bob Iger a annoncé cette nouvelle orientation stratégique avec le lancement prévu en 2019 d'un service de vidéo à la demande, concurrent de Netflix.
Mais même en étant numéro un mondial, on ne s'improvise pas "streamer de contenu sur Internet". C'est un sujet 100% technologique, très loin du fond de commerce du studio. On assiste donc bien là à une transformation digitale de grande ampleur pour la Walt Disney Company, plus encline jusqu'à présent à distiller son catalogue au compte goutte qu'a piloter une plateforme mondiale de diffusion massive.

En terme de modèle économique, Disney a également déjà tenté l'expérience de l'abonnement avec ESPN (chaînes de sport) mais n'a pas résisté à l'érosion progressive de ses abonnés. C'est donc un double challenge technologique et business modèle qui attend le groupe.
 
Netflix, la cible annoncée, est née dans la location de DVD distribués par courrier, ce qui lui a donné l'expérience client de la VOD et des goûts des utilisateurs, puis a développé les 10 années suivantes une plateforme SVOD, reposant sur AWS, pour distribuer le contenu par Internet. Ayant sous-traité ses "tuyaux", c'est devenu un producteur de contenu, notamment de séries, pour les alimenter et son catalogue est plus vaste que celui de Disney. Aujourd'hui, Netflix représente environ 23% du trafic de l'Internet - Google "seulement" 17% -, selon l'Arcep (étude 2019).

C'est donc un travail qui prendra du temps à Disney pour accéder à une part de marché de 23% du trafic mondial de l'internet !

Mais comme la SVOD est en croissance, le sujet est moins de récupérer massivement les parts de marché de Netflix que de développer la SVOD plus loin avec de nouveaux utilisateurs et de nouveaux usages. Le blog "Digital Home Révolution" de Pascal Lechevalier est une référence sur ce sujet, notamment le dernier billet sur les perspectives du marché américain avant l'arrivée de Disney+.

Pour répondre à ce challenge, la Walt Disney Company a progressivement racheté la majorité dans la société technologique BAMTech (en tout au moins 3 milliards de dollars) pour faire l'acquisition de la compétence et des plateformes du streaming. Cette technologie a été conçue en 2016 pour la diffusion en streaming d'évènements sportifs à la demande. En Europe, BAMTech a comme premier client Eurosport. Notons que BAMTech est aussi une option pour Disney pour relancer son réseau ESPN en perte de vitesse avec une offre sports câble + à la demande (c'était à priori la raison annoncée de l'investissement dans BAMTech avant la nouvelle stratégie).

Les estimations pour Disney+ avant le lancement étaient de 8 millions d'abonnés à fin 2019 alors que Disney+ en a revendiqué 10 millions dès les premières 24h. Donc sans surprise la force du catalogue mis en avant autour de Marvel, le prix agressif de $6,99 par mois et la sortie originale d'une série dans l'univers Star Wars (The Mandalorian) ont fait le job, comme on dit au Québec. Mais est-ce une bonne nouvelle ?

Mais les abonnements à la demande que l'on peut résilier presque quand on veut, font que le succès de Disney+ ne sera durablement assuré que si l'expérience des utilisateurs est bonne. Et sur ce point, Disney+ s'est pris de plein fouet les affres du digital :
  • le maintient de la performance technique de la plateforme avec la montée en charge,
  • la capacité du support utilisateur à être efficace pour traiter en ligne les problèmes des clients qui après avoir payé sont en galère,
  • la sécurisation de ses activités qui, vu le buzz médiatique, ont également attiré les pirates.
Mais, mis à part les messages d'erreurs et de reconnaître avec un tweet un "couac" suite à l'afflux de plus d'utilisateurs qu'attendus, Disney+ n'a pas communiqué officiellement sur ces difficultés qui persistent. GreenSI est donc allé explorer les données factuelles des réseaux d'utilisateurs de ces quatre derniers jours pour essayer de tirer des enseignements sur cet apprentissage du digital par une société née en 1923.

Concernant les performances, un site de référence est downdetector. Disney+ y est en haut du hit parade des sites à problèmes depuis son lancement.
"Par chance" Netflix avait un problème samedi en Europe ce qui nous donne une belle référence sur la période. La comparaison du nombre d'incidents du samedi 16 novembre, proportionnellement au nombre de clients (10 millions versus 160 millions pour Netflix), montre que le niveau d'incident relatif par rapport à Netflix est 140 fois supérieur. Donc aucun doute sur une expérience de streaming dégradée vu des clients américains au service.

Les problèmes sont à la fois la qualité du streaming (53%)  et un problème de login (46%). GreenSI s'est même demandé si une régulation de l'accès à la demande (files d'attentes) n'avait pas été mise en place volontairement par Disney pour ne pas effondrer plus les performances du streaming perçues par les abonnés. Aucune annonce n'a été faite par Disney pour dire si le problème réside dans les serveurs frontaux qui délivrent le service ou sur le backbone de streaming.
 
Dimanche soir au moment où j'écris ces lignes Disney+ est toujours en haut du classement.
L'application mobile sortie avec l'ouverture du service et qui permet de télécharger les films et de les regarder sur son mobile a été téléchargée plus de 3 millions de fois en 24h selon le site Apptopia et 1,3 million d’heures de contenu ont été téléchargés dès le premier jour. Comparativement il est estimé que les utilisateurs de Netflix -16 fois plus nombreux - ont regardé 6 millions d’heures de contenu le même jour. L'usage de Disney+ sur mobile serait donc 3,5 fois celui de Netflix ?

Une hypothèse de GreenSI: les problèmes de connexions ne sont certainement pas étrangers à ce changement massif d'usage et une partie des utilisateurs se seraient alors vraisemblablement déportés sur le mobile et auront téléchargé leur film au lieu de le regarder en streaming.
Sur le plan du service client, Twitter reste la référence pour voir l'impact tel que perçu par les utilisateurs.
Les hashtags #DisneyPlusDown, #DisneySucks et #DisneyPlusFail sont encore largement utilisés. Les utilisateurs se plaignent du service client difficile à joindre et des déconnections régulières du service, peut-être parfois à cause de leur propre installation, mais clairement Disney+ ne s'est pas préparé à traiter autant de demandes de clients qu'il a maintenant en direct.

Sur le plan du catalogue des films, Star Wars c'était pour la vitrine du lancement mais tout le monde attendait l'émission quasi-religieuse outre Atlantique: les Simpson!

Disney+ avait annoncé mettre en ligne les 30 saisons d'épisodes à la demande - une première - mais a certainement loupé que la majorité de ses clients digitaux regardait avec un téléviseur grand écran 16:9, alors que le format d’image initial de l’émission est de 4:3. Les images ont donc été étirées dans le flux et les fans sont maintenant vent debout contre Disney+. Mais la réaction de Disney a été immédiate qui a annoncé que ce sera rectifié en 2020.
Enfin les pirates informatiques sont aussi venus tester la nouvelle plateforme en récupérant des comptes d'utilisateurs Disney+, certainement imprudents avec leur mot de passe, et en les revendant sur le net de 3 à 11 dollars comme le révèle l'enquête de ZDNet aux États-Unis. Pour le malheureux utilisateur qui s'est fait prendre son compte sans le savoir, le résultat est le même: il est déconnecté de tous ses appareils par le pirate qui change son email et son mot de passe. A lui d'expliquer son problème au service client... s'il arrive à les joindre !
L'expérience utilisateur sur Disney+ a été fortement secouée par ce lancement massif.

Porto Rico prévu le 12 novembre a été reporté d'une semaine et va se retrouver avec la prochaine vague : Nouvelle Zélande et l'Australie le 19 novembre. Une nouvelle semaine test arrive donc pour Disney+. Le digital est un nouveau métier qui s'apprend, mais il va falloir l'apprendre vite à la vue du calendrier de déploiement. On saura alors si la stratégie "big bang" de Bob Iger ("We're going to launch big, and we're going to launch hot) était la meilleur pour conduire ce changement.
En tout cas, bienvenue dans le monde digital !

lundi 11 novembre 2019

De l'Open data à la stratégie de données


La loi pour une République numérique a été promulguée le 7 octobre 2016. Elle visait à donner une longueur d'avance à la France dans le domaine du numérique, en favorisant une politique d'ouverture des données et des connaissances, et en adoptant une approche "progressiste" du numérique qui renforce le pouvoir d'agir et les droits des individus dans un monde numérique.
La loi conforte aussi le rôle de l'État et des collectivités locales pour ouvrir l'accès aux données les concernant (mobilité, environnement, alimentaire,...) afin de permettre à des entreprises, ou des administrations, de leur apporter une plus-value avec des services qui les réutilisent.
Trois ans plus tard, ces objectifs restent encore bien loin devant, notamment pour le volet open data avec le constat de données publiques encore peu ouvertes à des formats facilement réutilisables par tout un chacun. Dans un billet précédent, GreenSI s'était posé la question si l'open data ne s'essoufflait pas, tout en constatant une effervescence pour les échanges de données au sein d'écosystèmes fermés et les premières applications opérationnelles des villes intelligentes.

Mais compte tenu d'autres développements récents comme le RGPD ou celui des plateformes numériques qui valorisent les données et plus particulièrement de l'intelligence artificielle, on peut quand même se poser la question si ces objectifs sont encore d'actualité en France pour avoir une longueur d'avance dans le numérique. 

Le ralentissement de la locomotive anglo-saxonne lancée en 2008, depuis le départ de l'administration Obama (Open Government Initiative) et l'enlisement du Royaume-Unis dans le Brexit, deux moteurs de l'open data de la première heure, n'est certainement pas étranger à cet essoufflement français. L'Europe a aussi cherché à insuffler une nouvelle dynamique pour l'open data mais son projet majeur reste plus le RGPD que l'OGI. Enfin, les changements à la DINSIC (départ d'Henri Verdier) et le remplacement de Mounir Majoubi par Cédric O au secrétariat du numérique, n'ont certainement pas non plus facilité la continuité des projets.

Cette semaine, un collectif d'acteurs engagés de la première heure dans l'ouverture des données, publie une tribune dans les Echos pour dénoncer (et confirmer) ce ralentissement. Ils appellent à la mise en œuvre effective de l'ouverture dans certains secteurs (tous les décrets d'application ne sont pas encore signés) pour éviter de limiter les bienfaits de l'Open Data, au détriment des citoyens. 

Pour montrer tout le potentiel économique de l'open data, GreenSI prends l'exemple des applications mobiles qui permettent d’évaluer la qualité nutritionnelle des produits. C'est un cas d'école du pouvoir des données ouvertes traité dans un billet de 2018 (La FoodTech propose de scanner pour mieux manger!).
Aujourd'hui un français sur six les utilises.
Tout a commencé avec une base de données ouvertes, Open Food Facts, qui aurait pu être l'open data d'une administration en charge de contrôler les produits. Elle a été constitué par des citoyens engagés, mais le leader qui a su déclencher l'étincelle de l'adoption massive des français c'est Yuka, avec 11 millions d'utilisateurs en France en seulement deux ans

Yuka a également ouvert la voie à de multiples concurrents qui cherchent à se différencier par les usages de ces données. Les derniers en date sont, la marque "C qui le patron" qui lance "C'est quoi ce produit ?" et l'association "60 millions de consommateurs". Pourtant ces deux marques sont depuis longtemps bien ancrées dans la transparence et la relation directe avec les consommateurs lors de leur achat, mais elles n'ont pas vu venir ou elles n'ont pas pensé au "scan mobile". Elles ont été réveillées par l'innovation de Yuka !
Mais pour répondre à cette concurrence, Yuka a stoppé d'enrichir Open Food Facts avec ses propres retours de consommateurs via son application mobile, car elle alimente aussi ses concurrents.  
Cette petite bataille qui s'organise autour de la donnée et les concurrents qui amènent également de nouvelles sources de données (supermarchés, mesgouts.fr, toxicologie, ...) démontrent que les données ont de la valeur pour ceux qui savent les exploiter, et que la source open data n'est que le début d'une longue histoire de valorisation.

Le partage de données au sein d'écosystèmes (produits alimentaires, qualité de l'environnement, agriculture, ...) développe donc des externalités positives pour tous et stimule l'innovation et les nouveaux usages. Mais on voit que la valeur est dans celui qui a la capacité à avoir les données les plus complète et de qualité, quitte à les collecter avec son propre réseau d'ambassadeurs.

Maintenant, force est de constater qu'en 3 ans de loi Lemaire et 10 ans d'open data, il y a encore peu d'exemples issus des données publiques des administrations ou des collectivités locales, aussi impactant que cette simple base de données nutritionnelle.

L'association OpenDataFrance a d'ailleurs rassemblé sur son site les meilleurs réutilisations pour les partager largement et donner des idées aux autres. Les démarches efficaces reposent sur des données mises à jour régulièrement et disponibles à la demande. Finalement la question de l'ouverture est secondaire devant celle des moyens de production des données.
Mais pour les collectivités, les plus actives pour l'ouverture des données et depuis longtemps, leur ancrage sur un territoire limite leur champ de collecte de données, ce qui réduit d'autant l'impact de leur ouverture. Ainsi, pour produire un "service national" disponible partout, il faut collecter les données de toutes les collectivités, ce qui n'est pas si simple. Et si on ne le fait pas la valeur de l'application qui les utilise en est proportionnellement réduite.

Par exemple, en restant dans l'alimentaire, on peut citer les échanges de données des menus des cantines publiques ou privés utilisés par les applications scolaires ou dédiées. Ces échanges ne sont pas normalisées au niveau national et chaque application locale réinvente le fil à couper le beurre pour quelques milliers d'utilisateurs, quand à l'autre extrême un milliard de chinois utilisent la même application pour tout, Wechat. Il est peut-être temps de changer d'échelle !

Pour GreenSI l'open data doit être abordé plus stratégiquement et pas uniquement dans les lignes directrice d'une loi :
  • Plus que l'ouverture c'est la production de données publiques de qualité, et donc les moyens associés, qui produisent des externalités,
  • Les systèmes d'information doivent basculer vers des architectures orientées data pour aller vers des échanges sans rupture. Passer d'une logique de stock à une logique de flux.
  • La valorisation des données seule permettra évoluer vers des modèles durables, démontrés, et ainsi éviter l'écueil du gaspillage d'argent public.
La tendance à l'ouverture des données est stimulée par l'économie des plateformes. L'open data doit s'inscrire dans cette approche qui est aussi stratégique pour le secteur public que le secteur privé. 
 
Les entreprises agiles à croissance rapide opèrent des plateformes qui maîtrisent les échanges de données temps réel et en automatise les processus de relation avec leurs clients ou leurs fournisseurs. L'open data ne doit pas s'arrêter au contexte règlementaire d'ouverture, mais chercher à s'inscrire dans les premiers développements de ces nouveaux écosystèmes, par la qualité de sa production de données et le soucis de leur réutilisation. Deux angles morts actuels de la loi.
Et pourquoi pas (une idée qui peut déranger!): les fonctionnaires en charge de leur production, évalués sur les résultats de leur réutilisation ? La boucle serait bouclée.

Quand c'est une collectivité qui initie ces échanges, elle pourra ainsi stimuler le développement économique sur son territoire et mettre en cohérence l'open data avec sa politique numérique, de performance et de développement.
Les plateformes sont des modèles d'affaires dont le cœur réside dans la data. C'est pour cette raison qu'il faut rapidement passer de la logique réglementaire à celle de la création d'un écosystème au bénéfice de chacun, public comme privé. Dans le secteur public ces modèles permettent d'améliorer la performance et ne sont pas réservés au privé. C'est donc dans la perspective d'améliorer la circulation des informations au bénéfice de chacun dans l'écosystème, que s'imaginent les échanges de données sur les territoires, par exemple dans le cadre de l'économie circulaire structurellement transverse.

Enfin la valorisation des données est aussi une opportunité pour les collectivités, pour financer leurs coûts de traitements, qui ne feront qu'augmenter. Car l'open data demande de maîtriser l'ouverture des systèmes d'information, la qualité de données ré-exploitées en externe par des non spécialistes, et parfois l'anonymisation imposée par le nouveau RGPD. Or on sait que la quantité de données nécessaires ou traitées augmente dans tous les domaines, et donc les quantités de données à ouvrir vont également augmenter.

Avec le recul, on peut se demander si l'open data, au lieu d'être abordé par la loi, n'aurait pas du être abordé simplement comme la transformation digitale du secteur public.
Les acteurs publics constatent qu'ils ne peuvent se soustraire aux évolutions du numérique et de la société vers de nouveaux modèles plus agiles et plus ouverts. C'est une tendance de fond. Ils ne peuvent non plus empêcher la collecte massive de données, y compris d’intérêt général, qui tôt ou tard seront rendues accessibles. L'open data est donc un fil rouge à suivre pour cette transformation et en être acteur sinon d’autres le feront à leur place. Mais cet open data ressemblera plus à une stratégie digitale publique, une stratégie de gouvernance des données, qu'aux simples obligations d'une loi.

jeudi 31 octobre 2019

Le projet SmartCity de Google à Toronto repart

La ville de Toronto est en train d'expérimenter une nouvelle approche pour son développement : et si elle confiait à une entreprise privée tout un nouveau quartier à développer, celui de Quayside?
Quayside, ce n'est qu'une partie de la zone en bord de lac en total réaménagement à Toronto, mais c'est celle qui fait le plus couler d'encre car cette entreprise privée, c'est Sidewalk Labs, une filiale de Google (Alphabet). 
Don't be evil!

Faisant rapidement le lien avec le développement de sa maison mère qui a offert un service gratuit de recherche contre une valorisation des données personnelles, ce qui en a fait le leader mondial de la publicité en ligne, toutes les mauvaises intentions cachées sont alors données à Sidewalk Labs pour la création de ce nouveau quartier. Sa démarche de design est pourtant ouverte.
Le mouvement d'opposition baptisé #BlockSidewalk s'inquiète notamment du risque de s'approprier l'espace public. Il parle d'une ville truffée de capteurs, et de leur utilisation par le géant de l'Internet, qui plus est, un américain (et non canadien) posant une menace pour la vie privée des habitants de ce quartier et pour la souveraineté du Canada plus largement. Outch !

Ceci n'est pas sans rappeler en France les oppositions récentes de la CNIL à des usages de reconnaissance faciale pour assurer la sécurité à l'entrée de deux lycées, ou l'écoute des bruits de la ville pour identifier les coups de feu. Les villes intelligentes sont un nouvel objet qu'il faut s'approprier et parfois certains aimeraient bien qu'elles soient un peu moins... intelligentes ("qui a la faculté de connaître et de comprendre") !

Sans surprise, à peine la phase de design entamée, ce projet faisait déjà des vagues, et pour un quartier en bord de lac, il a bien failli tomber à l'eau.
Mais finalement ce 31 octobre 2019 un accord a été trouvé entre la ville de Toronto et Sidewalk Labs. Malgré l'opposition grandissante, Sidewalk Labs a su faire les concessions pour rester en lice dans cette dernière ligne droite avec une attribution finale attendue en 2020. 

Quayside c'est bien un projet d'innovation qui doit réinventer la ville et ses services au niveau d'un quartier (en plus bien délimité par des quais). Avec ce projet, GreenSI observe dans le domaine public, ce phénomène "d'hybridation" bien connu dans le secteur privé quand les acteurs traditionnels ou historiques font une place à des acteurs du numérique qui maîtrisent d'autres technologies et d'autres approches de l'innovation. Ou alors quand BlablaCar  rachète Ouibus à la SNCF, dans le cadre d'un partenariat pour le développer plus vite qu'elle ne sait le faire.

On a aussi vu  cette hybridation dans les banques ou dans les assurances, qui ont ouvert des sites d'incubation de startups ou de projets, comme le "Village by CA", ou des "Hub digitaux" ouverts à l'open-innovation pour apprendre à travailler différemment en intégrant des personnes qui pensent autrement. Mais l'hybridation marche dans les deux sens. C'est également la transformation des acteurs du numérique qui se heurtent (ou découvrent) leur impact sociétal et doivent composer avec pour contribuer positivement à la collectivité.

Les grandes métropoles recherchent maintenant toutes les compétences, bien au delà des techniques de l'architecture et de l'urbanisme actuel, pour aborder la transformation digitale et environnementales. En 2020, la ville se pense avec ses usages, avec un modèle économique durable pour son fonctionnement (énergie, entretien, environnement,...) et se co-construit avec les citoyens et la collectivité. Ce projet Quayside à Toronto en est l'illustration grandeur réelle dans une métropole de 3 millions d'habitants.

Tout commence avec les challenges auxquels les villes sont confrontées. Comment se réinventer en apportant une réponse durable pour réduire le trafic qui explose, notamment avec les livraisons du e-commerce, pour mieux maîtriser l'énergie, ou s'adapter tout au long de la journée aux différents usages et libérer des espaces communs pour que se développent des communautés et le bien vivre ensemble ?

La ville de New York vient de révéler le chiffre impressionnant d'un million de paquets livrés chaque jour, ce qui désorganise totalement sa circulation urbaine (camions en double file, tri des paquets sur les trottoirs,...) et montre que tous les plans à dix ans qui peuvent être élaborés par les villes peuvent être rendus obsolètes très rapidement par de nouveaux services qu'elles ne pilotent pas, voire qu'elles ne gouvernent plus (34% d'infractions de stationnement en plus à New York, sans effet car ces coûts sont intégrés dans les business modèles de la livraison !). Et ce n'est qu'un début car les délais moyens des livraisons continuent de baisser : Amazon, qui donne le la, veut passer à 24h pour un paquet standard et à 'heure pour les produits frais. Les résultats moins bons que prévus annoncés cette semaine, sont liés à l'augmentation des coûts de cette livraison du kilomètre final dans des délais courts, mais c'est un choix stratégique du géant.

Le réseau Internet a fêté ses 50 ans le 29 octobre (le web lui n'a que 30 ans) depuis son premier message entre les universités UCLA et Stanford, qui allait donner naissance à Arpanet militaire, puis Internet dans le domaine civil. Il aura bouleversé tous les modes de communication et développé de nouveaux espaces d'expression et de collaboration. L'impact d'Internet sur les villes et les métropoles est majeur, et n'a peut être pas encore été totalement intégré par les urbanistes.

Faisant partie du problème, Internet est aussi la solution en devenant le moyen de changer de modèle pour la ville. Elle peut façonner la ville comme l'automobile a façonné les villes que l'on connait, et l'électricité celles juste avant.

Si on revient à Toronto, avec le recul, s'associer à Google et à son expertise de l'Internet (certes très envahissante), n'est pas une si mauvaise idée voire même une très bonne idée pour la ville de Toronto qui est la première à le tenter. En tout cas, cette phase de bientôt deux ans de projet aura certainement été un catalyseur pour la ville, pour savoir ce qu'elle voulait et ce qu'elle ne voulait pas pour son avenir.

La première présentation publique a eu lieu fin 2017, et des phases de design avec les citoyens un an plus tard. Une longue année, mais qui est peut-être passée un peu vite (à l'échelle des standards des villes), sans mesurer les efforts de conduite des changements qui seraient nécessaires pour faire accepter l'idée d'une ville reposant sur une conception différente, et pour construire une gouvernance publique dans ce projet afin d'assurer son acceptabilité par tous.

En juillet 2019, après cette phase d'idéation, de concertation et de conception, le projet de "Smart City" de Sidewalk Labs pour Toronto a été dévoilé. On peut trouver sur le site dédié au projet les centaines de pages de ce travail qui ne manqueront pas d'inspirer d'autres villes... et certainement d'autres billets de GreenSI.


En terme d'approche, ce schéma d'urbanisation numérique de la ville présenté avec ses couches horizontales classique pour une architecte SI (équipement, connectivité, data, portails, applications) et la question brûlante de l'interopérabilité sur chaque couche, a dû laisser plus d'un architecte urbaniste perplexe. Et pourtant c'est bien cela qui manque dans les maisons, les bâtiments et bien sûr les villes où tout n'est pas compatible, fortement dépendant du constructeur ou de l'équipementier, ce qui complexifie la gestion ultérieure et réduit l'intérêt une fois construit. D'ailleurs de nouvelles normes se développent dans ce sens, entre autres celles de l'ISO ou de la Smart Building Alliance, mais sont encore loin d'être répandues dans l'industrie de la construction.

En trompe l'œil des projets ambitieux de villes intelligentes, se cache la transformation de l'industrie de la construction, pour justement des constructions au design beaucoup moins artistique et beaucoup plus intelligent
La réponse de Google est en partie technologique puisque c'est dans son ADN, mais son projet va au delà en abordant ce nouveau quartier comme un ensemble cohérent et reconfigurable. On va y retrouver des voitures autonomes, une meilleure gestion de l'énergie pour chauffer les pistes cyclables l'hiver (éviter le gel) ou les édifices. On y trouve également une infrastructure souterraine pour les livraisons à domicile, avec un centre logistique dédié pour améliorer le trafic urbain et la qualité de l'air. Et là on ne peut s'empêcher de repenser à New York.

Le design de Sidewalk Labs prévoit des tunnels pour relier les immeubles et des zones de chargement et déchargement, de collecte des ordures ménagères, affichant une réduction de 78% de la circulation poids lourds en ville.

Ceux qui sont déjà allé à Toronto savent qu'il y a déjà beaucoup de passages entre immeubles, que l'on peut passer d'un magasin à l'autre et qu'ils sont reliés également au métro, car l'hiver peut-être rude et long.

Comme quoi, des californiens bronzés qui pourraient avoir du mal à imaginer une ville sous la neige, ont utilisé l'intelligence collective des Torontois pour résoudre un autre problème dans le transport. D'ailleurs on aurait pu aussi s'inspirer en remontant au début du XIX siècle, les grands travaux des villes comme Paris ou Londres ont enterré les eaux usées qui passaient avant au milieu des rues en pente, engageant ainsi la révolution de l'époque, l'hygiénisme.

Domaine après domaine, le projet de Quayside essaye de réinventer la ville.
Le patron de Sidewalk Labs qui pilote ce design est Dan Doctorof, ancien DG de Bloomberg, quand Michael Bloomberg était Maire de New York. Il a une expérience du développement urbain à New York, du digital avec Bloomberg et de la banque d'investissement auparavant. Trois compétences à la croisée de ce projet hors norme

Dan Doctorof joue gros (sa première référence !) et mobilise tous les acteurs pour que le projet de Toronto soit une référence en terme d'innovation urbaine. Il est également prêt à injecter $900 millions pour financer le coût total de $3,9 milliards. Mais il a un atout dans son jeu : le siège social canadien de Google avec une promesse de 44.000 emplois et une contribution de 14,2 milliards de dollars à l'économie de Toronto d'ici 2040 lorsque le projet sera achevé. Mais cet atout, assez unique, ne pourra pas être joué avec une seconde ville intéressée par Sidewalk Labs ;-)

Finalement Google aura (presque) réussi là où Amazon avait échoué en début d'année avec ses plans pour un deuxième siège social à New York, après une réaction violente de la part des politiciens locaux et régionaux. Google montre qu'un siège, au milieu d'un quartier transformé dans l'intérêt de la collectivité, ça passe beaucoup mieux que de transférer uniquement les problèmes à la collectivité (augmentation du prix des logements, transports, écoles, ...) !
Le projet de Sidewalk Labs est donc de nouveau en piste et s'il est accepté par les autorités locales et le gouvernement canadien le début des constructions serait d'ici à 2022.

Pour obtenir ce résultat, Sidewalk Labs a du faire des aménagements à son projet, notamment un objectif de 40% des prix d'habitations en dessous du prix du marché et s'en tenir à son plan initial de 12 acres plutôt qu'à un projet de 190 acres proposé à l'été.

Concernant les données, le sujet suivi de près par GreenSI, elles ne seront pas utilisées sans consentement de l'utilisateur. C'est un engagement moindre que ce que le RGPD imposerait mais une première dans la sphère des GAFAs et leurs conditions générales "fleuve". 

Toutes les données récoltées dans le cadre urbain seront totalement anonymisée, stockées et traitées au Canada. Des accès publics et transparents seront aménagés via un service d'open data.
Waterfront Toronto, la société publique chargée du développement, dirigera aussi toutes les questions relatives aux données et à la confidentialité. Les spécialistes de l'urbanisme et du financement devront aussi s'hybrider et s'occuper d'architecture de données et de leur protection. C'est une décision importante.

Dans le domaine de la propriété intellectuelle, les entreprises canadiennes pourront utiliser tous les brevets générés par les innovations numériques du projet par Sidewalk Labs. Ce qui confirme l'ambition de Google en matière de dépôt de brevet ;-)

Ainsi, avec ces amendements au projet, les opposants ne pourront plus parler du "projet Google" puisque c'est devenu un projet aux multiples retombées publiques. Le 31 mars le conseil décidera alors de poursuivre ou non les accords de mise en œuvre avec une date butoir pour finaliser un accord avant le 31 décembre 2020. Pour GreenSI le projet a l'air d'être bien remonté sur les rails.

Avec ce projet très médiatisé en Amérique du Nord, GreenSI ne serait pas étonné de voire fleurir à l'avenir ce type de rapprochement public-privé, métropoles avec des acteurs de la technologie ou des acteurs qui ont développé une expertise forte dans les services urbains et l'environnement, et qui sauront composer avec une gouvernance forte de la collectivité.
C'est aussi un appel fort pour ces métropoles pour réinventer leur approche traditionnelle de l'urbanisme en misant plus sur l'innovation ouverte.

-->

dimanche 27 octobre 2019

SAP se transforme avec l'ERP


Il y a deux semaines, Bill McDermott, directeur général de SAP, et premier américain à occuper ce poste dans ce fleuron allemand du logiciel, a annoncé qu'il quitterait l'entreprise à la fin de l'année. Il sera remplacé par le tandem composé de Jennifer Morgan et Christian Klein, deux membres du Directoire actuel.

Pour GreenSI, Bill McDermott, c'est le "Satya Nadella (Microsoft) de SAP", celui qui a vu et su exécuter une véritable stratégie de transformation vers le "cloud". Une stratégie que certains concurrents peuvent envier aujourd'hui, puisque les derniers résultats montrent une activité cloud en hausse de 37% à 1,81 milliard d'euros (à comparer à un CA de presque 7 milliards d'euros - chiffres trimestriels). En 2018, les revenus du cloud SAP ont dépassé les revenus des licences pour la première fois depuis 1972.

On vient d'apprendre cette semaine que Bill McDermott rejoignait un autre acteur du SaaS, ServiceNow, dont la stratégie d'outil ITSM interne des DSI est à un tournant dans un monde digital où la collaboration technique est à grande échelle avec les exemples de Github ou Slack. A suivre...
 
L'agenda de ses successeurs est donc certainement celui de la consolidation du Cloud mais également d'un nouveau départ de l'ERP. Ce dernier, après s'être réinventé tous les 10 ans depuis les années 70s à chaque changement majeur d'architecture informatique (mainframe, départemental, client-serveur, internet), doit encore évoluer comme nous allons le voir.
La transition de SAP a été saluée par la Bourse, car non seulement les résultats de SAP annoncés sont bons, mais Jennifer Morgan la nouvelle co-présidente était leader du Cloud Business Group de SAP, et dirigeait les acquisitions et l'expansion de SAP dans le Cloud (Ariba, Concur, Fieldglass, SuccessFactors, C4/HANA et récemment Qualtrics). Christian Klein était lui directeur des opérations et dirigeant de l'entité Intelligent Enterprise qui, entre autres, gère le développement des produits numériques de SAP, dont le riche portefeuille sectoriel de SAP mais également les évolutions S4/HANA.

Une transition qui semble donc dans la continuité, mais qui confirme surtout la rupture dans l'évolution des ERPs. SAP a bien amorcé cette rupture et c'est cette trajectoire qui est maintenant à la tête de SAP sous l'œil bienveillant de Bill McDermott jusqu'à la fin de l'année, puis devra trouver son chemin dans l'évolution du modèle ERP mais également offrir une stratégie a ses clients qui ont lourdement investi dans SAP.

L'évolution des ERPs avec le digital a déjà été abordée par GreenSI (Quelles nouvelles stratégies ERP avec le digital ?).
Le CRM et la SupplyChain deviennent des plateformes digitales ouvertes en temps réel, quand l'ERP est positionné comme le garant des transactions au sein de l'entreprise (ERP digital: quand SCM et CRM ne feront plus qu'un). Mais l'ERP est aussi le garant des processus de l'entreprise et ceux-ci vont devoir s'adapter avec l'Intelligence Artificielle, dont l'automatisation amenée par la RPA mais également avec l'internet des objets, notamment dans le monde industriel. Acheter un ERP c'est acheter les meilleures pratiques de gestion, il ne faudrait pas qu'elles soient vite ringardisées par l'IA et l'IoT...

Oubliez l'ERP monolithique que vous connaissez. Quand ce ne sont pas plusieurs ERPs monolithiques, intégrés entre eux à grand frais, qui représentent plus les territoires organisationnels de chaque Direction métier, voir de leurs fournisseurs préférés, qu'une réelle stratégie cohérente et unifiée de planification des ressources de l'entreprise (ERP = Enterprise Ressources Planning).

Oubliez également l'ERP fermé sur l'entreprise. Le digital l'ouvre et permet des revenus supplémentaires, capturés immédiatement dans les transactions de l'ERP. De façon plus futuriste, on peut également imaginer que la blockchain amènera dans 3-5 ans, une gestion de registres ouverts qui challengera la vision actuelle d'un référentiel de stockage des transactions dans l'ERP.
Un éditeur comme SAP doit non seulement apprendre à développer nativement pour le Cloud, en exploiter toutes ses facettes (conteneurs, API, microservices, livraison continue, ...) et à grande échelle, mais également répondre aux enjeux business de transformation de ses grands clients. Des enjeux qui dépassent largement le domaine de l'ERP. La reconversion des développeurs pour s'adapter à un contexte technique, qu'ils ne sont plus seuls à fixer (comme avant) est certainement un autre challenge de transformation interne pour les nouveaux dirigeants.

La part de l'ERP chez SAP a toujours été importante, mais elle se réduit avec le temps car la valeur business du SI se déplace en dehors de l'ERP. A titre de comparaison, son concurrent américain Oracle, est depuis l'origine plus diversifié sur les technologies avec les revenus de sa base de données (SGBD Oracle) et plus récemment des serveurs (Sun). 



SAP est de moins en moins un simple éditeur d'ERP et la poursuite de sa transformation en plateforme est maintenant son enjeu.

Mais son modèle économique repose encore sur un modèle de licence qui est challengé par ses propres clients, qui eux aussi ont compris que la valeur business quittait l'ERP alors que son coût ne fait qu'augmenter. Au moins pour la France et son association d'utilisateurs, l'USF, ils souhaitent la mise en place d'un modèle transparent et équitable, car ils doivent réussir leur transformation digitale en maîtrisant leurs coûts.



Pour ces clients cela veut également dire de choisir la bonne solution PaaS - Platform as a Servcice -, pour s'intégrer avec les modules ERP en SaaS et bénéficier d'un ERP de plus en plus modulaire, qui pourra exposer ses fonctionnalités. 

SAP, comme certains de ses concurrents nativement SaaS, notamment NetSuite et Workday, offrent ces fonctionnalités de PaaS, pour développer des applications complémentaires à l'ERP. Mais l'entreprise peut également choisir une solution indépendante de l'éditeur, qui devra offrir des passerelles vers les principaux ERP. L'architecture d'intégration des ERP dans les entreprise est certainement à revoir, pour des questions techniques mais également économiques, si elle n'a pas évolué ces dernières années.

Cette stratégie de plateforme, et le choix d'un PaaS, sont aujourd'hui pour GreenSI, une importante décision stratégique à prendre pour commencer à recomposer son SI au fur et à mesure de l'évolution des ERP tout en bénéficiant du digital. 

En effet, au moins trois chausses trappes sont à éviter pour les entreprises :
  • croire que les ERP sont (encore) sur des périmètres "sanctuarisés" sans lien avec la transformation digitale,
  • ne pas engager d'évolution vers le SaaS et ne pas en tirer les bénéfices de scalabilité et d'agilité, pour soi, mais surtout avec son écosystème,
  • garder une vision "règlementaire" de l'ERP, décorrélée du business (qui souvent "justifie" de ne pas calculer de ROI aux projets ERP), sans imaginer sa propre contribution au business.
Avec le développement du Cloud comme plateforme de business, une nouvelle ère s'ouvre pour l'ERP, afin d'aller gérer les ressources de l'entreprise au delà de ses murs, impliquant ses clients et ses fournisseurs.

Il semblerait que SAP,  après avoir été challengé par ses concurrents nés dans le Cloud, ait réussi le début de sa transformation et est bien parti pour rester leader de cette nouvelle époque, comme il l'a été sur ces 40 dernières années. Une longévité rare dans le monde informatique.

dimanche 20 octobre 2019

La compétence SI la plus critique à l'ère de l'IA? Conduire le changement!

Dans tous les classements des technologies clefs à maîtriser pour la transformation digitale, l'intelligence artificielle arrive tout en haut de la liste. Ci-dessous, pour Gartner, l'évolution de l'agenda du DSI avec une envolée sur ce sujet en 2019. On notera au passage que l'excitation autour de la Blockchain est prématurée, en tout cas n'est pas un critère de différenciation entre les entreprises les plus performantes et les autres.

Même dans le secteur public, où pour GreenSI le calendrier de la transformation est généralement moins tendu, le Ministère des Finances, le bon élève pour moderniser son système d'information, a lui aussi des projets IA pour optimiser ses processus de contrôle fiscal. Certains de ses projets de "machine learning", comme celui exploitant les photos publiques des contribuables sur les réseaux sociaux, suscitent même des inquiétudes de l'opinion.

Dans "transformation digitale" il y a bien sûr "digitale" avec son volet "data". Un acteur français des plateformes de données nous rappelle avec humour que sans données on ne pas pas bien loin (voir aussi le billet "La révolution de la data est-elle vraiment engagée en France?", mais il y a surtout le mot "transformation".

Si la transformation ne se fait pas, la technologie digitale n'aura été qu'une étincelle, sans réel impact sur la performance de l'entreprise et aura même certainement augmenté les coûts et désorganisé les équipes.

Mais cette semaine, GreenSI a été intrigué par un autre retour d'expérience, celui d'une grande entreprise française qui en interne abordaient timidement l'intelligence artificielle, voir parfois sans vouloir prononcer son nom. En revanche les communiqués aux analystes financiers, eux, sont généreux avec les termes "IA", quand ce n'est pas "Blockchain", pour faire bonne tenue devant les levées de fonds importantes des startups sur ces mêmes sujets. 

Alors en externe on donnerait du digital, en veux-tu en voilà, quand en interne on tiendrait des propos plus mesurés sur l'IA?

L'interne comprends bien qu'il s'agit d'une transformation (trans-former = changer de forme) donc d'un changement. Et en France on aime pas le changement.
Il est vrai que l'intelligence artificielle, dont les performances théoriques ont été décuplées par le buzz de la presse et des communiqués financiers, est souvent associée - certainement à tort - au remplacement de l'humain par la machine. Avec un projet d'IA, il faudrait alors convaincre en interne sur le modèle organisationnel de demain avant même d'avoir démontré de premiers résultats aujourd'hui...

Un autre écueil majeur identifié dès 2018 par le Cigref, dans une étude sur les projets IA de ses membres, est que les ressources dédiées à l'IA sont souvent allouées à des "labs de données internes ou à des chatbots", qui ne sont que la partie visible de l'IA, mais sont largement insuffisantes pour transformer en profondeur les processus ou commercialiser de nouveaux services.

Ces projets ne réussiront à quitter les "proof of concept" des "datalabs" uniquement quand les financements seront alloués aux Directions métiers avec des objectifs métiers de performance ou de transformation.

Mais l'IA demande des approches transversales, surtout dans le domaine de la relation clients ou de la chaîne logistique, et là on touche un troisième écueil, celui d'organisations silotées entre Directions métiers. Que ce soit les modes de collaboration, dont l'usage du numérique est encore limité pour collaborer efficacement (sans s'envoyer un email!), ou parfois le vide organisationnel pour aborder le transverse, même au niveau des compétences.

Enfin, pourquoi les informaticiens et les statisticiens, ou maintenant les data scientists, ne travaillent pas ensemble dans une même organisation?
Comme in fine leur travaux vont rajeunir ou réinventer le système d'information, c'est bien dans une organisation proche du système d'information et des services numériques de l'entreprise qu'ils doivent mettre leurs compétences au service des métiers.

D'ailleurs demain, y aura-t-il un projet SI qui n'abordera pas l'IA dès le départ ?

On est donc bien en train de vivre une phase d'hybridation transverse des métiers dans l'entreprise, dopée par le numérique, mettant en réseau toutes les compétences. Mais cette transformation ne se fera pas sans un programme de conduite des changements porté au plus haut niveau de l'entreprise.

En début d'année une étude mondiale d'IDC auprès d'entreprises qui utilisent déjà l'IA a révélé que 25% seulement avaient développé une stratégie d'IA à l'échelle de l'entreprise, alors qu'elles reconnaissent que c'est une priorité valorisée par leurs clients et que cela demande de développer une nouvelle culture ("AI first").

L'automatisation n'est donc pas l'objectif, mais bien un moyen, au service de l'amélioration de la productivité, de l'agilité et de la satisfaction des clients. Plus de 60% de ces entreprises constatent également des modifications dans leur modèle organisationnel et d'affaires, suite à l'adoption de l'IA.

Quand on en vient aux échecs, 25% d'entre elles reconnaissent un taux d'échec pouvant atteindre 50% des projets engagés. Un projet sur deux n'aboutit pas (mais peut quand même
être utile pour "apprendre et tester"). Le classique manque de personnel qualifié n'est pas le seul responsable. Des attentes irréalistes, sans stratégie globale, et le manque d'une production permanente de données de qualité sont aussi identifiés.


En 2018 le cabinet Gartner avait également conduit une étude sur les freins à l'adoption de l'IA, résumés dans le schéma ci-dessous. La responsabilité des vendeurs y est un facteur plus important que la maturité de l'entreprise, et pourtant peu d'articles en parle.



Alors, si vous voulez lancer un projet IA et ne pas vous retrouver "hors sol", voici ce qui ressors de ces différentes études des échecs des projets IA :
  • Ne partez pas sur un projet technique, genre la "méga plateforme data qui sera utilisée par tout le monde", amen, que veulent vous vendre vos fournisseurs quand ce ne sont pas vos consultants, mais partez bien avec des cas d'usages validés pour leur apport de performance ou de satisfaction clients.
  • Validez un programme pluriannuel, car on parle de transformation et d'un processus lent, avec des objectifs au mieux à 6,12 et 18 mois. Embarquez dans le programme la conduite des changements et le partage des réalisations intermédiaires pour ancrer le programme dans le réel et éviter les phantasmes autour de l'IA.
  • Mobilisez transversalement tous les acteurs internes de l'expérience client, de la data et de la sécurité.
  • Ne vous laissez par imposer des fournisseurs, sous prétexte qu'on a déjà un contrat cadre mondial avec eux pour acheter des trombones (par exemple). Le coût de la solution est faible devant le coût de la transformation, alors choisissez les solutions qui vous aident à réellement vous transformer et mettez plus de moyens dans les projets de transformation que dans les achats de solutions.
Avec les projets d'intelligence artificielle, comme finalement avec les projets informatiques depuis 30 ans, la compétence la plus critique c'est bien celle de savoir conduire le changement, et pour GreenSI l'agilité n'y est pas étrangère depuis l'arrivée du digital.

dimanche 13 octobre 2019

Gouverner les nouvelles infrastructures numériques des villes et métropoles

Au pays de la résistance et de la contestation, pour un oui ou pour un non, le numérique ne fait pas exception.
En 2013, il aura suffit d'un bonnet rouge et d'un drapeau breton pour mettre par terre une infrastructure moderne de portiques de suivi des flux poids lourds sur autoroute et son centre de traitement des données.
Cette infrastructure  réalisée et livrée, ne demandait qu'a être "programmé" par le politique, que ce soit pour appliquer cette fameuse écotaxe qui faisait débat ou au contraire attribuer une subvention carburant aux transporteurs bretons. Dans les deux cas il y a besoin de traquer les poids lourds et leur usage de l'autoroute, pour faire un calcul et agir.

L'infrastructure technologique est donc neutre, c'est ce que l'on en fait qui ne l'est pas. 

L'exemple d'Enedis avec Linky est aussi instructif sur cette faiblesse de l'accompagnement des changements quand on est un opérateur d'infrastructure national, qui aurait pu oublier de demander à ses clients sur le territoire, individuels ou en collectivités, ce qu'ils pensent de l'évolution du réseau électrique à l'heure du smart grid.

Car dans cette opposition récurrente contre Linky, personne ne pourra soutenir longtemps que sa facture a été multiplié par 5 (mais plutôt qu'avant il ne payait pas le bon tarif, compteur bloqué voire trafiqué), ni que son compteur a pris feu à cause de Linky (cela arrivait déjà avant et dépend bien sûr de son installation). Quand on regarde la liste des griefs reprochés à l'objet Linky connecté, seul le sujet de l'électrosensibilité est discutable, car peu d'études ou de retour d'expérience existent. C'est justement pour cela qu'Enedis doit de se rapprocher de ses clients et de la collectivité pour en parler. 

Pourtant, une infrastructure de "smart grid" moderne est un pré-requis vers les énergies renouvelables décentralisées et des services de maîtrise d'énergie pour les usagers. Linky devrait donc plutôt baisser les consommations de ceux qui vont se connecter à leur espace client, pour la comprendre et la suivre au jour le jour, et non comme avant quelques fois par an à la réception de la facture non détaillée, quand c'est trop tard pour rectifier son usage. 

En France, avec souvent beaucoup de mauvaise foi, on aime bien confondre l'infrastructure, qui est neutre, avec ses usages, qui eux sont politiques, au sens premier de l'organisation de la vie de la Cité.
 
Les métropoles, les villes et même les villages, devenus intelligents par le développement de la connectivité et des applications du numérique, risquent de se retrouver dans cet immobilisme bien français si on y prête pas attention.

Le développement d'infrastructures de "captation de données" sur l'espace public est pourtant amené à se développer, à l'instar du développement de la vidéoprotection, classique ou intelligente, ces dix dernières années.
Sur le site de la CNIL on apprends que le nombre de caméras sur la voie publique a fortement augmenté pour prévenir des actes de terrorisme, le trafic de drogue et des atteintes à la sécurité des personnes et des biens dans des lieux particulièrement exposés.
La police municipale est alors assermentée pour consulter ces vidéos dont le stockage et l'utilisation sont strictement encadrés. Mais les services de la collectivité peuvent également former et faire assermenter des agents non policiers.

Ceux qui sont opposés à cette surveillance affirment que la vidéosurveillance sur la voie publique ne produit rien et coûte cher. On peut cependant trouver des études sur l'amélioration de la perception de sécurité quand elles sont installées. D'ailleurs quand les citoyens s'organisent eux-même (comme avec "voisins vigilants") chacun devient une "caméra" au service des autres - symbolisée par l'œil sur le logo -  quitte à utiliser son smartphone personnel pour filmer en tout illégalité quand un incident survient...

On confond encore l'infrastructure de capture de vidéo sur l'espace public avec son usage, ici la surveillance ou la protection. D'ailleurs ce n'est pas le seul usage et de multiples autres usages sont possibles !
Les vidéos peuvent également identifier automatiquement des dépôts sauvages, des dégradations d'équipements, des voitures stationnées sur les pistes cyclables, voir des comportements vertueux comme de traverser sur un passage clouté. En mutualisant cette infrastructure au service de plusieurs usages, on répond aux opposants sur le volet financier puisqu'elles peuvent alors amener plus de bénéfices pour un coût identique.

Début 2019, dans un quartier de Saint-Étienne, ce n'est pas de la vidéo qui est en test, mais celui d'une infrastructure d'un nouveau genre à base de capteurs de sons. Des algorithmes analysent en temps réel l'environnement sonore pour catégoriser les bruits définis à l'avance (sans rien enregistrer ni pouvoir identifier l'émetteur du son). Des évènements d'alertes peuvent être envoyés aux personnels des centres de vidéo-surveillance pour une levée de doute et ainsi gagner du temps pour le déclenchement d'une intervention des services municipaux quand des bruits spécifiques sont entendus (collisions de voitures, bris de vitres,...).

Aux États-Unis ces équipement sont utilisés pour détecter des coups de feu, dans le contexte d'insécurité que l'on connait dans certaines villes.
En France cette expérimentation a été reçue plutôt froidement par la presse régionale, elle a été repoussée en attente d'un nouvel avis de la CNIL qui s'était déjà prononcée... Silence radio aussi à Lyon qui était engagé dans un projet équivalent. Pourtant le potentiel d'une telle infrastructure, comme pour la vidéosurveillance, dépasse la protection de l'espace public. Une expérience similaire a été engagée il y 5 ans dans le parc national des Calanques au large de Marseille, pour écouter, détecter les signatures et mesurer la vie sous-marine (bioclics, vocalises,...) et les nuisances humaines antropophonique (bruit des hors bords, ...). La mesure de la reconquête de la biodiversité de cet espace protégé, sous forte contrainte humaine, est à ce prix.

Que ce soit pour mesurer les nuisances ou la biodiversité sous-marine, l'infrastructure de détection de bruit est neutre. Elle est entrainée à reconnaître les bruits que l'on souhaite. S'opposer à ce type d''infrastructure c'est s'opposer, autant a des usages qui pourraient devenir discutables que d'autres usages très bénéfiques. Bien sûr une fois en place il faudra gouverner ces usages en gouvernant les infrastructures.

On pourrait multiplier les exemples de ces nouvelles infrastructures qui vont se développer, comme la mesure en continue de la qualité de l'air ou des odeurs, et qui vont permettre à la ville de développer une plus grande résilience, mais également de contrevenir à des comportements individuels dangereux ou interdits.

Si on ne veut pas que ces infrastructures rencontrent les mêmes difficultés que les portiques écotaxes, et autres objets technologiques sacrifiées pour acheter la tranquillité, il va falloir que les collectivités s'emparent de la gouvernance de ces infrastructures.

Elles vont devoir expliquer leur fonctionnement et leurs limites pour équilibrer l'information au public avec la démagogie et les "fake news" qui fleuriront. Elles vont ensuite devoir définir les usages souhaités sur le territoire, en s'appuyant sur une participation citoyenne large, pour ensuite laisser les projets privés ou public-privé, se développer.

Pour cela elle vont devoir "rentrer dans le dur", renforcer les compétences numériques et aborder des sujets techniques comme : les données personnelles, le big data, le rôle des algorithmes, la mise en œuvre du RGPD - pour de vrai ! -  dans la collectivité, la transformation digitale de cette collectivité au sein de cette ville plus intelligente, ...
Les élections municipales de 2020 arrivent et sont certainement l'occasion pour les élus de projeter leur mandature dans ce futur numérique pour mieux le préparer et accompagner le changement.

Un élu confiait à GreenSI cette semaine, "ne parlons plus de NTIC, elles sont là". Maintenant parlons d'usages et de gouvernance, la collectivité doit s'emparer des sujets transverses du numérique.

L'humour de ceux qui aiment le numérique