dimanche 1 septembre 2019

CRM: mais pourquoi Salesforce rachète Tableau ?

Pour ce premier billet de rentrée, GreenSI fait un point sur l'évolution du domaine de la relation client communément appelé CRM. 

C'est un domaine clef de la transformation digitale qui technologiquement est fortement utilisateur du Cloud avec le SaaS (7 CRM sur 10 sont vendus en SaaS) et intégré aux réseaux sociaux.

Un billet précédent (ERP Digital: quand CRM et SCM ne feront plus qu'un) a montré, que dans une économie numérique, le CRM s'intégrait naturellement à la Supply chain pour le bénéfice d'une expérience clients unifiée et d'un meilleur pilotage du coût client.

Enfin, côté offre de logiciels et services, malgré qu'il soit le plus grand marché applicatif, le CRM est en croissance annuelle de 15%, et même 20% pour le CRM en SaaS - selon les chiffres du cabinet Gartner -  ce qui montre factuellement le niveau d'investissement des entreprises avec des projets qui concernent en priorité le marketing (pour la prise en charge de la totalité de l'expérience utilisateur), par rapport aux domaines historiques des ventes ou de la relation client, et même du eCommerce.
En 2019, ce segment du marché informatique est donc très dynamique et est le premier marché pour les applications. Alors quoi de neuf sous le soleil qui a l'air de briller pour ceux qui sont engagés dans cette aventure ?
Le signe qui a alerté les radars de GreenSI qu'il se passait quelque chose, est la récente boulimie de son leader, Salesforce. Ce dernier domine sans partage les domaines des ventes et du services client, est dominé dans le domaine du marketing (par Adobe) et du eCommerce (par SAP), et conquiers de nouveaux clients par rapport aux ténors des ERP, (SAP et Oracle), qui eux se concentrent sur leur base existante. 

Salesforce ne se voit plus simplement comme un compétiteur sur le CRM mais bien comme une plateforme qui va devoir assurer son développement contre Facebook, Amazon ou Apple, dont les stratégies de contrôle de la relation clients, dans les 5 prochaines années, peuvent en faire des alternatives pour les entreprises.

Ainsi, en juin, Salesforce a réalisé la plus grosse acquisition de son histoire (15,7 milliards) avec Tableau Software pour se renforcer dans l'analyse et la visualisation de données. Puis en juillet la rumeur de l'acquisition de ClickSoftware, éditeur spécialisé dans la gestion des équipes de terrain ("field service") monte, et est confirmée début août avec une mise en œuvre fin octobre 2019.

Deux acquisitions dans des domaines connexes au marché du CRM, qui pour GreenSI confirment un virage vers la data et l'intégration avec la supply chain, dans un contexte où l’expérience clients est aujourd’hui l'une des portes d'entrée de la transformation numérique.

Dans le domaine du service client ou Salesforce est leader, la supply chain qui permet de délivrer le service, passe dans de nombreuses industries par la gestion d'interventions d'agents mobiles ou de véhicules sur le terrain. C'est dans cette perspective d'un meilleur service, d'une coordination renforcée entre le terrain et les centres d'appels, et de l'enrichissement des fonctions actuelles de "field service" assez légères, que s'analyse l'acquisition de ClickSoftware.
C'est donc une acquisition d'évolution des fonctionnalités du domaine. On peut s'attendre à de nouvelles acquisitions des acteurs du CRM pour se rapprocher plus de la supply chain et des données logistiques, notamment dans le B2B dans le domaine du transport mais GreenSI y reviendra dans un prochain billet.

En revanche, l'acquisition de Tableau est-elle plus disruptive pour le CRM.


Tableau c'est la visualisation de données simplifiée, reposant sur une architecture dans le Cloud pour qu'elle soit "élastique" en allant chercher la puissance nécessaire à ces traitements à la demande, et permettant ainsi aux utilisateurs de tester à la volée tous les croisements qui leur passent par la tête. 

La donnée client est depuis l'origine du CRM, le cœur de cette démarche centrée sur le client.
Les capacités analytiques pour l'analyser se sont développées avec des modules spécifiques dit de "business intelligence" puis les modules marketing ont automatisé les processus clients avec cette donnée.

A moins de vouloir refondre totalement ces fonctionnalités analytiques, on se demande quand même pourquoi Salesforce a fait cette acquisition.
Mais avec le développement de l'omnicanal, les données clients ne sont plus uniquement dans l'entreprise et encore moins dans la base CRM. Cela pourrait même coûter une fortune en interfaces de vouloir toutes les y mettre. Einstein, l'IA maison de Salesforce, ne sait pour l'instant travailler qu'avec des données contenues dans Salesforce, ce qui limite son potentiel. D'autre part le besoin de traitement de ces données devient quasi temps réel quand il s'agit de tracker les clients sur les canaux digitaux pour leur faire la meilleure offre puis de mobiliser son eCommerce pour prendre le relais.

La question de l'accès à toutes les données influençant l'expérience client, complexifiée récemment par les mécanismes d'anonymisation du RGPD, et le fonctionnement en temps réel demandé par le digital, sont des barrières actuelles des systèmes CRM. Il faut une nouvelle approche pour les contourner. 
Avec l'acquisition de Tableau, Salesforce semble avoir choisi d'y répondre en déplaçant son centre de gravité pour être une plateforme de traitement de données dans le Cloud. Car Tableau est intégrable à toutes les bases de données sources, dont celles des ERP. C'est une posture qui va devenir intéressante avec le développement de l'intelligence artificielle et du prédictif, pour y développer des algorithmes et les mettre à disposition des utilisateurs. Salesforce a fait ses premiers rachats dans ce domaine des algorithmes en 2016 avec PredictionIO et Krux, et GreenSI ne serait pas surpris qu'Enstein ne vienne se positionner sur cette plateforme de données au lieu de rester interne à Salesforce. On peut également faire le rapprochement avec l'acquisition de Mulesoft (pour $6,5 milliards), spécialiste des plateformes API, et donc au cœur de l'interopérabilité demandée par l'omnicanal.

Cette acquisition est d'une certaine façon la réponse de Salesforce à ses concurrents qui ont commencé à s'allier pour offrir une vision plus globale des données, au-delà du CRM.  C'est le projet Open Data Initiative, comme quoi, pour les habitués de ce blog, l'open data n'est pas limité au domaine de la Smart City et du secteur public.

En effet, l'an dernier Adobe (gestion des données marketing), Microsoft (CRM et ERP Dynamics) et SAP (HANA) ont décidé de travailler de concert sur ce projet pour avoir un modèle de données commun à leurs applications et favoriser une vision client à 360° et se préparer aux échanges temps réel d'information personnalisées et à l'arrivée intelligence artificielle avec des algorithmes plus avancés de machine learning.

Ci-contre la présentation de l'initiative de Microsoft, qui se met au centre, mais qui surtout y associe son Cloud Azure et ses services de traitement de données dont ceux à base d'IA.

Le CRM ne peut donc plus être cloisonné, même si avec l'ajout successif de modules il a déjà étendu sa capacité à intégrer plus de données depuis son origine. La dernière acquisition de Salesforce est certainement le signe que la capacité à les traiter en dehors des modules du CRM va devenir de plus en plus déterminante.

Cette acquisition va également bousculer les DSI qui vont devoir se positionner par rapport à cette stratégie car dans les entreprises, le CRM piloté par la Direction Clientèle est parfois assez séparé des projets de Datalake pilotés par la Direction Financière. Mais aussi en creux, pour ceux qui ont fait le choix du cinquième larron - Oracle - de se demander si de faire cavalier seul quand les autres créent des écosystèmes sera payant sur le long terme.

dimanche 28 juillet 2019

La transformation digitale au cœur des villes intelligentes

GreenSI traite régulièrement le sujet de la métropole, la ville ou même le village, devenus intelligents par le développement de la connectivité, stimulant la circulation des données entre acteurs de l'espace public, développant de nouveaux services et facilitant l'open-innovation. Plusieurs perspectives se sont développées depuis dix ans sur cette transformation qui mettra bien dix années supplémentaires à révéler tout son potentiel.
La première perspective des "smart cities" est bien celle de la donnée.
A l'origine, le mouvement de l'open data a commencé à gagner en influence, d'abord au niveau national avec une vision presque politique (transparence de l'État, rendre aux citoyens les données qu'ils financent avec leurs impôts) puis au niveau des territoires et des collectivités locales, qui se sont appropriées l'open data à leur façon.

Ce mouvement a surtout mis en exergue la donnée, ce qu'elle était, et la valeur qu'elle avait dans ses réutilisations potentielles.

A la même période, la promesse de l'analyse massive des données collectées par des capteurs, par les citoyens ou sur les réseaux sociaux, a été poussée par le marketing de sociétés technologiques issues du secteur informatique ou des réseaux.
Les deux tendances se sont aujourd'hui combinées !

L'ouverture des données, au sens large, s'est imposée à la fois comme porteur de transparence et de coordination dans le système complexe de la ville, mais également comme une plateforme technique pour échanger ces données et matérialiser le véritable jumeau numérique de la ville, devenu accessible. Ces deux dimensions sont présentes dans les projets d'hypervision de l'espace urbain les plus avancés en France.

La seconde perspective qui émerge est celle de la gouvernance numérique.

Que ce soit au niveau des échanges de données ou des plateformes qui les supportent, le rôle des acteurs impliqués est questionné et doit être gouverné. Une première loi a organisé l'open data public en 2016 et les obligations de chaque acteur pour son avènement. Puis en 2018 les données personnelles ont bénéficié d'un cadre général en Europe au travers du RGPD. Enfin toutes les autres données se trouvent à circuler dans des systèmes d'information qui ont leur propre gouvernance, notamment en terme de sécurité et de protection des données.

La gouvernance de la donnée existe donc déjà, mais elle est peu unifiée et pas toujours lisible. On commence d'ailleurs à voir émerger des programmes académiques centrés sur ce sujet qui prends de plus en plus d'importance, comme la Chaire que lance ce mois-ci l'ESSEC, intitulée "Stratégie & Gouvernance de la donnée".

Dans la ville devenue intelligente, la gouvernance de la donnée est un fil rouge mobilisateur, transversal aux compétences de la collectivité mais également aux écosystèmes qui se constituent autour des nouveaux gisements de données (données de transport, flux sur l'espace public, interventions sur les équipements de la ville, ...)

Pour donner du sens à cette gouvernance, la collectivité est attendue par les citoyens pour prendre position sur le traitement de leurs données personnelles au niveau local, et parfois prendre position, là où la loi ne s'est pas encore totalement prononcée, comme sur la cyber-surveillance et demain sur l'intelligence artificielle. Des collectivités ont engagé des travaux sur des chartes de bonne conduite dans le traitement des données, pour aborder avec du sens et de façon transverse, les multiples règlements illisibles pour les citoyens.
La collectivité est aussi attendue pour réguler le développement des nouveaux services, notamment par les données, comme ce billet de juin dernier l'avait montré avec l'exemple des trottinettes à Paris. Enfin la collectivité, historiquement organisée par compétences, pour ne pas dire en silos, dans un millefeuille territoriale pas toujours simple à décrypter, a aussi besoin d'organiser ses données pour plus de transversalité. Elle commence à adopter les démarches de la transformation digitale et même de nouveaux postes transverses, dans l'organisation de ses services ou de sa DSI, comme Administrateur Général des Données ou Chief Digital Officer.
La troisième perspective que souhaite mettre en évidence GreenSI est donc celle de la transformation digitale.

Dans les territoires devenus intelligents, on assiste à une réalité de transformation du numérique proche de celle des entreprises. La technologie, et en son cœur les données, permettent de gérer efficacement les actifs et les ressources, avec un objectif d'améliorer le mode de vie des habitants mais également sur celui des entreprises.

Transformation digitale des entreprises et villes intelligentes se rencontrent.  La vivacité de la première renforce la seconde, et réciproquement.
Dans l'analyse de GreenSI, beaucoup d'industries sont, ou vont être, concernées et peut-être challengées, par cette transformation. Le premier axe de transformation se trouve dans les services qui organisent où réorganisent l'espace, que ce soit l'immobilier, le transport et bien sûr l'urbanisme.

La transformation digitale met en avant l'agilité et le numérique. La traduction d'une plus grande agilité grâce au numérique dans le secteur de l'immobilier commercial est par exemple la conception d'espaces à usage mixte ou le développement de l'impression 3D, qui rend agile la fabrication.

Le récent Moniteur Innovation Day à StationF, a permis de faire le point sur cette tendance et de dégager trois axes de transformation (et d'innovation) de la filière construction au service des villes :
  • Le cap vers l'économie servicielle, avec des nouveaux ouvrages intégrant systématiquement plus de services associés. Ces services délivrés par les ouvrages reposent sur le numérique et interagissent avec leurs usagers. Le bâtiment lui même devient intelligent.
  • La transformation de la construction, de la conception au chantier, avec une construction qui se déplace hors site, une économie circulaire qui se met en place au niveau des chantiers. La ville de demain sera construite avec les matériaux d'hier, et les acteurs de l'environnement présent au MID, comme Suez, se lancent dans la déconstruction pour recycler les materiaux. Mais la ville de demain a aussi une composante numérique avec la réalité virtuelle de sa conception qui viendra enrichir le jumeau numérique des villes intelligentes
  • De nouvelles formes d'organisation et de management émergent, comme les nouveaux processus collaboratifs à l'ère du BIM, mais également une stimulation de l'innovation plus forte. Le rôle de nouvelles plateformes collaboratives est déjà bien installé, mais des plateformes d'un nouveau genre émergent, comme celle de Siradelles villes veulent leur double numérique.
Dans le domaine du transport, l'enjeu de la ville sera un transport plus intégré. Les échanges de données joueront un rôle majeur pour permettre ces nouveaux services multi-modaux, de façon virtuelle, en consolidant la multiplicité de l'offre, que ce soit dans le domaine des nouvelles mobilités, du co-voiturage, ou le développement des circulations douces.

Enfin au niveau de l'urbanisme, le projet de Google à Toronto questionne les planificateurs urbains et immobiliers. Comment prévoir des espaces mixtes reconfigurables dans la journée ou en fonction des saisons, ou revoir les circuits de livraison qui engorgent les villes et les remplacer par des drones aériens ou sous-terrains ? La collecte des déchets s'imagine déjà différemment avec les premières navettes fluviales comme celle qui démarre sur la Seine après celle du Grand-Lyon.

Le second axe de transformation est dans la gestion des infrastructures.
L'effondrement du viaduc à Gênes, il y a juste un an, aura marqué les esprits de ceux qui sont en charge des infrastructures et remis les projecteurs sur les besoins en maintenance des infrastructures urbaines.

Des besoins, que l'on pourrait parfois avoir tendance à facilement oublier quand ils concernent le futur et ne sont pas visibles aujourd'hui. Les coûts de maintenance sont en général sous estimé et le déficit des années antérieures peut s'avérer colossal.
Dans ce contexte, l'enjeu de transformation digitale est de réduire le coût d'aujourd'hui et, via l'internet des objets et la maintenance prédictive, de réduire également celui du déficit en ne traitant que le juste nécessaire.
La répartition de ces charges entre de multiples acteurs publics va nécessiter l'émergence de bases de données communes, pour coordonner et optimiser ces plans, à l'image de ce que la construction a commencé avec le BIM. On en est au tout début.

Enfin, le numérique de la ville intelligente doit lui même être considéré comme une nouvelle infrastructure qu'il faut sécuriser et maintenir avec un cycle de renouvellement plus rapide.

Cette infrastructure demande des moyens propres en terme de réseaux, de capacité de calcul, mais aussi de cybersécurité. Le sous-dimensionnement de ces infrastructures ou leur fragilité, limitera le développement et la transformation des autres services. Cette infrastructure, n'est pas limitée au système d'information de la collectivité. Elle est partagée par toutes les parties prenantes, que ce soient les citoyens connectés, chez eux ou sans fil sur l'espace public, les commerçants, les entreprises et même les véhicules.
Elle rendra possible par exemple le développement massif d'applications comme la télé-médecine, avec des citoyens davantage connectés à leurs praticiens de santé. La 5G est à horizon 3 ans en France sur le plan des réseaux, pour compléter les autres réseaux actuels comme le Wifi ou le bas-débit des compteurs intelligents (ex. Wize 169MHz), mais l'essentiel sera à nouveau dans la capacité à traiter les données avec des plateformes interopérables, et donc adopter une gouvernance adaptée. 

Derrière le concept de ville intelligente se cache donc la transformation digitale des collectivités locales, des territoires et de tous leurs acteurs. Une transformation qui s'annonce passionnante et que l'on continuera à suivre.
Si vous voyagez en ville ces vacances, regardez autour de vous cette transformation est déjà visible, et revenez transformé en septembre pour aborder la reprise des billets GreenSI. Bonnes vacances !

dimanche 21 juillet 2019

Le redoublement du plan numérique à l'école

"La stratégie pour faire rentrer l'école dans l'ère numérique vise à développer un écosystème global de l'e-Education, depuis les contenus et services jusqu'au matériel.
Elle s'appuie sur la mobilisation coordonnée des différents acteurs pour mettre en place les conditions optimales d'un développement harmonieux et efficace des usages, des ressources, des équipements, des infrastructures, de la formation des enseignants et des compétences numériques des élèves."
Ce n'est pas GreenSI qui le dit, mais le plan numérique à l'école du gouvernement français, lancé en 2015. Et GreenSI ne peut que supporter une vision qui se base sur le développement d'usages, au sein d'écosystème mixant contenuéquipements et utilisateurs


Dans le cas présent, la révolution numérique permet un renouveau pédagogique majeur. L'école primaire et le collège sont les bons endroits pour amener les nouvelles générations à maîtriser le bagage numérique qui aura une influence majeure sur la société dans laquelle ils vont vivre.
Mais le numérique est également un défi majeur de transformation dans tous les secteurs dont l'éducation, même nationale (abordé en 2014 dans le billet "un tsunami numérique va déferler sur le monde de l'éducation"). Il disrupte la production de contenu, mais également les méthodes, les programmes d’enseignement et les modes d’évaluation tout en offrant une possible réorganisation des espaces et des temps scolaires.
Dès 2015, la mesure principale de ce plan concerne l'équipement des élèves. Elle est cofinancée par l’État et par les collectivités territoriales et a été déployée progressivement pour viser l'objectif de 100% des élèves dotés de tablettes numériques en 2018.
Malheureusement les usages et le nouvel écosystème n'ont pas suivi, et même le taux d'équipement n'a pas dépassé 43%. Alors l'an dernier, pendant la torpeur du mois d'août, le gouvernement a enterré ce plan en changeant d'approche, bousculé par les coûts associés à des équipements fragiles dont le renouvellement technique est rapide, et sans grand effet "waouh" vue la très large diffusion de ces équipements au sein de la population. Il est maintenant préconisé de laisser les tablettes personnelles des élèves se connecter dans les établissements plutôt que de poursuivre l'onéreuse fourniture de tablettes aux élèves. On retrouve ici la question du BYOD, "bring your own device" qui s'est également posée dans l'entreprise.


Cette semaine la Cour des comptes publie son rapport sur ce plan numérique avec une conclusion assez sévère : "La politique en faveur du numérique éducatif est devenue illisible en tant que politique nationale, inscrite dans un service public".

Ce qui a intéressé GreenSI, c'est ce que n'est pas tant un problème d'argent qu'un problème de méthode. Les investissements publics en faveur du numérique éducatif ont beaucoup progressé durant la période 2013-2017, mais la priorité (discutable) donnée aux équipements, a absorbé une grande partie des investissements du Programme d'Investissements d'Avenir (PIA 2). 
De plus, ces investissements n'ont pas bénéficié de "conditions de déploiement optimale", que ce soit la connexion insuffisante des écoles, des enseignants et des élèves qui doivent trouver ensemble l'usage des ressources numériques, la formation initiale ou l’accompagnement approprié des enseignants avec une pédagogie appuyée sur le numérique.

L'enquête menée par le laboratoire Techné de l’université de Poitiers pour la Cour des compte, montre que les enseignants utilisent aujourd'hui majoritairement les outils numériques pour préparer leur cours, mais sont-ils préparés pour les intégrer dans leur pédagogie ? Cette question est clef pour une transformation de la relation élève-enseignant en classe.
L’État, qui a pourtant réformé la formation initiale des enseignants, n'a pas pris la mesure de la transition numérique et a même supprimé la validation de ces compétences numériques essentielles, lors de leur formation initiale.
Enfin, le numérique pose la question du système d'information au sein de l'écosystème. La DINSIC partage le constat d’une quasi-dépendance du ministère de l’Éducation nationale s’agissant des logiciels de gestion de la vie scolaire, ce qui devient compliqué à piloter quand ils sont au cœur de cette transformation.

La Cour des comptes termine son rapport par la recommandation d'une stratégie de déploiement du numérique au sein de l’éducation nationale qui pourra inspirer plus d'un projet de transformation, puisque c'est bien de cela dont il s'agit :

  1. Un socle numérique de base (écoles, collèges et lycées), homogène au plan national pour chaque catégorie, combinant des infrastructures et des équipements mis en place par la collectivité responsable avec un engagement de l’État sur la formation des enseignants et la mise à disposition de ressources éducatives
  2. Rétablir une certification obligatoire des compétences numériques dans la formation initiale
  3. Piloter l’offre de ressources et services pédagogiques numériques, clarifier les missions de service public pour les gérer
  4. Faciliter l’accès des élèves et des enseignants aux ressources et services numériques publics grâce à un portail unique
  5. Compléter la connectivité de l’ensemble des écoles et établissements scolaires publics
  6. Réserver l’acquisition d’équipements individuels aux élèves qui en font la demande, et sur critères sociaux
  7. Faire évoluer les dispositifs d’espaces numériques de travail, pour garantir la protection des données à caractère personnel, grâce à l’identifiant unique de chaque usager de l’éducation nationale.
  8. Reprendre la maîtrise des logiciels de gestion de la vie scolaire

Ce plan de recommandations reprenant en partie l'objectif initial du programme de 2015, la boucle est bouclée, et le redoublement assuré ;-)

Ce retour d'expérience illustre bien l'inutilité d'une transformation seulement guidée par le déploiement de la technologie. Il illustre également la difficulté à accompagner les changements et l'appropriation de la technologie pour développer de nouveaux usages et l'importance d'engager en même temps des expérimentations liées à l’innovation dans les processus.
A l'échelle d'un ministère de plus d'un million de fonctionnaires, dont 850.000 enseignants, il n'y a aucun doute que la transformation numérique est d'abord une question de femmes et d'hommes. Mais attention à l'accélération, car demain la machine viendra s'en mêler avec la question de l'influence des progrès de l'intelligence artificielle sur les outils pédagogiques, la formation des enseignants ou les nouveaux modes d’apprentissage.
La stratégie pour faire rentrer l'école dans l'ère numérique n'en est qu'au tout début du chemin...

dimanche 7 juillet 2019

Jusqu'où vouloir faire le bien des citoyens avec la technologie?

Quand en France la "raison d'être" enflamme les débats et a été intégrée à la dernière loi pour les entreprises (loi Pacte), le "motto", le code de conduite pour une entreprise américaine, est depuis longtemps un élément de sa stratégie, parfois très médiatisé.
Ce fut le cas avec celui de Google "don’t be evil" (Ne soyez pas malveillants), inspirant aussi d'autres acteurs de la Tech de la Silicon Valley. Après 19 ans de service, ce "motto" a été changé l'an dernier par "Do the right thing" (Faites ce qui est juste). L'enjeu d'un "motto" est d'aligner toute la chaîne d'innovation d'une entreprise pour trouver comment la technologie peut améliorer la vie des gens, même si, ne soyons pas naïf, la majorité des projets qui en sortiront devront d'abord être rentables et ouvrir un marché d'au moins X milliards de dollars.
Avec une telle ambition universelle et fondatrice, GreenSI se pose la question de la limite d'action d'une entreprise vis-à-vis du politique qui dirige les peuples, au niveau local ou national. Illustrons-le avec deux exemples tirés du parcours récent de ceux qui ont réellement les moyens financiers et d'ingénierie pour changer le monde, les GAFAs !
Restons sur Google et sa filiale Sidewalk Labs qui a initié en octobre 2017 un partenariat inédit avec la ville de Toronto, pour développer une nouvelle norme pour la vie urbaine au 21e siècle en équipant le quartier Quayside.
Le rapport final a été publié fin juin, un rapport de pas moins de 1500 pages en trois volumes que GreenSI est allé chercher (I - Plan de développementII - Innovations et III - Governance). Ce plan directeur est la synthèse d'une démarche de mobilisation sans précédent de dizaines de milliers de torontois et d'agents de la fonction publique de la ville, dont les travaux ont été publiés au fil de l'eau sur un site internet dédié et ont pu être largement commentés. Ces commentaires, et leur médiatisation locale pendant 12 mois, ont permis d'amender et d'enrichir le projet pour l'adapter aux besoins et réserves de la population.



Cependant le simple nom de Google pour imaginer la ville de demain déclenche beaucoup de craintes, et peut-être même de fantasmes, sur la gestion des données personnelles. Mais alors pourquoi avoir accepté en 2017 de confier à Google cette réflexion ? Et si Google est animé par son nouveau motto "do the right thing" pourquoi ne serait-il pas apte à imaginer ce futur, surtout en mobilisant les talents multi-disciplinaires qu'il sait si bien recruter à travers le monde ? Le sujet des données est d'ailleurs loin d'être l'essentiel de ce projet qui fait bien jaloux...

Quand on rentre dans le rapport final, les spécialistes voient immédiatement que ce plan chercher à bouger les lignes de la ville de demain, que ce soit dans la mobilité, la gestion des bâtiments, ou la durabilité. Bien sûr l'innovation numérique est également au rendez-vous, mais les propositions ne sont pas des plus surprenantes. Après tout, la technologie de capteurs fut il y a 10 ans le point de départ de beaucoup de projets de "smart city" dans le monde, pour ensuite s'enrichir d'une dimension citoyenne, et aujourd'hui de performance économique des services.

En revanche, le premier quartier totalement construit en bois massif avec des rues qui peuvent être reconfigurées et s'adapter aux changements est plus original et unique. De même l'objectif de développement des infrastructures de transport en commun et de pistes cyclables pour éliminer la nécessité de posséder une voiture, est aussi unique dans la façon dont le problème est posé. Paris aimerait bien réduire les véhicules, mais sa gouvernance complexe au sein de la région n'a pas su anticiper une saturation des transports en commun, ouvrant la voie à des acteurs de micros mobilités encore plus difficilement gouvernables. La voiture est combattue, quand le projet Quayside pousse son remplacement, question de perspective.

Enfin, contrairement aux raccourcis que l'on peut lire par-ci et par-là, Quayside ce ne sera pas une "ville Google". Le rôle de Sidewalk Labs est dans l'accompagnement du secteur public pour créer les conditions d'un développement économique, d'aménager une petite partie des terrains pour y développer un Campus de l'innovation et un siège canadien de Google, et non dans le développement de toute une ville. Le gouvernement de l'Ontario reste bien sûr à la manœuvre, notamment pour valider et amender le projet proposé d'ici fin 2020, pour qu'il soit engagé.

Ce projet de Toronto révèle un besoin d'adaptation des services urbains à un moment porté par deux révolutions, l'une numérique et l'autre environnementale, dans le contexte d'une croissance du modèle urbain qui ne ralenti pas. Toronto à besoin de cette transformation et trouvera le bon niveau de curseur dans sa relation avec Google. GreenSI en est persuadé, Google, via Sidewalk Labs, accompagnera les villes dans leur développement et certainement Toronto.


En France, le développement des services urbains, à la recherche de performance et d'améliorations pour les citoyens, se fait aussi avec de nouvelles combinaisons entre public et privé, comme le montrent les projets de Dijon Métropole, de la communauté de communes du pays Haut Val d'Alzette ou encore la consultation encore plus ambitieuse, en incluant les Régies municipales dans le périmètre, qui se déroule en ce moment à Angers.
C'est en 2016 qu'un décret a autorisé en France le partenariat d’innovation public-privé. Il permet de ne pas utiliser un appel d'offre classique (avec un cahier des charges) pour "la recherche et le développement de produits innovants ainsi que l’acquisition ultérieure des produits en résultant et qui répondent à un besoin ne pouvant être satisfait par l’acquisition de produits déjà disponibles sur le marché". Les villes intelligentes ne s'achètent pas sur étagère et entrent dans cette catégorie.
Le gros atout de ce dispositif par rapport à Toronto, c'est que la collectivité reste le maître du jeu, pendant la consultation et pendant le projet, tout en bénéficiant de l'expertise d'acteurs industriels comme EngieBouyguesSuez ou Cap Gemini., qui dégagent en plus des synergies.
Le second exemple de ce billet est celui d'une entreprise qui a inscrit dans son ADN les échanges et la collaboration entre individus sur la planète: Facebook. Son "motto" est-il trop ambitieux pour pouvoir déstabiliser des démocraties ?
Jusqu'où peut aller Facebook dans sa relation avec le politique ?


Aujourd'hui Facebook annonce le lancement prochain du "libra", une nouvelle monnaie digitale.
Ce projet ambitieux, totalement aligné avec la stratégie du réseau social, n'a pas manqué de déclencher une avalanche de réactions pour alerter l'opinion du franchissement d'une ligne rouge imaginaire. Imaginaire, car tout ce qui n'est pas interdit est autorisé et Facebook ne se mettra pas hors la loi, vu le niveau de son budget "affaires juridiques" ;-)

La vision de Facebook est de lancer le système paiement (dont il aurait besoin) à l'échelle de 2,5 milliards d'utilisateurs sur la planète pour pouvoir l'opérer au sein de son réseau social. Cette vision c'est une sorte de moyen de paiement transnational, qui déplais forcément aux Etats, et pour cela non associé à un compte bancaire qui serait nécessairement domicilié, ce qui déplais forcément aux banques. La fondation Libra a publié un livre blanc pour expliquer sa vision.


Le projet est bien construit. Ce n'est pas un hasard que l'américain, d'origine française, David Marcus, soit à la tête de ce projet. Il a été président de Paypal qu'il a quitté en 2018, et à étudié l'économie à Genève où est basé Libra, avant de rejoindre Mark Zuckerberg.
Libra s'appuie sur le terreau fertile des cryptomonnaies, qui ont réussi à s'imposer ces dix dernières années, mais en les réinventant pour dépasser leur limite technologique(performance technique et énergétique) et faire du futur Libra quelque chose de stable (indexés sur monnaies réelles). Donc pas de lien avec le Bitcoin, mais il en emprunte et améliore la technologie Blockchain.
Bien sûr, Facebook laisse la main à une association Libra à but non lucratif (avec juste 1 % des droits de vote) qui regroupe déjà 28 membres (des universités, des ONG mais aussi VISA, Mastercard, eBay ou Paypal) et créé une filiale (Calibra) qui va déployer la fonctionnalité d’acheter des libras pour ensuite effectuer des paiements sur son réseau social. Toute entreprise pourra en faire de même, y compris ses concurrents. Mark Zuckerberg a précisé que "toute information partagée avec Calibra sera bien gardée à part des informations partagées sur Facebook" et si il ne l'avait pas dit, le RGPD le lui aurait rappelé pour les européens. 

Alors l'ambition de Facebook qui heurte les États (et les banques mais là c'est de la concurrence) est-elle démesurée ? Le Congrès américain s'est vite montré réservé, la Banque Centrale Européenne contre, ce projet aura l'effet de réveiller un système international de paiement. Il y a d'ailleurs de fortes chances que Facebook puisse, avec ses partenaires, lancer Libra pour éventuellement limiter son usage au départ au sein de son réseau social. Son lancement est prévu en 2020, une année qui décidément sera passionnante ;-)

Avec ces deux projets on assiste à un plafond de verre que ne doit dépasser l'ambition d'une entreprise, sous peine de remettre en cause des équilibres politiques, Google au niveau d'un territoire, Facebook au niveau international et des États.

Un paradoxe que ces spécialistes du Cloud ont toujours un peu de mal à comprendre ;-)
-->

samedi 29 juin 2019

Un poste de travail, un peu trop verrouillé pour innover

Les DSI vivent avec l'épée de Damoclès de la sécurité au-dessus du SI qu'ils ont en charge. Ils savent que le poste de travail est un maillon faible, dans les mains des cohortes d'utilisateurs plus ou moins conscients des risques encourus.
Non seulement le poste de travail peut être exploité pour simplement rentrer dans le SI via un port USB, un site trop curieux ou une application infectée, mais il est lui-même maintenant devenue une cible avec des ransomware qui chiffrent les postes et demandent une rançon en bitcoins pour obtenir la clef de déchiffrement.

Dans ce contexte, prévenir les accès frauduleux, empêcher l’exécution de virus ou la prise de contrôle à distance sont des priorités de toutes les politiques de sécurité, que ce soit par une sensibilisation permanente des utilisateurs sur les risques associés à leur équipement, ou par des dispositifs plus directifs, allant jusqu'à la suppression des ports USB ou le verrouillage des droits sur le poste, même celui de changer le fond de l'écran. Tuer la créativité des utilisateurs est presque devenu une doctrine ;-)

Cette politique sécuritaire, très centralisée, se heurte cependant à plusieurs évolutions des usages du numérique dans les années qui arrivent.
Elle repose fortement sur le système d'exploitation du poste, ce qui ralentit le rythme de ses mises à jour et de ses évolutions. En effet, chaque nouvelle version de l'OS remet à plat toute l'expérience de sécurité accumulée, et demande un travail énorme de tests, souvent concentrés dans un projet de migration.

 Sans surprise, dans les grandes entreprises, on saute au moins une version d'OS quand ce n'est pas deux. Aujourd'hui le nombre de machine sous Windows 7 est encore significatif alors que l'on se rapproche de la date de fin de support et il faudra certainement 6 à 8 ans pour basculer de Windows 7 vers Windows 10. Pourtant Microsoft est fier d'annoncer que c'est la vitesse d'adoption de Windows la plus rapide de son histoire, mais elle reste celle d'un escargot à la vitesse du numérique et de l'adoption de PokemonGo par exemple, une des plus rapide au niveau mondial.

Ce retard de version d'OS permanent, outre de ne pas profiter de l'innovation amené par les OS, prive également des nouvelles versions logicielles qui sont celles qui contiennent les dernières innovations. D'ailleurs c'est fait exprès pour laisser "les autres" essuyer les plâtres, dommage pourtant si ce sont vos concurrents qui innove avant vous...
Et puis quand la Direction des Achats est passée par là, on utilise des machines pour lesquelles le fabricant a optimisé le prix pour répondre au cahier des charges, et bien souvent réduit à la baisse les performances comme la mémoire, les CPU, ou la vitesse des disques. Pourtant, in fine, ces choix se traduisent par de la performance pour les applications utilisées et donc de la productivité pour les utilisateurs, mais elle n'est peut-être pas comptée dans les indicateurs de performance achat ;-)

Donc en moyenne, les entreprises payent cher, un poste de travail pour des versions anciennes d'OS, quand elles ne sont pas obsolètes et une limitation de la puissance disponible pour les utilisateurs. Ça fait bizarre dit comme ça, non ?
C'est pourtant cette triste réalité qui verrouille le poste de travail et lui interdit d'être un territoire d'innovation du SI.

On comprends bien la situation schizophrénique, mais comment s'en sortir ? 
C'est également cette réalité qui amené au développement du "BYOD" (Bring Your Own Device), quand l'utilisateur abandonne le poste de son entreprise pour un poste plus adapté. Cet usage reste marginale (enfin, on le pense car difficile à mesurer) mais le développement des usages du numérique et l'augmentation des volumes manipulés par les utilisateurs ne va t-elle pas l'amplifier ? 

On parle partout d'usine 4.0, de réalité virtuelle ou de réalité mixte et d'algorithmes intelligents; la DSI va donc être confrontée à la prise en compte des opérationnels comme agents connectés. Cela ne va pas concerner les personnels administratifs ou management, qui paradoxalement sont les mieux équipés, mais tous les autres qui ont en plus souvent l'exigence de la mobilité dans leur travail. Dans l'exemple ci-contre, le manchon connecté testé dans le BTP et la collecte des déchets.



Les postes de travail sont déjà passés du PC fixe sur un bureau, au terminal mobile connecté et dans la poche en 20 ans.
Leur forme risque de varier encore plus à l'avenir si on considère des lunettes d'ateliers connectées ou les voitures connectées de commerciaux ou d'intervention, comme des postes de travail. Ces équipement ont un OS préchargés, peuvent se connecter au SI et exécuter des applications.

On assiste aussi au remplacement des CPU par les GPU, beaucoup plus adaptés aux graphiques 3D, ça les jeux vidéos le savent bien, mais aussi à l'intelligence artificielle. Ça fait tout de suite plus sérieux. D'ailleurs, l'action de Nvidia continue de s'envoler par rapport à Intel qui peine à se réinventer. Les utilisateurs vont donc être de plus en plus nombreux à se sentir bridés.

Et puis, les volumes de données qui augmentent posent un challenge au modèle "tout cloud" (voir Edge qui gérer la sécurité des données), sans compter la sécurité des données cette fois - surtout si elles contiennent des données personnelles, ce qui est plus souvent le cas qu'on ne l'imagine. Le bon vieux poste de travail risque donc de redevenir une plateforme de stockage des données opérationnelles, certes sauvegardée, pour ensuite pouvoir y exécuter des traitements au plus tôt, avant d'en remonter les résultats dans un Cloud.
L'usage du cloud est devenu hybride, entre public et privé, et maintenant entre cloud et "edge".

Enfin, pour GreenSI, un dernier frein à la politique de gestion actuelle des postes de travail reste la possibilité de pouvoir travailler dans des écosystèmes multi-entreprises. Les consultants le savent bien, démarrer une nouvelle mission dans une entreprise est une galère sans nom pour la connectivité de son poste, car on arrive avec les contraintes de son entreprises d'origine et on doit adopter celles de son nouveau client. Parfois, elles sont incompatibles et on se retrouve à travailler avec... deux postes de travail !
Les plateformes collaboratives en ligne demandent également des mises à jour régulières, souvent d'ailleurs pour des questions de sécurité, alors que justement la gestion des postes verrouille toutes les mises à jour. Elles sont administrées de façon centrale, mais à un rythme beaucoup plus lent que les attentes des plateformes partagées qui a un moment vous bloquent l'accès. Après les développeurs qui utilisent beaucoup ces nouvelles plateformes en ligne structurant leur collaboration (GithubSlack, ...) les métiers vont basculer avec le développement des écosystèmes comme celui du BIM, Building Information Management.
L'évolution du numérique va donc fortement challenger les DSI avec ce besoin émergent de puissance, d'un nouveau modèle Cloud+Edge et de plateformes collaboratives multi-sociétés.
La centralisation et l'homogénéité des besoins est certainement une stratégie à revisiter avec des supports utilisateur plus proches des besoins réels et des conditions opérationnelles d'utilisation des SI.
Peut-être aussi une individualisation du poste de travail plus forte par métier, on l'a déjà connue par le passé avec les centres d'appels et le couplage téléphonie-informatique.
C'est un challenge de plus pour l'organisation des services IT, dont ils se seraient certainement bien passé.

samedi 22 juin 2019

L'open data s'essoufle mais les "closed data" arrivent


Cette semaine se tenait le Forum Data Territoriale auquel participait GreenSI, une occasion pour faire le point sur le rôle clef de la donnée dans les services publics et plus largement sur l'open data.
Mais avant, prenons un peu de hauteur...
L'internet est depuis son origine synonyme d'échanges numériques de données et de collaboration, mais il se trouve aujourd'hui en état de "fragmentation accélérée".

Les signes avant-coureurs déjà relevés par GreenSI (5G, vers un Internet fragmenté), sont une hétérogénéité de plus en plus forte entre l'internet des États-Unis et celui de la Chine, mais également la fermeture comme stratégie qui se profile en Russie, ou une protection tout azimut qui s'organise en Europe depuis le RGPD. La récente affaire Huawei étant le paroxysme de cette fracture, où protection et souveraineté remplacent ouverture et universalité. L'open data s'était inscrit en 2010 dans cette tendance de "gouvernements ouverts" qui n'est plus d'actualité.

Le contrôle des contenus, des infrastructures et des données des internautes, sont devenus des batailles géostratégiques.

Les bonnes intentions de l'Internet Society des premiers jours sur la "mission" de l'Internet, ont été archivées dans des oubliettes numériques.
Sans mission pour dire ce qu'il veut construire, l'Internet se cherche des "anti-modèles" pour dire ce qu'il ne veut pas, comme Mark Zuckerberg et ses vues sur la vie privée ou la démocratie, discutées aujourd'hui au niveau des chefs d'États.
En France la fragmentation se prolonge de façon moins visible, entre les territoires qui ont fait du numérique un enjeu de modernisation et de développement économique, et ceux dont les élus ou les agendas des services territoriaux, ne l'ont pas encore mis dans leurs priorités. Elle sera fortement visible dans 3-5 ans au rythme actuel de développement du numérique et de ce qu'il amène.
Dans ce contexte, Étalab joue un rôle important sur la politique de la donnée publique qui lui a été confirmé par Nadi Bou Hanna, le nouveau Directeur de la DINSIC dans sa stratégie Tech.gouv pour accélérer la transformation numérique de l'État. Laure Lucchesi, directrice d'Etalab, et Romain Tales, responsable du pôle données, étaient présents à ce forum pour éclairer l'impulsion qu'ils souhaitent donner à leur action et développer l'open data, maintenant qu'il est dans la Loi.
Leur premier constat a été sur les 10 ans d'open data qui ont permis des avancées significatives pour mettre le projecteur sur la donnée, améliorer les services aux usagers (ex. transports), rendre plus efficace l'action des services publics (ex. offres d'emplois) et même créer de la valeur, comme avec l'ouverture des textes de jurisprudence utilisé comme base d'apprentissage IA par les startups de la Legal Tech. Les données de références sont maintenant bien installées, et ré-utilisées, dans un service public de la donnée à l'échelon national. 
Mais ensuite le constat général est que l'open data ouvert et accessible à tous est victime de son design : on ne sait pas qui en fait quoi et il est couteux en accompagnement d'en stimuler les usages.
Les plus optimistes diront que c'est devenu un usage courant, que l'accès aux données en open data se fait si naturellement qu'on ne s'en rend pas compte. C'est l'avis de l'association Open Data France, dans son ouvrage publié cette semaine. Il y aurait un "iceberg des réutilisations" avec une partie émergée visible très faible et de nombreux cas de réutilisations invisibles. Mais cet ouvrage reprend de multiples réutilisations de données, y compris par les entreprises opérateurs de services publics, qui ne passent pas par des plateformes open data et n'en adoptent pas les licences, jugées parfois contraignantes.
Les plus pessimistes constateront que 90% des collectivités sont hors la loi open data et ne publient pas leur données. Celles qui les publient, les mettent rarement à jour en continue ce qui limite les envies à réutiliser au-delà d'une analyse ponctuelle.
GreenSI pense donc qu'il est temps d'élargir l'open data pour libérer tout son potentiel.
En premier lieu, l'objectif doit être de faire circuler les données et non créer des stocks de données, donc de brancher l'open data sur les processus réels de production de données.
En second lieu, il faut sécuriser les accès, quand c'est nécessaire, par exemple avec des API, pour augmenter la quantité de données candidates et développer de nouveaux mécanismes de régulation par la donnée. Les adeptes de l'open data de la première heure viennent de s'étouffer en lisant cette dernière phrase puisque c'est contraire au principe fondateur de l'open data. Pourtant cette idée ne remet pas en cause l'open data originel, elle l'étend a de nouveaux usages dans un Internet fragmenté par la sécurité, la géopolitique et l'idée de trouver des modèles économiques pour péreniser la production des données.
Appelons le "closed data" si cela peut réconcilier tout le monde ;-)

Bienvenue dans le monde des closed data, celles qui s'échangent et se réutilisent, entre acteurs publics ou privés, qui représentent peut-être que la partie immergée de l'iceberg, mais surtout qui ne se défissent pas selon les principes de l'open data pour des raisons propres à la délicate alchimie de la confiance à créer dans chaque domaine. Les usages dans les smart city tombent dans cette catégories.


La Ville de Paris nous a amené récemment un exemple avec une tentative de régulation des trottinettes dans Paris par les données, en attendant une loi pour aborder le sujet des micros-mobilités.
Comment échanger des données quand les opérateurs refusent de partager entre eux leurs données stratégiques ? Comment la Ville de Paris peut faire sans données, pour créer des emplacements de stationnement « aux bons endroits » et empêcher l’accumulation de trottinettes dans une zone ?
Des questions auxquelles l'open data ne peut répondre dans ce contexte concurrentiel et d'innovation permanente.
Et pourtant ce sont des questions auxquelles le challenge d'open innovation de la Ville de Paris a répondu, avec la startup Wintics, son partenaire Engie Siradel pour la modélisation 3D et Axway, connu pour ses plateformes API.
La collectivité s'est posée en interlocuteur neutre qui reçoit les données des opérateurs toutes les 3h (via des API) et s'engage à les traiter de façon confidentielle. Elle peut alors analyser les flux et les stocks de données. Les flux lui permettent de constater une accumulation de trottinettes - multi-opérateurs - et de la signaler rapidement aux opérateurs qui doivent intervenir. Les stocks, lui permettent d'étudier l'historique des emplacements de trottinettes laissées par les usagers, et d'identifier les zones les plus propices pour créer les emplacements attendus, qui peuvent ensuite être communiqués aux opérateurs. Ces emplacements n'ont pas besoin d'être matérialisée sur la chaussée, ils existent virtuellement dans la maquette numérique de la ville et dans les échanges entre la ville et les opérateurs. Ils peuvent évoluer régulièrement au rythme des usages des trottinettes.
Cet exemple montre comment on peut organiser un système numérique de régulation dynamique par la donnée, paramétré par la collectivité, et connecté aux plateformes des opérateurs.
Ce n'est pas nouveau, c'est déjà ce que se passe depuis 10 ans dans le domaine des travaux sur la voirie, pour partager les localisations des réseaux enterrés et éviter de détruire par mégarde des canalisations quand on fait des travaux. On fait au préalable une demande (DICT) dont le workflow engage la responsabilité juridique des acteurs. L'État s'en est ensuite inspiré pour créer un "guichet unique" et réguler.



Les échanges numériques dans les villes intelligentes s'organisent donc en stocks, pour mettre à jour le jumeau numérique de la ville, ET en flux, pour rendre les services interopérables entre les multiples acteurs du territoire. Autant les données de références peuvent être largement ouvertes, autant les flux sont réservés à ceux qui sont habilités et sont souvent des "closed data", les deux étant gouvernées par la collectivité. 



Pour GreenSI, ce forum a donc confirmé le rebond de l'open data vers une forme plus large d'échanges de données. L'open data a besoin de flux qui doivent être normalisés entre acteurs, parfois sécurisés, et outillés par des plateformes techniques utilisant des API pour se brancher sur les processus de production de ces données et être réutilisés au fil de l'eau.

Ces échanges accompagnent la transformation numérique des villes et territoires (Smart City) et complètent l'approche des centres de pilotages, comme celui inauguré en avril de cette année à Dijon, qui eux centralisent les données pour superviser la ville.

Mais l'open data est aussi un fil rouge en interne des collectivités, pour aborder leur propre transformation numérique par la transversalité des données, par la maîtrise de leur processus de production ou pour mieux les partager et les gouverner. Une gouvernance qui n'est d'ailleurs pas qu'interne, mais aussi externe, comme l'a montré l'exemple des trottinettes.

Et s'il fallait encore un dernier argument pour convaincre que les stratégies de données sont sur le radar des collectivités locales, engagées dans la révolution numérique, Nantes métropole nous l'a donné cette semaine avec la publication d'une Charte de la donnée métropolitaine. La collectivité prends des engagements sur le traitement des données (façon RGPD) et renforce ainsi la confiance qu'on peut lui faire pour qu'elle puisse les collecter.
L'open data est essoufflé, mais il a ouvert la voie à une stratégie de la donnée très prometteuse et créatrice de valeur pour les territoires qui sauront s'en emparer.

lundi 10 juin 2019

Faut-il sauver le soldat GED dans la tourmente du digital?

En 2012 GreenSI se demandait si le bon vieux fichier, issue du traitement de données des premiers ordinateurs, n'était pas dépassé à l'heure du Mobile, du Cloud et du Collaboratif.

Cette organisation de l'information, totalement fragmentée, décentralisée et individuelle (décidée par les utilisateurs finaux) a été rapidement remplacée par des bases de données. Mais quand il s'agit de documents (pdf, xls, ...) on a finalement peu évolué depuis les débuts de l'informatique et ils sont toujours dans ces fameux fichiers aux multiples formats plus ou moins propriétaires.
Les GED sont arrivées dans les années 90 pour gérer ces "documents fichiers" et permettre de les augmenter avec un plan de classification, un calendrier de conservation, des métadonnées, des visualiseurs multi-formats, etc.
Les solutions (FileNetDocumentumStellent...) se sont développées en reposant sur des bases de données SQL pour stocker les documents et les données associées. Très profitables, ces solutions qui visaient des clients riches, ont été rachetées rapidement par les leaders de l'industrie des années 2000 (IBM, Oracle, EMC), avec l'exception de l'éditeur canadien OpenText, qui est resté spécialisé et a repris les activités de Dell-EMC en 2016.
L'open source s'est alors développé dès 2005 pour offrir un choix non-progiciel, avec entre autres Alfresco, et surfer sur les débuts de la gestion de contenu demandée par l'internet.
Microsoft a également sorti Sharepoint (sur serveurs) pour rentrer sur ce marché alors qu'il avait un boulevard pour intégrer les fonctions de GED sur le poste de travail dans Windows et traiter les documents comme des fichiers spécifiques, notamment avec des solutions de recherche plus performantes. Ceux qui utilisent Evernote savent qu'on a pas besoin de fichiers pour gérer des contenus et des documents. Microsoft a même fait croire pendant longtemps aux grands comptes que Sharepoint pouvait aussi développer des sites Internet. Les DSI de l'époque n'ont pas été aidés pour aborder l'Internet 1.0.
Dans l'ensemble, pour GreenSI, les logiciels de GED n'ont pas su délivrer leur promesse et se sont peu adapté au digital.
Pourtant, les challenges dans la gestion de documents ne manquent pas en 2019, comme le passage à l'échelle de la dématérialisation des processus, la gestion de la croissance des volumes, les tailles qui explosent avec le multimédia, les besoins de contrôles des contenus et d’archivage légal à valeur probante qui augmentent, tout en assurant un niveau de sécurité et de confidentialité de plus en plus élevé.

Mais la GED est surtout en retard pour l’accès direct par les utilisateurs, par tous les utilisateurs, qui ont depuis été habitués à la manipulation de contenus web, multimédias, ou d'e-mails.  Beaucoup d'utilisateurs attendent de pouvoir utiliser les documents ailleurs que dans un bureau, comme dans les usines. Dans le BTP les documents se fédèrent autour d'une maquette numérique partagée, et le besoin de collaboration se renforce.
Pour ceux qui ont mis en place des GED opérationnelles, le retour est qu'elles ont du mal à aborder les changements comme la protection des données personnelles (RGPD), ou la transformation des applications en plateformes ouvertes, alors qu'ils héritent d'infrastructures anciennes et couteuses à maintenir.

Pour survivre, la GED va devoir quitter son silo, se fondre dans l’architecture des plateformes et repenser ses concepts fondateurs.
Elle doit viser les To voire les Po, les métadonnées à la place de plans de classement rigides, le temps réel, l'accès par tous y compris par les clients ou les partenaires en self-service, les contenus riches (photos, vidéos...) gérés avec des cycles de vie du document intégrant les choix des tiers et pas seulement ceux de l'entreprise, etc.

Et puis elle doit coûter moins cher par document, au fur et à mesure qu'elle ne répondra plus uniquement au stockage d'une exigence contractuelle, pour laquelle on est prêt à payer un prix déraisonnable, mais à de simples besoins de collaboration entre entreprises.

La rupture principale sera de séparer les données et les documents, de s'appuyer sur des bases de données NoSQL, de s'ouvrir en API, et d'intégrer des moteurs de type sémantique, statistique et même prédictif.

La GED doit passer d'une vision centrée sur le document et le fichier, à une vision centrée sur les métadonnées autour du document.
Ces principes vont la faire basculer d'un plan de classement statique à une classification dynamique des documents et même de pouvoir y paramétrer des règles de gestion (ex. calendrier de conservation, ...) ou de sécurité.
Le leader OpenText (24% du marché), devant IBM (14%), a commencé cette transformation en multipliant les nouveaux modules, mais les tarifs élevés devant l'open source, réservent encore ce type de solutions aux grandes entreprises. Les PME adoptent l'open source, ce qui pose d'autres questions et demande une vision d'intégration.

Mais la transformation la plus difficile sera peut-être de convaincre la DSI d'abandonner l'ancien paradigme et de ne plus considérer les documents comme des fichiers. Sinon on retombe dans les deux extrêmes que sont :
  • La GED unique pour toute l'entreprise qui sans surprise fait tout mais moyennement bien, 
  • La GED intégrée aux applications qui elle fait peu, mais aux petits oignons. Dans cet extrême, les documents de maintenance sont dans la GMAO, ceux du client dans le CRM, ceux des fournisseurs dans les Achats... créant autant de silos qui empêchent une vision unifiée des données.
Dans une vision centrée données, la GED est au cœur de la collaboration interne et avec les tiers, et doit se libérer des fichiers qui seront là où cela sera optimum entre le Edge et le Cloud, et en fonction de la "taille des tuyaux". La DSI peut gérer ces fichiers (stockage, sauvegarde, sécurité,...), la taille des tuyaux, mais elle doit aussi permettre l'enrichissement des métadonnées, donner un accès à tous les utilisateurs, et préparer demain avec l'utilisation de l'intelligence artificielle et après-demain avec la blockchain.

La première version de Watson, l'intelligence artificielle d'IBM, qui a pu gagner les célèbres parties de Jeopardy contre des joueurs humains, a été entraînée avec le contenu du web et notamment Wikipedia. La reconnaissance des images, d'objets, de personnes, outille les principales plateformes de gestion de photos. Donc sans aucun doute, les documents multimédias ont de la valeur et permettront de développer les futures intelligences artificielles qui aideront à l'automatisation des processus de l'entreprise. Encore faut-il qu'ils ne soient pas piégés dans les applications et non structurées pour les échanges.

Et puis, l’arrivée à maturité des technologies de registres distribués (blockchain) amènera aussi une nouvelle approche. Elle sera plus distribuée et collaborative pour certains documents. Elle permettra de donner la main à un écosystème et pas à un acteur unique, pour la gestion de la traçabilité des documents, jusqu'à une garantie d’immuabilité via une empreinte unique conservée dans un block qui enrichira encore les métadonnées. Les "smart contract" vont permettre d’automatiser les transactions autour des contrats de l'entreprise qui deviennent des document dynamiques à valeur probante.

En synthèse, pour GreenSI, la GED est donc à un tournant de son évolution. Il lui faudra un peu plus que du "digital washing" pour répondre aux enjeux des données, du bigdata, de l'IA et peut-être de la blockchain. Les métadonnées du document électronique, la capacité à les enrichir en traversant les applications et à les exposer, sont des gisements de valeur pour l'entreprise dans un monde centré sur la donnée, plus que le stockage du fichier qui leur est associé.
C'est l'un des thèmes de la Digital Workplace, le fonctionnement numérique de l'entreprise, qu'il faut garder sur vos radars.

L'humour de ceux qui aiment le numérique