mardi 20 mars 2018

La schizophrénie numérique: RGPD où open data?


 Une double contrainte est une situation dans laquelle une personne est soumise à deux contraintes ou pressions contradictoires ou incompatibles. Elle exprime donc le fait d'être acculé à une situation impossible, où sortir de cette situation est également impossible. La question que se pose GreenSI cette semaine c'est: n'est-on pas en train de se créer une double contrainte avec le RGPD et les enjeux de l'open data ?

Le terrain de jeu favori de la double contrainte est celui de l'apprentissage, le moment où on cherche à créer et ancrer une fois pour toutes les réactions rationnelles que nous devrons reproduire sans y réfléchir. Les exemples de double contrainte foisonnent dans ce domaine quand un enfant devient prisonnier d'une situation avec un problème insoluble, comme des ordres contradictoires des deux parents. Elle engendre chez lui à la fois trouble et souffrance mentale et est même reconnue aux Etats-Unis comme une cause ou un facteur de la schizophrénie.

Justement, concernant l'utilisation des données nous en sommes à l'enfance, l'adolescence diraient certains. Nous sommes en plein apprentissage de comment maîtriser ce potentiel des échanges de données sachant que les volumes de données disponibles augmentent de façon exponentielle et que demain l'intelligence artificielle nous promet des apprentissages automatiques, à condition d'avoir posé les fondamentaux.



A l'école des échanges de données à l'échelle de la planète, les premiers enfants qui en ont essayé les pouvoirs, ont construit collectivement Wikipedia. Ils ont fait tomber quelques dogmes comme celui de la transmission du savoir par héritage à ses enfants (via une Encyclopédie payée toute une vie à crédit) et ont réussi à trouver un équilibre entre une information de qualité et la désinformation, les processus et le financement pour la maintenir.

Puis les nouveaux élèves de la saison 2.0 de l'Internet sont arrivés dans la cour de récréation. Ils ont construit les principes d'exploitation des données des GAFAs et montré tout leur potentiel de valorisation en s'appropriant eux-mêmes le maximum de la valeur, se jouant même des États pour payer un impôt sur cette valeur.

En faisant ça, ils ont aussi fait tomber quelques dogmes comme celui qu'un service public comme la cartographie et les informations associées partagées pouvait ne pas être assuré par un État (n'en déplaise à Napoléon ou à l'IGN), et que parfois ils arrivaient à le faire mieux que les États eux-mêmes comme cette semaine en rendant accessible les algorithmes de navigation aux handicapés. Bien sûr Open Street Map et l'open source de la saison 1 avaient déjà montré la voie de la cartographie collaborative et continuent d'éclairer le monde ouvert

Mais la clef finalement c'est le GPS, un système de satellites fourni par les Etats-Unis, qui valorise ces données géographiques. Le GPS a ouvert la voie à tout un monde d'offres de mobilité en rapprochant le monde réel (votre position) et le monde virtuel (la carte). Comme par exemple les sociétés de covoiturage dont on va avoir bien besoin dans les prochains mois pour suppléer aux défaillances du service public de transport. CQFD.
Cette semaine le 12 mars c'était également les 29 ans du web saison 1, et son créateur, Tim Berners-Lee, a lancé une nouvelle alerte sur cette situation et a appelé à plus de régulation. Et avouons que pour l'Europe elle est bien fragile cette situation. Espérons que Galileo le nouveau service européen de GPS soit un nouveau départ pour des services numériques européens. Mais dommage que l'Europe aie choisi une autre bataille, celle du RGPD, pour rattraper son retard dans la transformation numérique.

En effet, dans les écoles européennes d'apprentissage du partage de la donnée, c'est le RGPD qui propose une réponse aux GAFAs, en créant les règles de la saison 3 et en nommant la cible à protéger : les données personnelles.

Des règles imposées à tous. Chaque enfant de la saison 3 doit donc se responsabiliser, analyser les données personnelles qu'il veut utiliser et mettre en œuvre tous les mécanismes pour les protéger. Des surveillants parcourront la cour de récréation pour réprimander lourdement ceux qui seraient pris en défaut, jusqu'à 4% de bonbons confisqués chaque année.
Mais aujourd'hui dans cette cour, ce sont les ambassadeurs du RGPD qui expliquent que c'est une formidable opportunité pour l'école et pour la société et tous les conseillers de tout poils, improvisé spécialistes du RGPD, qui se frottent les mains. Amen.
Stanislas et Noémie viennent juste d'arriver à l'école du partage des données, en saison 3.
Ils ont choisi cette école car, depuis 20 ans, leur parents (qui sont allés à la saison 1) leur ont parlé du potentiel des données ouvertes (open data), accessibles et ré-utilisables pour rendre plus transparents et démocratiques les décisions des administrations dans un monde où la sphère publique est omniprésente. Ils leur ont également montré comment l'open data associé au pouvoir des foules (crowdsourcing) est également un formidable moteur de coordination, et comment travailler tous ensemble dans des systèmes complexes, comme pour organiser les données des villes dites intelligentes.
Mais en sortant des premiers cours de la saison 3 sur le RGPD, c'est un petite déception et Noémie commence a ressentir cette double contrainte sur les données personnelles. Elle n'est pas encore paralysée mais reste confuse. 

Les données personnelles ne sont certes pas dans le périmètre de l'open data, mais leur territoire s'agrandit tous les jours à cause des croisements rendus possibles par des technologies de plus en plus sophistiquées.

D'ailleurs Noémie était au Sénat cette semaine, quand la sénatrice de la Gironde a déposé deux amendements pour que les compteurs intelligents Linky ne puissent pas être installés si les utilisateurs s'y opposent. C'est une traduction radicale, et presque littérale, du consentement de l'utilisateur qui est maintenant demandé par le RGPD à partir du 25 mai 2018 en France. Mais pour cela il faut considérer qu'une consommation journalière d'électricité peut, par analyse, devenir une donnée personnelle. De fil en aiguille, et de croisement en algorithme, tout peut vite devenir une donnée personnelle.

C'est toute la question du périmètre potentiel et régulièrement changeant des données personnelles.

Mais ce compteur est aussi un petit peu un bien collectif puisqu'il permettra une meilleure gestion énergétique du réseau notamment avec l'arrivée de moyens de production durables (solaire, voiture électrique, éolien...) directement chez les particuliers. Mais la liberté individuelle s'arrête la où commence celle des autres, et les juristes aussi se frottent les mains pour trancher ces questions à l'avenir...

Stanislas, lui, a beaucoup travaillé sur la valorisation des données à l'issue de son master. Il en arrive à la conclusion que des écosystèmes numériques doivent partager des données pour vivre, y compris des données personnelles, et pour rendre ces systèmes plus performants. Il a aussi étudié la nature et vu comment des sociétés complexes, comme les fourmis, s'organisaient en laissant des traces au sol partagées avec tous les autres membres. 

Quand la performance traite de la publicité en ligne et des plateformes comme Critéo qui permettent d'optimiser l'exposition publicitaire, on peut se dire que ce n'est pas essentiel pour l'avenir de la planète, donc il est prêt à y renoncer. Mais quand la performance traite de la santé des individus ou du réchauffement climatique, il ne voudrait pas y renoncer et même si cela passe par renoncer à quelques données personnelles.
Noémie et Stanislas se sont donc demandés s'il existait "une cause supérieure" qui permettrait de déroger aux nouvelles règles de la saison 3 et quels seraient les élèves qui les appliqueraient. Et bien ces élèves existent ! Ce sont ceux qui invoquent des obligations légales ou une mission d'intérêt public.
Noémie et Stanislas ressentent alors cette injonction contradictoire d'un open data public, promulgué par la loi pour la République Numérique en 2017, qui est finalement le seul territoire où on pourrait justement échapper au RGPD en évoquant une mission d'intérêt public (article 6 - certainement pour laisser le champ libre à la sécurité nationale). Sinon le RGPD va devoir fermer les robinets de toutes les données qui permettraient de remonter à des données personnelles.

Sans surprise, les élèves qui sont encore en salle d'étude pour finaliser l'écriture des décrets d'application de cette loi, s'arrachent les cheveux devant un problème qui, dans les détails, paraît insoluble. Ils sont figés dans l'incohérence, prisonniers d'une contradiction, et les symptômes d'une déficience de communication commencent à apparaître. Ce sont les premiers touchés par la double contrainte.

Le 20 mars, une conférence EFE à Paris sur les données publics et privées va permettre aux participants, juristes, agents de collectivités locales et du privé, de partager leur expérience et de libérer la parole. Une première thérapie de groupe ;-)  

Et puis les élèves qui sont partis avant cette loi et ses futurs décrets d'application vont devoir repeigner finement toutes les données qu'ils avaient déjà ouvertes pour en vérifier la conformité et concevoir de nouveaux traitements selon les cibles pour l'ouverture (chercheurs, grand public). Tout cela aura un coût bien sûr, dans un contexte global d'ouverture gratuite des données. Sans modèle économique on ira pas bien loin à l'avenir.

Dans le secteur privé, au moins les choses sont plus claires. On ne peut pas s'en remettre à une cause supérieure sans se faire confisquer ses bonbons ! Ce sera donc que le RGPD et tout le RGPD, sinon les surveillants viendront vite regarder à quoi vous jouez dans le fond de la cour de récréation. 

Pour ceux qui pensent que le RGPD est une opportunité de se pencher sur les données pour les valoriser, c'est vrai, mais on pouvait déjà le faire avant sans le  RGPD et d'ailleurs certains n'ont pas attendu pour le faire. Et puis le RGPD a un focus sur les seules données personnelles qui ne sont pas nécessairement celles dont on a le plus besoin pour optimiser collectivement des systèmes comme les transports ou l'électricité.

En attendant, pour ne pas perdre votre année 2018, GreenSI vous conseille de vous concentrer sur "les données des machines" et de laisser le soin au juriste de s'écharper sur le périmètres des données personnelles. Pour l'instant aucun règlement n'empêche une machine de devenir plus intelligente en étudiant ses propres données. Alors foncez, après tout ces machines sont peut-être aussi vos salariés de demain !

samedi 10 mars 2018

Organiser sa plateforme de données

Dans un billet précédent, GreenSI posait la question de savoir si la révolution de la data était vraiment engagée en France, en faisant le constat que la valorisation des données était encore difficile à voir dans les comptes des entreprises alors que la croissance des données est exponentielle. Des freins internes à l'entreprise devaient donc certainement exister, ce que le sondage proposé par le billet a confirmé en faisant de l'organisation et de la plateforme technique les deux freins majeurs rencontrés par les lecteurs.


Les échanges et les retours d'expériences lors des tables rondes du salon ROOMn la semaine dernière, laissent à penser que l'hybridation entre l'organisation et la plateforme technique est finalement une clef importante à comprendre pour progresser vers la valorisation des données.

Et puis comme cela a été rappelé par Sean Ginevan de Google dans une keynote de ROOMn, il faudra nécessairement maîtriser les fondamentaux de l'analytique pour aller plus loin et développer demain des applications exploitant l'intelligence artificielle dont tout le monde parle.

La plateforme en mode "Hub relationnel"

Une première table ronde a permis de recueillir le retour d'expérience de Catherine Lardy, Directrice Transformation à Inter Mutuelles Assistance, qui, pour le compte de ses actionnaires et/ou clients (Macif, Matmut, PSA...) est une plateforme pour assister un français sur deux en détresse sur les routes ou dans son quotidien. Un service en marque blanche opérant de façon intégrée comme un centre de profit.


Au cœur de cette plateforme, des téléconseillers, fiers de leur mission d'assistance pouvant aller jusqu'à sauver des vies, mais également des données nécessaires pour activer et suivre ces services d'assistance sur le terrain. La téléphonie est le métier visible mais cette mise en relation est de plus en plus simplifiée par les données et l'automatisation qu'elles permettent, jusqu'à ce que certains services puissent même devenir 100% numériques. 

Un premier enseignement issu de l'expérience de transformation d'Inter Mutuelles Assistance est la nécessaire gestion du changement liée au métier de téléconseiller.

Son rôle est challengé par le digital pour les activités facilement automatisables, y compris avec le vocal, mais en même temps il reste indispensable dans certaines activités où l'homme a un temps d'avance sur la machine comme pouvoir manifester de l'empathie. Les freins à la valorisation doivent donc être traduit par le besoin de mettre en place une démarche d'accompagnement pour les desserrer.

Et puis la machine ne va pas sis vite que ça, ce qui laisse le temps de s'adapter. Après avoir été très médiatisée, l'arrivée de Watson d'IBM dans la lutte contre le cancer, et notamment la détection de certains cancers, prédisait l'utilisation d'intelligence artificielle dans toutes les cliniques américaines. Fin 2017, soit 3 ans après ces annonces, les résultats de Watson ne sont pas (encore?) au rendez-vous sur ce sujet, la qualité des données d'apprentissage n'étant finalement pas si bonnes ou pas assez nombreuses. Or l'humain peut lui apprendre avec une seule donnée, surtout en cas de crise. Donc malgré les progrès rapides de l'intelligence artificielle il y a encore beaucoup d'activités complexes où les machines seront moins performantes que l'homme quand elles quittent leur laboratoire.

Par exemple les activités où les données d'apprentissage ou de l'appréhension du monde physique ne sont pas les plus simples à maîtriser pour les machines. Idriss Aberkane, spécialiste du sujet qui intervenait également dans une autre keynote de ROOMn, rappelait qu'il était plus difficile pour un robot de faire une mayonnaise que d'être champion du monde de Go.

Quelle fierté pour ceux qui cuisinent ;-)

La démarche d'Inter Mutuelles Assistance a donc commencée avec la mise en place d'un socle technique (un "data lake" unique pour tous les métiers) opérationnel en 2017, alimenté avec les données de tous les métiers qui doivent en assurer la qualité. Toutes les données disponibles sont mises à disposition des applications potentielles.

Cette approche est complétée par une revue ds usages et des besoins d'assistance pour revenir ensuite aux donnée nécessaires, quitte à en créer de nouvelles ou aller chercher des données externes. Entre usages, métiers et fournisseurs, la plateforme joue son rôle pour enrichir la relation dans toutes les directions. La notion de hub devient un modèle d'organisation et la donnée y circule.

Cette hybridation entre plateforme technique et organisationnelle fait dire à GreenSI que seules les DSI qui collaborent à l'unisson avec les directions métiers pourront avancer avec ce modèle, pour le construire mais également pour l'opérer au quotidien.

Les données comme langage commun

Un modèle de plateforme que l'on retrouve également au cœur de la transformation numérique de l'action publique, comme nous l'explique Romain Talés, de la mission Etalab en charge de la plateforme des données data.gouv.fr. Cette mission, au sein de la "DSI de l'Etat" (la DINSIC) est rattachée au SGMAP qui dépend du Premier Ministre avec une vision transverse sur tous les Ministères. 

La politique de transformation passe par l’ouverture et le partage des données publiques (« open data »), la coordination et le support des actions des administrations de l’État. La loi pour une République numérique reconnait des données de référence, 9 jeux de données qui ont le plus d’impact économique et social, pour lesquelles l'engagement de l'État pour leur mise à jour et partage est total avec le lancement fin 2017 d'une organisation, celle du service public de la donnée (www.data.gouv.fr/reference). 



Ces retours d'expérience, un public et l'autre privé, montrent que l'organisation et la structuration d'une plateforme de données communes à différentes entités avec des processus de partage est une étape importante pour attaquer le potentiel de la valorisation. Mais également que l'open data et les données de références du public peuvent bénéficier et inspirer le privé et réciproquement le modèle de hub peut inspirer l'évolution d'administrations dont les métiers sont ancrés dans la mise en relation.

Mais une fois cette "macro organisation" établie, ce qui n'est pas toujours simple dans les luttes de pouvoir internes depuis que la donnée est un sujet dont tout le monde veut s'occuper, il faut s'attaquer plus profondément à la culture de la donnée des salariés, des clients et même des fournisseurs.

Le collaborateur pivot de la transformation

Une seconde table ronde traitait des collaborateurs comme pivots dans la transformation digitale. Une étude du cabinet Markess auprès des DRH met en lumière que ces derniers essayent de transposer dans l'entreprise des applications utilisées largement dans le grand public. Attendez-vous donc à plus de convivialité et de collaboratif quand vous déposerez vos congés, pour suivre vos formations ou mettre à jour votre contrat de travail, et pourquoi pas depuis votre smartphone privé ou depuis un chatbot.

L'acculturation de l'entreprise au digital est donc essentielle pour attirer les "millennials", mais elle l'est également pour les autres salariés si on veut envisager la redistribution des tâches entre l'homme et la machine. Car si on veut que le digital ne soit pas être perçu comme quelque chose qui va vous "piquer votre job" il vaut mieux que chacun le comprenne et sache l'utiliser. C'est une clef pour garder l'engagement des salariés.

On serait surpris de mesurer le niveau d'autonomie réel des salariés sur leur mobile ou sur internet dans le contexte de l'entreprise. Il est en fait assez faible parfois même si tout le monde est déjà allé sur un réseau social ou regarde des vidéos sur son smartphone. Idem dans les services informatiques où pourtant on devrait y trouver des experts. Mais on sait bien que l'évolution rapide des technologies fait que peu en maîtrisent les toutes dernières évolutions.
La mise en place d'une plateforme doit donc également s'accompagner d'un investissement sur la formation, pour que tout le monde en comprenne le fonctionnement et le langage : les données.
C'est également l'occasion de démystifier les nouveaux métiers de la donnée qui émergent et de s'appuyer dessus pour l'évolution ou la transformation des métiers actuels. En effet, avec le prisme de la donnée, de multiples acteurs doivent collaborent pour atteindre cet objectif commun de valorisation : le middle management dont les services marketing, les data scientists, les data engineers, les développeurs back-end, les développeurs front-end, les utilisateurs du décisionnel...

Il est donc essentiel que la plateforme en tant "qu'usine à données" propose des outils adaptés à chaque profil, avec une grande continuité entre profils pour favoriser la collaboration, et la possibilité d'intégration des résultats directement sur la plateforme digitale en charge de délivrer ces services numériques au quotidien.


La notion de front-office et back-office, qui a longtemps servi de modèle voire d'organisation, est largement dépassée avec les données. C'est la chaîne complète de traitement qui valorise les données, avec un souci d'automatisation complet de la chaîne.
Mais les serveurs vocaux (SVI) nous ont pourtant montré que l'automatisation n'était pas le meilleur ami de la qualité de service? Et bien on a dû mal s'y prendre avec la téléphonie car sur Internet Amazon aligne une satisfaction client et une chaîne logistique exemplaires, avec des degrés d'automatisation très élevés pour la profession. Le ratio de productivité y est également 50% plus élevé (de l'ordre de $300.000 par employé versus $200.000 pour Walmart ou Carrefour).

La poursuite d'une démarche de valorisation des données est donc plus un programme de transformation par les données, et de conduite des changements, qu'un projet de mise en place d'une solution technique. Les salariés et l'évolution de leurs métiers en sont les pivots, l'hybridation de la plateforme et de l'organisation en est le modèle. Et c'est une étape essentielle pour tirer parti des progrès de l'intelligence artificielle à l'horizon.
Gardez donc bien cette vision en tête quand vous irez cette semaine arpenter les allées du salon Big Data Paris et rencontrer la foule de camelots qui vous y attends. De retour dans votre entreprise, une solution technique sous le bras, le plus dur restera à faire...

dimanche 4 mars 2018

L'éco-conception c'est aussi pour les applications

L'éco-conception consiste à intégrer la protection de l'environnement dès la conception des biens ou services ; en cherchant à réduire l'impact environnemental tout au long du cycle de vie du produit. C'est vrai dans le logiciel comme avec les biens physiques, mais peut-être avec un focus plus fort sur la consommation énergétique pendant sa durée d'utilisation.
Pourtant vous n'en aviez peut-être jamais entendu parler, et l'idée même qu'un logiciel puisse consommer de l'énergie vous paraît sans doute étrange. Il est donc temps de lire ce billet !

Effectivement ce sujet est peu traité pour le logiciel. On parle souvent de "GreenIT", pour une informatique plus verte, mais c'est pour parler de l'efficacité énergétique des infrastructures, pas du logiciel. Selon l’Agence internationale de l’énergie (IEA en anglais), le numérique consommerait déjà 10% de l’électricité mondiale, même si la croissance de ces besoins ralentit, certainement avec le remplacement de petits data centers privés d'entreprises par des data centers plus efficaces, notamment dans le Cloud.

Les offres de data centers ont donc beaucoup évolué ces dix dernières années, car leur empreinte écologique est devenue un symbole des effets pervers de la digitalisation de l’économie. Cependant il est bon de rappeler que les technologies de l'information sont certainement un problème pour leur contribution en termes de gaz a effet serre, mais elles sont également une partie de la solution par les économies qu'elles peuvent générer dans d'autres industries.

Sans informatique, pas de smart grids qui permettent d'intégrer des énergies vertes, moins facilement planifiables comme le solaire ou l'éolien par exemple. La question est de trouver le bon équilibre.

Un autre exemple est la perspective offerte cette semaine par les syndicats de la SNCF avec la menace de blocage des transports pendant un mois. Ce blocage peut en effet se résoudre soit avec tout le monde dans une voiture, soit avec tout le monde en télétravail, donc utilisant téléphones, réseaux, ordinateurs et data centers - où sont leurs applications - mais depuis leur domicile.
Le télétravail est certainement plus vertueux que la voiture sur le plan environnemental, et même plus que l'offre SNCF car finalement, pourquoi se déplacer pour travailler ? Il y a donc bien des vases communicants sur le plan énergétique en fonction des différents usages, et l'informatique, bien que consommant également de l'énergie, amène de nouvelles solutions.

La question n'est donc pas tant la consommation des data centers et des réseaux, mais bien l'usage qui en est fait et s'il se substitue à un autre usage beaucoup plus énergivore. 

Cet impact environnemental de l'IT dans son ensemble est aujourd'hui pris en compte par les professionnels des data centers. C'est maintenant aux clients de privilégier les fournisseurs qui l'intègrent en ne regardant pas uniquement le coût. C'est également aux pouvoirs publics d'encourager des démarches de labels verts, voire d'aller vers une législation plus contraignante. Dans un autre domaine - la sécurité - c'est bien ce qui se passe avec une agence gouvernementale aux commandes (l'ANSSI). On a des certifications d'offres, une inscription de la cybersécurité dans la loi de programmation militaire, ou encore un Règlement Général des Données Personnelles comme contrainte.

Donc finalement, la question du GreenIT est maintenant peut-être moins sur les data centers que sur ceux qui les utilisent : les applications. 
En effet, c'est une chose d'être le data center le plus efficace possible pour produire un service avec le moins d'énergie, et une autre que de réduire les services avant qu'ils ne soient demandés au data center.
Prenons la recherche dans le moteur de Google par exemple. Elle doit sa performance à la redondance des requêtes envoyées sur plusieurs data centers ou sur plusieurs serveurs. La même recherche est donc exécutée plusieurs fois (ce qui consomme plus) et c'est la première requête qui a terminé qui vous donne le résultat. On a beau avoir le data center le plus efficace du monde, et ceux de Google ne sont pas mauvais en terme de PUE - Power Usage Effectiveness - on a quand même dépensé plus d'énergie que nécessaire. C'est le prix de la meilleure performance.



Mais qui a pris cette décision de compromis entre énergie et performance, qui d'une certaine façon influence l'avenir écologique de la planète ?
C'est là que l'éco-conception entre en scène dans les sociétés qui s'en préoccupent. Comme pour la sécurité, les ingénieurs d'éco-conception vont revoir le design de l'application par rapport à d'autres enjeux qu'uniquement celui de l'expérience utilisateur ou la performance.

Pendant une dizaine d'années ces acteurs de l'éco-conception, comme le français Frédéric Bordage, qui a écrit un des rares livre sur le sujet dont GreenSI avait déjà parlé, prêchaient parfois certainement dans le désert.

Mais aujourd'hui, ce sujet revient sur le devant de la scène pour une raison moins romantique que de sauver la planète, celle de sauver la batterie de votre téléphone portable !

En effet, ces 10 dernières années ont vu l'informatique basculer d'un poste raccordé au réseau électrique à un terminal raccordé à une batterie. Les objets connectés prévus en dizaines de milliards vont amplifier ce phénomène.

La maîtrise de la consommation énergétique du terminal est devenue un sujet important pour les entreprises, comme la SNCF avec son projet COSMO qui déploie des smartphones aux agents dans les trains pour contrôler et renseigner les voyageurs et accéder à l'intranet. Ces agents doivent pouvoir faire fonctionner tous leurs services avec leur smartphone, sans le recharger. Il faut donc être vigilant à la consommation des applications. Si vous êtes disponible le 23 mars sur Paris, les acteurs du projet seront présents pour un retour d'expérience sur le sujet.

C'est également le cas chez Suez Smart Solution qui aura déployé fin 2017 plus de 3,5 millions de compteurs d'eau télérelevés dont la batterie doit durer au moins 10 ans, tout en continuant d'émettre tous les jours les précieuses informations de consommation et de fonctionnement pour assurer les services aux clients et piloter la performance du réseau.

La solution proposée par l'éco-conception est finalement simple. Il faut designer le logiciel et les objets connectés avec cet enjeu énergétique en tête dès le départ, puis mesurer régulièrement pour qualifier les applications avant mise en production, puis en fonctionnement.

On est proche d'une démarche DevOps, faisant le lien entre les développeurs et les opérations, car ce sont bien ces dernières qui voient l'impact énergétique des décisions prises par les premiers.

Au niveau du design on revient à des fondamentaux - à de la frugalité diraient certains - pour concilier simplicité (un besoin = un service) en se penchant uniquement sur les besoins essentiels et ce jusqu'à un résultat suffisamment pertinent sans aller au-delà. Là aussi, on s'inspire des démarches agiles.
 

Des startups, comme Greenspector, se positionnent sur ce créneau et accompagnent les entreprises éditrices de logiciels dans l'application des principes d’écoconception et d’efficience énergie-ressources nécessaires tout au long de leur cycle de vie.

Leurs solutions consistent à offrir aux développeurs un environnement pour identifier les postes de sur-consommation de ressources-énergie dans leur code, corriger les plus sensibles et mesurer les gains après corrections, et ce sur tous les terminaux côté client. On trouve également des sites en ligne pour tester vos sites internet, comme par exemple EcoIndex.

Dans les recommandations de l'éco-conception, on privilégie le recours aux plug-ins, appelle toutes les données en une fois, gère les "timeout", utilise mieux les caches... et bien sûr bannit les requêtes multi-serveurs, plutôt que de tout déporter sur le serveur et passer son temps à l'interroger.

Les communautés de ceux qui intègrent les enjeux écologiques dans le numérique existent, comme par exemple Green Code Lab, qui veut un développement logiciel plus durable et plus responsable. Cette communauté a publié récemment un ouvrage commun pour diffuser les "green patterns" à privilégier quand on écrit du code.


Avec l'amplification de démarches encore plus "massives" dans le traitement des données (bigdata, IA...) et le déploiement massif de l'internet des objets, la transformation digitale n'ira loin que si ces pratiques ne se déploient. Autant prendre en compte ce frein potentiel le plus tôt possible.

D'ailleurs pour GreenSI, c'est l'éco-conception qui fera la différence sur le moyen terme entre toutes les cryptomonnaies, dont le bitcoin - catastrophe environnementale pour sa conception - parce que justement le modèle qui gagnera sera un modèle durable.
Alors allez demander à votre responsable des études applicatives comment il intègre l'éco-conception dans le logiciel. Plus le blanc avant sa réponse sera long, plus vous mesurerez l'effort qu'il vous reste à faire ;-)

Quand le mobile est devenu une commodité




Du 26 février au 1er mars, vous pourrez difficilement échapper au Mobile World Congress 2018 qui se tient à la FIRA à Barcelone, et qui réunit tout le gratin mondial du mobile, mais pas que... 

Ce salon est aujourd'hui obligé de s'adapter à une réalité : la perte d'influence des opérateurs mobiles et la trajectoire du numérique vers les usages.

En 2009, les keynotes étaient tenues par AT&T, NTT DOCOMO, Telefónica, Telenor, Verizon, Vodafone... - tous les grands opérateurs mobiles - et les deux acteurs incontournables sur les terminaux Microsoft (Windows mobile) et Nokia (1 milliard de clients). Après des années de croissance folle jusqu'en 2008, ils venaient rassurer sur cette crise financière de 2009 que peu avaient vu venir, sur le ralentissement économique mondial, et sur le début d'une époque de changements rapides et sans précédent. La croissance annuelle du marché en 2009 tombera de 8% à 3%, et les revenus par client (ARPU) continueront de baisser d'une année sur l'autre - de plus de 10% au début - reflétant la capture de la valeur ailleurs dans la chaîne sur ces dix dernières années.

Aujourd'hui au MWC2018 il y a bien sûr des opérateurs dans les keynotes, (ex. China Mobile) et on va y parler du nouvel horizon du GSM : la 5G. Mais les sujets du congrès vont aussi tenter de nous projeter dans le futur avec la robotique, l'Internet des objets et l'Intelligence Artificielle, sans que le mobile ne soit central pour les développer. Ce futur essaye peut-être de redonner l'ivresse d'avant 2009, le futur sera peu influencé par les membres de la GSM Association, l'association des opérateurs mobiles qui organise ce salon.
Certes Samsung, qui a pris la place de Nokia, se prépare à annoncer la version 9 de son terminal et de suivre Apple avec son iPhone X dans la capture d'encore plus de valeur, mais c'est bien Android, iOS et les écosystèmes qu'ils ont créé qui sont derrière. Les constructeurs seront les stars de ce salon car avec leurs marques et leur design ils devenus plus proches des 7 milliards d'utilisateurs de mobiles dans le monde. Ils ont même réussi une performance : déplacer le débat sur les bords arrondis des terminaux plutôt que sur la vitesse du réseau... respect !
Mais demain, les opérateurs ne peuvent-ils pas rebondir ?
Pour se positionner et capturer de la valeur sur les nouveaux marchés de croissance que sont l'Intelligence Artificielle et l'Internet des objets, posséder un réseau mobile ne donnera pas nécessairement un avantage décisif dans toutes les régions du monde. En Afrique, où les infrastructures fixes sont peu développées, c'est certainement un actif stratégique pour remonter la chaîne de valeur jusqu'au e-paiement et au consommateur. Ça l'est également en Chine, le plus grand marché mobile du monde concentré sur 3 opérateurs - China Mobile, China Telecom, ChinaUnicom - qui dépasse le milliard d'abonnés mobiles et qui se rapproche du milliard d'abonnés 4G. Cela n'empêche pas les BATX d'en tirer le maximum de valeur, sous l’œil bienveillant du gouvernement chinois qui veut que la 5G soit disponible dès 2020.
En Europe, la publication cette semaine des comptes d'Orange - qui renoue avec la croissance en 2017 - nous éclaire sur l'importance du réseau fixe et la croissance du Très Haut Débit (fibre) en France. 
L'ARPU mobile (24€) est en décroissance quand celle du fixe (~35€) est en légère croissance. C'est bien vers la convergence fixe-mobile et vers les services (ePresse...) que les opérateurs se tournent.
Est-ce que la 5G, avec la promesse de débit 100 fois supérieure à la 4G, permettra plus de croissance pour les opérateurs ?

Le risque est quand même que le consommateur souhaite payer les services et pas le réseau.

Et si c'est le cas, cela va consolider la puissance des GAFA, des BATX et de toutes les sociétés qui vont savoir exploiter ce débit pour créer une nouvelle expérience utilisateurs dans tous les domaines. La liste des participants au MWC2018 nous éclaire sur ce point, car on y retrouve comme au CES de Las Vegas les géants de l'Internet, du numérique, des startups et tout ceux qui sont dans les usages. Cela fait dire à GreenSI que le MWC deviens de plus en plus "CES Européen" et de moins en moins le salon du mobile. 
La baisse d'influence des opérateurs mobiles se retrouve également dans les infrastructures.
Ces dernières années, les ventes des équipementiers de réseau, comme Juniper Networks, ont baissées vers les opérateurs de télécommunication - prudents sur leurs investissements - et décollé vers les opérateurs d'infrastructure Cloud en très forte croissance. 

Or, pour aborder l'Internet des objets il faudra de nouvelles infrastructures, beaucoup de stockage et des capacités dans le logiciel qui vont plus être celles des opérateurs de Cloud que celles des opérateurs de mobile. De là à dire que ces opérateurs de Cloud sont les prochains opérateurs du numérique devant les acteurs des télécommunications, il n'y a qu'un pas.
Pris entre l'interface client et l'infrastructure numérique le métier d'opérateur va devoir être réinventé !

Soit l'opérateur peut intégrer plus fortement la chaîne complète du service au terminal et garantir une expérience client, soit il développe plus de proximité avec les clients. C'est tout l'enjeu que les opérateurs ont de vouloir casser la "fondatrice" neutralité du net pour ne plus être une commodité identique pour chacun. Dans ce contexte on comprend mieux le lancement de Orange Bank pour renforcer la connaissance clients et le conflit entre Orange et TF1, chaîne gratuite qui veut être payante pour les opérateurs. Les médias ne se laissent pas faire quand les opérateurs veulent remonter plus près de leurs clients, et c'est l'arroseur arrosé pour Orange quand TF1 casse la "neutralité de diffusion" de sa chaîne pour essayer de mieux se valoriser sur le réseau mobile Orange. On est certainement au tout début de cette bataille...
Pour le grand public, les opérateurs de demain ressembleront donc plus à Google Home ou Tencent Wechat intégrant tous les services, qu'à un forfait data ou minute incompréhensible dont le seul objectif est de vous en faire sortir. Les services numériques à l'utilisateur sont les actifs stratégiques de demain, incluant la capture de données et leur valorisation.

Un des enjeux des réseaux à l'avenir est également la latence, ce délai entre le moment où une information est envoyée et celui où elle est reçue. Cette latence a un impact sur les résultats comme le disait en 2006 Amazon « Chaque retard de 100 ms coûte 1% des ventes » mais en aura également pour les futures applications de réalité virtuelle car tout ce qui est décalé de 5 à 10 ms par rapport au mouvement de la tête est perceptible par le cerveau et peut provoquer le mal des transports. Idem avec la réalité augmentée ou quand l'augmenté "lag" il n'est plus en phase avec la réalité.

Les applications cherchant une expérience utilisateur de qualité vont donc privilégier des architectures permettant d'avoir des latences très faibles et certainement aller vers architectures de données réparties mixant les réseaux. Un domaine où les opérateurs de réseaux mobiles doivent travailler car même en 4G c'est difficile, en revanche c'est un atout de la 5G.

Du côté de l'entreprise, les opérateurs sur lesquels l'entreprise a envie de compter sont déjà des opérateurs de Cloud.

Ce sont eux qui peuvent délivrer une plateforme pour construire ces services et les opérer. On y retrouve  :
  • Les opérateurs de Cloud public avec un Amazon loin devant et un Microsoft qui essaye de faire croire qu'il est plus gros (en consolidant Office365 dans ses chiffres).
  • Mais également les opérateurs de datacenter (en colocation) avec Equinix en tête suivi par Digital Realty, sur un marché de $30 milliards qui va doubler d'ici 2020 et où la consolidation du secteur est très rapide. Ces datacenters sont reliés directement au Cloud public (Google, Amazon...) et permettent de développer des Cloud Hybrid sans passer par l'internet public avec une synchronisation bidirectionnelle des données. Ils s'appuient sur les offres de télécommunications d'acteurs déployant des fibres dans le monde comme Tata Communications.
Concernant ces acteurs peu connus du grand public mon collègue blogeur Pierre Col attirait d'ailleurs l'attention récemment dans un de ses billets sur la forte dépendance des européens envers ces infrastructures américaines partout en Europe.
Alors que faut-il penser du MWC 2018 ?
Pour GreenSI, ce salon montre que l'industrie du mobile est en complète réorganisation, de façon différente en fonction des continents. Dans les allées du salon, les membres de la GSM Association y trouveront autant de partenaires potentiels que de redoutables (futurs) concurrents. En effet, certains voudraient les réduire à une simple commodité technologique du "dernier kilomètre" pour assurer la sécurité et l'accès, un peu comme la logistique pour le e-commerce. Et pour poursuivre l'image de la logistique, les sociétés de logistique, pourtant essentielles, sont moins connues que les e-commerçants et Amazon n'a pas hésité à racheter en partie sa logistique (notamment flotte aérienne) et à la développer en propre pour maîtriser totalement sa distribution et l'expérience client rendue.
Alors bon World Congress !


-->

L'humour de ceux qui aiment le numérique