samedi 22 juin 2019

L'open data s'essoufle mais les "closed data" arrivent


Cette semaine se tenait le Forum Data Territoriale auquel participait GreenSI, une occasion pour faire le point sur le rôle clef de la donnée dans les services publics et plus largement sur l'open data.
Mais avant, prenons un peu de hauteur...
L'internet est depuis son origine synonyme d'échanges numériques de données et de collaboration, mais il se trouve aujourd'hui en état de "fragmentation accélérée".

Les signes avant-coureurs déjà relevés par GreenSI (5G, vers un Internet fragmenté), sont une hétérogénéité de plus en plus forte entre l'internet des États-Unis et celui de la Chine, mais également la fermeture comme stratégie qui se profile en Russie, ou une protection tout azimut qui s'organise en Europe depuis le RGPD. La récente affaire Huawei étant le paroxysme de cette fracture, où protection et souveraineté remplacent ouverture et universalité. L'open data s'était inscrit en 2010 dans cette tendance de "gouvernements ouverts" qui n'est plus d'actualité.

Le contrôle des contenus, des infrastructures et des données des internautes, sont devenus des batailles géostratégiques.

Les bonnes intentions de l'Internet Society des premiers jours sur la "mission" de l'Internet, ont été archivées dans des oubliettes numériques.
Sans mission pour dire ce qu'il veut construire, l'Internet se cherche des "anti-modèles" pour dire ce qu'il ne veut pas, comme Mark Zuckerberg et ses vues sur la vie privée ou la démocratie, discutées aujourd'hui au niveau des chefs d'États.
En France la fragmentation se prolonge de façon moins visible, entre les territoires qui ont fait du numérique un enjeu de modernisation et de développement économique, et ceux dont les élus ou les agendas des services territoriaux, ne l'ont pas encore mis dans leurs priorités. Elle sera fortement visible dans 3-5 ans au rythme actuel de développement du numérique et de ce qu'il amène.
Dans ce contexte, Étalab joue un rôle important sur la politique de la donnée publique qui lui a été confirmé par Nadi Bou Hanna, le nouveau Directeur de la DINSIC dans sa stratégie Tech.gouv pour accélérer la transformation numérique de l'État. Laure Lucchesi, directrice d'Etalab, et Romain Tales, responsable du pôle données, étaient présents à ce forum pour éclairer l'impulsion qu'ils souhaitent donner à leur action et développer l'open data, maintenant qu'il est dans la Loi.
Leur premier constat a été sur les 10 ans d'open data qui ont permis des avancées significatives pour mettre le projecteur sur la donnée, améliorer les services aux usagers (ex. transports), rendre plus efficace l'action des services publics (ex. offres d'emplois) et même créer de la valeur, comme avec l'ouverture des textes de jurisprudence utilisé comme base d'apprentissage IA par les startups de la Legal Tech. Les données de références sont maintenant bien installées, et ré-utilisées, dans un service public de la donnée à l'échelon national. 
Mais ensuite le constat général est que l'open data ouvert et accessible à tous est victime de son design : on ne sait pas qui en fait quoi et il est couteux en accompagnement d'en stimuler les usages.
Les plus optimistes diront que c'est devenu un usage courant, que l'accès aux données en open data se fait si naturellement qu'on ne s'en rend pas compte. C'est l'avis de l'association Open Data France, dans son ouvrage publié cette semaine. Il y aurait un "iceberg des réutilisations" avec une partie émergée visible très faible et de nombreux cas de réutilisations invisibles. Mais cet ouvrage reprend de multiples réutilisations de données, y compris par les entreprises opérateurs de services publics, qui ne passent pas par des plateformes open data et n'en adoptent pas les licences, jugées parfois contraignantes.
Les plus pessimistes constateront que 90% des collectivités sont hors la loi open data et ne publient pas leur données. Celles qui les publient, les mettent rarement à jour en continue ce qui limite les envies à réutiliser au-delà d'une analyse ponctuelle.
GreenSI pense donc qu'il est temps d'élargir l'open data pour libérer tout son potentiel.
En premier lieu, l'objectif doit être de faire circuler les données et non créer des stocks de données, donc de brancher l'open data sur les processus réels de production de données.
En second lieu, il faut sécuriser les accès, quand c'est nécessaire, par exemple avec des API, pour augmenter la quantité de données candidates et développer de nouveaux mécanismes de régulation par la donnée. Les adeptes de l'open data de la première heure viennent de s'étouffer en lisant cette dernière phrase puisque c'est contraire au principe fondateur de l'open data. Pourtant cette idée ne remet pas en cause l'open data originel, elle l'étend a de nouveaux usages dans un Internet fragmenté par la sécurité, la géopolitique et l'idée de trouver des modèles économiques pour péreniser la production des données.
Appelons le "closed data" si cela peut réconcilier tout le monde ;-)

Bienvenue dans le monde des closed data, celles qui s'échangent et se réutilisent, entre acteurs publics ou privés, qui représentent peut-être que la partie immergée de l'iceberg, mais surtout qui ne se défissent pas selon les principes de l'open data pour des raisons propres à la délicate alchimie de la confiance à créer dans chaque domaine. Les usages dans les smart city tombent dans cette catégories.


La Ville de Paris nous a amené récemment un exemple avec une tentative de régulation des trottinettes dans Paris par les données, en attendant une loi pour aborder le sujet des micros-mobilités.
Comment échanger des données quand les opérateurs refusent de partager entre eux leurs données stratégiques ? Comment la Ville de Paris peut faire sans données, pour créer des emplacements de stationnement « aux bons endroits » et empêcher l’accumulation de trottinettes dans une zone ?
Des questions auxquelles l'open data ne peut répondre dans ce contexte concurrentiel et d'innovation permanente.
Et pourtant ce sont des questions auxquelles le challenge d'open innovation de la Ville de Paris a répondu, avec la startup Wintics, son partenaire Engie Siradel pour la modélisation 3D et Axway, connu pour ses plateformes API.
La collectivité s'est posée en interlocuteur neutre qui reçoit les données des opérateurs toutes les 3h (via des API) et s'engage à les traiter de façon confidentielle. Elle peut alors analyser les flux et les stocks de données. Les flux lui permettent de constater une accumulation de trottinettes - multi-opérateurs - et de la signaler rapidement aux opérateurs qui doivent intervenir. Les stocks, lui permettent d'étudier l'historique des emplacements de trottinettes laissées par les usagers, et d'identifier les zones les plus propices pour créer les emplacements attendus, qui peuvent ensuite être communiqués aux opérateurs. Ces emplacements n'ont pas besoin d'être matérialisée sur la chaussée, ils existent virtuellement dans la maquette numérique de la ville et dans les échanges entre la ville et les opérateurs. Ils peuvent évoluer régulièrement au rythme des usages des trottinettes.
Cet exemple montre comment on peut organiser un système numérique de régulation dynamique par la donnée, paramétré par la collectivité, et connecté aux plateformes des opérateurs.
Ce n'est pas nouveau, c'est déjà ce que se passe depuis 10 ans dans le domaine des travaux sur la voirie, pour partager les localisations des réseaux enterrés et éviter de détruire par mégarde des canalisations quand on fait des travaux. On fait au préalable une demande (DICT) dont le workflow engage la responsabilité juridique des acteurs. L'État s'en est ensuite inspiré pour créer un "guichet unique" et réguler.



Les échanges numériques dans les villes intelligentes s'organisent donc en stocks, pour mettre à jour le jumeau numérique de la ville, ET en flux, pour rendre les services interopérables entre les multiples acteurs du territoire. Autant les données de références peuvent être largement ouvertes, autant les flux sont réservés à ceux qui sont habilités et sont souvent des "closed data", les deux étant gouvernées par la collectivité. 



Pour GreenSI, ce forum a donc confirmé le rebond de l'open data vers une forme plus large d'échanges de données. L'open data a besoin de flux qui doivent être normalisés entre acteurs, parfois sécurisés, et outillés par des plateformes techniques utilisant des API pour se brancher sur les processus de production de ces données et être réutilisés au fil de l'eau.

Ces échanges accompagnent la transformation numérique des villes et territoires (Smart City) et complètent l'approche des centres de pilotages, comme celui inauguré en avril de cette année à Dijon, qui eux centralisent les données pour superviser la ville.

Mais l'open data est aussi un fil rouge en interne des collectivités, pour aborder leur propre transformation numérique par la transversalité des données, par la maîtrise de leur processus de production ou pour mieux les partager et les gouverner. Une gouvernance qui n'est d'ailleurs pas qu'interne, mais aussi externe, comme l'a montré l'exemple des trottinettes.

Et s'il fallait encore un dernier argument pour convaincre que les stratégies de données sont sur le radar des collectivités locales, engagées dans la révolution numérique, Nantes métropole nous l'a donné cette semaine avec la publication d'une Charte de la donnée métropolitaine. La collectivité prends des engagements sur le traitement des données (façon RGPD) et renforce ainsi la confiance qu'on peut lui faire pour qu'elle puisse les collecter.
L'open data est essoufflé, mais il a ouvert la voie à une stratégie de la donnée très prometteuse et créatrice de valeur pour les territoires qui sauront s'en emparer.
Previous Post
Next Post
Related Posts

L'humour de ceux qui aiment le numérique