Le 23 novembre 2016, se déroulait la 21e Matinale de l’Atelier Energie et Territoires – la 5e consacrée aux enjeux du Big Data au regard de la transition énergétique. Etaient auditionnés à cette occasion Jean-Philippe Clément, responsable de la démarche et des solutions data de la ville de Paris, et Cédric Verpeaux, responsable du pôle « Villes & territoires intelligents » de la Caisse des Dépôts. Après le témoignage d’industriels (objet de la 20e audition), il s’agissait de savoir comment des acteurs de la ville appréhendaient les enjeux de la smart city et du Big Data, ainsi que les moyens à mettre en œuvre en terme d’ingénierie.

Les 10 principaux enseignements à retenir

1

Plusieurs dispositifs législatifs renforcent les obligations en matière d’Open Data (la loi NOTRe, qui oblige les collectivités territoriales de plus de 3 500 habitants à rendre accessible leurs données publiques relatives à leur territoire ; la loi sur la République numérique, qui introduit la notion de « données d’intérêt général », en accroissant l’ouverture des données issues de personnes publiques et privées ;…). Mais à ce jour, seule une soixantaine de collectivités (dont Rennes, pionnière en France) disposent d’un portail de données numériques et manifestent une maturité en la matière.

2

De prime abord, l’Open Data a été perçue comme bénéfique à l’échelle d’un territoire : quand bien même les retombées financières étaient a priori difficiles à évaluer, on pouvait faire l’hypothèse que l’ouverture de données (publiques et privées) produiraient des externalités positives, ne serait-ce qu’au plan de l’innovation avec la création de nouveaux services et applications par des start-up de l’écosystème

3

Cette vision positive a été quelque peu démentie par les faits : beaucoup de collectivités disent ne pas percevoir ces retombées. Des exemples existent cependant d’applications ou services innovants conçus par des start-up (à Rennes, Toulouse, Lyon,…) à partir des données mises à disposition par la collectivité.

4

Au-delà des données, ce sont les algorithmes qui se révèlent être l’enjeu majeur : en complément à l’Open Data, des métropoles promeuvent l’open algorithm en vue de faciliter l’émergence de start-up au sein de leur écosystème d’innovation.

5

L’Open Data questionne la relation des collectivités aux grands opérateurs du numérique, au regard de leur capacité à négocier la mise à disposition de données à des fins marchandes. A cet égard, différentes stratégies sont adoptées entre celles visant à contester la position jugée dominante et abusive des GAFA (Google, Apple, Facebook, Amazon) et celles visant à nouer des partenariats « gagnant-gagnant » (cf celui noué par la ville de Paris avec Cisco pour apprécier en temps réel l’impact des aménagements urbains). Au-delà, c’est l’enjeu des licences fixant les conditions dans lesquelles ces données publiques et privées pourront être copiées, diffusées et réutilisées librement.

6

Elle questionne aussi le rapport de ces mêmes collectivités à leurs délégataires de services publics (des collectivités se sont retrouvées en situation de devoir les rémunérer en contrepartie de la mise à disposition de leurs données)

7

Elle implique également une organisation plus transversale des services, pour plus de mutualisation des données (voire une concentration de différents services dans une même administration pilotée par un digtital officer).

8

L’analyse des données exige des compétences particulières ainsi que de nouveaux métiers : digital officer, data scientist,… que toutes les collectivités n’ont pas les moyens de recruter.

9

Parmi toutes les collectivités, les métropoles paraissent les mieux outillées et armées pour assumer un rôle de tiers de confiance et mobiliser une ingénierie. Mais elles n’échappent pas pour autant à la question du coût de l’Open Data (de la récolte des données à leur traitement en passant par leur stockage).

10

Au regard des enjeux énergétiques, les échanges avec le public ont été l’occasion de rappeler la nécessité de mieux appréhender les usages et les comportements des habitants et autres usagers en privilégiant des démarches incitatives qui sensibilisent par le truchement d’autres problématiques (l’alimentation durable, par exemple). Manière de rappeler aussi que, pas plus qu’elle ne saurait compter sur des solutions exclusivement « technos », la convergence entre transitions énergétique et numérique ne saurait reposer sur des data sciences déconnectées du contexte.

Eléments biographiques

Après un parcours de conseiller au numérique et directeur de projets transverses (e-administration, intranet, fibre, Wi-Fi…) au sein de la ville de Paris, Jean-Philippe Clément a créé et coordonné la mission « Ville intelligente et durable ».

Il en anime désormais la démarche data. Il a également été conseiller innovation de la Direction des systèmes et des technologies de l’Information (DSI) où il a piloté des projets spécifiques (Open Government, Open Data, plate-forme Collaborative, DansMaRue, Open source, démarche open innovation, etc.).

Quant à Cédric Verpeaux, il travaille depuis près de quinze ans sur les enjeux du développement numérique dans les territoires. Après un passage dans l’univers des start-up (au titre de conseil en stratégie numérique), il intègre la Direction des Investissements et du Développement local de la Caisse des Dépôts, en charge du développement et du déploiement de l’activité des services numériques à l’usager (e-administration, services géolocalisés, innovation publique, Open Data,…).

En 2010, la Caisse des Dépôts crée un pôle « Villes et territoires intelligents » dont il est nommé responsable. De 2010 à 2012, l’Etat a confié à la Caisse des Dépôts la gestion de la thématique « Développement de l’économie numérique » du Programme des Investissements d’Avenir, dotée d’une enveloppe de 2,25 Md€. Dans ce cadre, Cédric Verpeaux est responsable de deux des huit lignes d’investissement du Programme dans les domaines « Ville numérique » et « Systèmes de transport intelligents ». Depuis 2012, il est en charge de la stratégie et des investissements (prise de participation ou création de sociétés) sur l’ensemble des thématiques de la « smart city » (transport et mobilité, énergie, environnement, tiers-lieux, services urbains) et travaille aussi avec les collectivités sur ces sujets en accompagnement, ingénierie et financement.

L’un et l’autre étaient auditionnés par deux membres du comité scientifique de l’Atelier Energie et Territoires : le sociologue et urbaniste Alain Bourdin, et l’anthropologue Stéphane Juguet, fondateur de la société What Time Is I.T, spécialiste du dialogue public et de la concertation.


Philippe Labro, Secrétaire général de l’Atelier et Territoires : A l’occasion de cette 21e Matinale, nous voudrions connaître votre vision de la smart city, comment vous la mettez en œuvre. Pourriez-vous au préalable commencer par définir vos missions respectives au regard de cette thématique ?

Jean-Philippe Clément : J’ai créé il y a deux ans la mission smart city / ville intelligente et durable de la ville de Paris. Dans ce cadre, nous nous sommes employés à rendre le concept aussi concret que possible. Force a été très vite de constater que la data était au cœur de la démarche mais aussi que, si la ville avait déjà un historique en matière de data et de Big Data, ses services n’étaient pas encore suffisamment bien structurés pour en tirer tout le potentiel. D’où cette démarche spécifique en lien avec la mission ville intelligente et durable, qui met l’accent sur la data et son traitement au service de la ville et de ses habitants.

Cédric Verpeaux : Je suis pour ma part en charge, au sein de la CDC, des projets relatifs à la smart city, à commencer par les projets d’investissements publics et/ou privés. Nous travaillons aussi bien avec des collectivités (dont la Ville de Paris) que des entreprises (start-up, grands groupes,…). Nous accompagnons nos interlocuteurs le plus en amont possible dans leurs réflexions stratégiques, notamment sur la valorisation des données de mobilité. Nous avons commencé plus récemment à travailler sur des données relatives à l’énergie.

Stéphane Juguet : En préambule, je tiens à préciser que les questions que je vais vous poser, se font l’écho de celles que nous nous posons au sein du comité scientifique de l’Atelier Energie et Territoires, qui, au vu de sa composition, peut déjà être, avec sa densité de neurones, considéré comme un méta center de data ! Je distinguerai deux séries de questions. La première concerne le pourquoi, soit la question du sens. Certes, nous l’avons bien compris, l’heure est plus que jamais au Big Data et à l’agrégation de données aussi diverses que possibles, publiques et privées, à travers l’Open Data. Mais, au final, pour faire quoi et au service de quoi ? Une question qu’il importe de se poser, a fortiori quand on travaille au sein d’une collectivité ou pour la puissance publique. La question étant aussi de savoir ce qu’il advient du citoyen dans ce qu’il est convenu d’appeler la smart city. Celle-ci implique-t-elle un smart-citizen et, si oui, à quoi ressemble-t-il ?

La seconde série de questions porte davantage sur le comment, la manière dont Paris et d’autres grandes villes appréhendent le Big Data et l’Open Data, les moyens qu’elle est en capacité de mettre en œuvre pour les exploiter au mieux.

Jean-Philippe Clément : La data est, selon moi, d’abord une manière très concrète de sortir d’une approche purement conceptuelle de la smart city. Certes, il est toujours stimulant de discuter autour de concepts, mais cela ne suffit pas à susciter des projets. L’heure est donc venue de traduire concrètement la smart city, de montrer en quoi elle peut servir les objectifs de la ville intelligente et durable, par la valorisation de toutes sortes de données, privées et publiques, grâce à la nouvelle vague d’outils numériques.

Nous ne partons pas de rien. Des projets ont déjà vu le jour au cours de ces dix dernières années. Mais, entretemps, le contexte a profondément changé, et sans que les évolutions n’aient été anticipées. Voici un exemple pour illustrer mon propos : il concerne l’écoquartier de Clichy-Batignolles, dont nous sommes en train de livrer les derniers bâtiments. Ce projet urbain se voulait particulièrement vertueux : chaque bâtiment est à énergie positive. Doté d’équipements publics, d’un beau jardin, l’ensemble est équilibré en termes de mixité (entre résidentiel et tertiaire). Bref, l’écoquartier du XXIe siècle, mais tel qu’on pouvait le penser il y a encore dix ans (ses premiers plans ont été dessinés en 2006-07). Malheureusement, nous n’avions pas anticipé les possibilités offertes par le smart grid : aucun des bâtiments n’est relié aux autres, y compris au plan énergétique ! Une manière de palier cette situation est justement de valoriser l’échange de données entre les bâtiments pour une gestion plus globale de l’écoquartier (de façon à en optimiser les consommations entre les bâtiments résidentiels et les bâtiments tertiaires aux différents moments de la journée). Cet exemple illustre bien la manière dont la data permet de passer du concept à des réalisations, sinon des améliorations concrètes, en renforçant notamment l’efficacité énergétique de tout un écoquartier : ses habitants et usagers pourront se chauffer et s’éclairer mieux avec moins de ressources.

De manière plus générale, la data amène à bousculer le modèle traditionnel d’élaboration de la décision publique : d’une logique top down, elle fait passer à une logique plus bottom up ou horizontale, s’appuyant davantage sur la participation citoyenne, mais aussi les ressources de l’écosystème d’innovation, dont les start-up.

Cédric Verpeaux : En tant qu’opérateur public, nous ne pouvons pas, pour notre part, ne pas nous inscrire dans l’Open Data. A cet égard, les attentes ont évolué. Initialement, on pensait que la simple mise à disposition de données suffirait à engendrer des externalités positives qui se chiffreraient en euros. C’est ainsi que les acteurs publics ont été incités à mettre leurs données à disposition. On est encore dans cet état d’esprit. Force est pourtant de constater que peu d’acteurs publics, ont, en France du moins, ouvert leurs données. Si l’Etat donne l’exemple à travers Etalab, peu de collectivités locales se sont lancées. Pourtant, leurs données qui découlent de leurs politiques publiques, sont d’une grande richesse : elles touchent à de nombreux aspects de la vie quotidienne : les transports, l’énergie, etc. A ce jour, seule une soixantaine de collectivités, petites et grandes, ont ouvert un portail [elles se sont fédérées au sein de l’association Open Data France dont le président, Bertrand Serp, a été auditionné lors d’une matinale organisée à Toulouse : pour accéder à son témoignage, cliquer ici]. Et encore, il n’est pas certain que ces collectivités aient systématiquement mis à disposition les données les plus intéressantes. D’après une étude que nous avons menée, moins d’une dizaine de ces collectivités fournissent des données relatives à la mobilité en temps réel, un enjeu pourtant majeur s’il en est.

Ce faible nombre de collectivités engagées dans l’Open Data limite les possibilités de développement de start-up et donc l’éclosion de nouveaux services et applications. Leur marché s’en trouve réduit aux territoires dont les collectivités mettent à disposition des données. Certes, une start-up parisienne dispose déjà d’un marché intéressant à l’échelle de la capitale (moyennant cependant un accès aux données du Stif, dans le cas de celles traitant de mobilité), mais que dire d’une start-up qui verrait le jour à Toulouse, par exemple (une métropole au demeurant active en matière d’Open Data : c’est là qu’a d’ailleurs été créée l’association France Open Data).

Bref, on est dans un cercle tout sauf vertueux. Les externalités positives promises ne sont pas au rendez-vous. Quand nous questionnons les collectivités sur les services innovants ayant émergé sur leur territoire, la plupart déplorent l’absence de réelle dynamique. Mais comment pourrait-il en être autrement si les autres ne s’engagent pas dans l’Open Data et qu’elles-mêmes limitent le spectre de données couvert.

Le contraste est d’autant plus grand avec les opérateurs privés à commencer par les Gafa [les géants du web et du numérique : Google, Appel, Facebook, Amazon], qui, comme on le sait, ont su, eux, développer des services à partir d’une valorisation systématique des données (induites par leurs applications ou produites par d’autres).

Des collectivités donnent cependant l’exemple : outre Paris et Toulouse, déjà citées, il convient de saluer la démarche de Rennes – la première collectivité française à avoir ouvert ses données et ce, avant même la création d’Etalab. Comme toutes les collectivités qui se lancent sérieusement dans l’Open Data, elle a pu en mesurer les vertus, y compris en interne. De fait, l’Open Data incite à plus de transversalité, à plus de communication entre des services jusqu’ici cloisonnés. Un important travail de sensibilisation, d’acculturation a été fait en interne. Pour cette collectivité, comme pour quelques autres, le portail d’Open Data sert même désormais de moyen d’échanges de données entre les services de la ville. Un effort est consenti au plan du traitement pour fournir des données de qualité.

Stéphane Juguet à Jean-Philippe Clément : Quels sont les freins que vous rencontrez dans la mise en œuvre de cet Open Data à l’échelle de la Ville de Paris ?

Jean-Philippe Clément : L’Open Data est l’option idéale pour parvenir à une smart city digne de ce nom : chaque acteur, public et privé, est incité à partager ses données avec ses voisins, ses partenaires voire ses concurrents, de façon à optimiser les ressources et le fonctionnement de la ville. Si freins il y a, ils ne sont pas que d’ordre technique. Ils tiennent aussi à une défiance persistante entre les acteurs publics et privés. Des secteurs ont cependant montré la voie : je pense au secteur de la mobilité. Les blocages rencontrés dans le partage de données ont été progressivement levés. L’habitude commence à être prise de travailler sur un mode collaboratif.

A l’évidence, des décrets adoptés récemment ont incité les acteurs à partager davantage leurs données. C’est le cas du décret de l’article de la Loi Macron relatif à l’ouverture des données de transport. Dans celui de l’énergie, les choses ont semble-t-il bougé aussi, depuis l’adoption des décrets de juillet 2016, qui ont incité les énergéticiens à se mettre autour d’une table.

Tant mieux si un décret peut déclencher des changements d’état d’esprit. Cependant, on ne saurait tout attendre d’un décret. Celui-ci n’est en rien en mesure de définir des projets sur la base d’un partage de données. L’heure est venue de co-construire, entre acteurs publics et privés, des projets pour la ville, sur la base de l’Open Data.

Je m’empresse de préciser que, quand je parle d’Open Data, comme je le fais depuis le début de cette matinale, je ne me limite pas à celui au service du grand public. Je pense aussi à l’ouverture de données au service d’un projet d’intérêt général, porté par une communauté, dans un secteur d’activité donné.

Cédric Verpeaux : Ces décrets et les textes de lois dont ils découlent, sont en soi un signal positif. Que dit désormais la législation [suite aux lois sur la République numérique et à la Transition énergétique, à la loi NOTRe qui comportent un volet relatif aux données] ? Elle impose à toute collectivité de plus de 3 500 habitants d’ouvrir ses données. 5 000 environ sont donc concernées. Reste à inscrire cette obligation dans la réalité. Pour mémoire, seule une soixantaine (dont des conseils départementaux) dispose d’un portail. L’Open Data est donc encore un défi à relever.

Pour répondre maintenant à votre question sur les freins, j’en avancerai plusieurs. Le premier tient au manque d’intérêt de l’élu : l’ouverture d’un portail n’est bien souvent pas sa priorité. Il y a donc un effort de sensibilisation à faire. En l’absence d’effets mesurables immédiats sur son territoire, l’élu a besoin d’un minimum de foi, d’être convaincu que l’effort en vaut la peine, que l’Open Data suscitera bien de nouveaux services dont son territoire et ses habitants pourront profiter.

Ensuite, l’ouverture des données requiert un minimum d’ingénierie, la présence d’une personne capable de mobiliser les services, dans une démarche plus transversale, comme cela a été dit. Autant c’est envisageable à l’égard d’une grande métropole, autant c’est coûteux pour une petite collectivité, petite ou moyenne, de 3 500 à 50 000 habitants.

Que ce soit dans le secteur des mobilités ou celui de l’énergie, la réussite dépend aussi de la qualité de la relation entre la collectivité et ses éventuels délégataires de service public, de ce qui est prévu dans la convention en matière de gestion des données. Si la loi oblige la première à ouvrir les données dont dispose la collectivité, elle ne peut cependant casser les contrats qui la lie à ses délégataires…

De plus en plus de collectivités sont désormais suffisamment matures sur ces enjeux, pour renégocier en conséquence les modalités d’échange de données, mais ce n’est pas le cas de toutes, loin de là. Beaucoup ont dû rétribuer leurs délégataires de services publics, de transport en l’occurrence, pour en obtenir les données. Certes, les choses commencent à changer. Dans le secteur de l’énergie, des collectivités se fédèrent pour pouvoir négocier en force avec les opérateurs. Mais les difficultés peuvent aussi être plus grandes dans le secteur des transports, il est vrai plus fragmenté que celui de l’énergie, entre l’offre de transports en commun classique, l’autopartage, le covoiturage et les services de mobilité privés (Uber, Waze,…),…

Stéphane Juguet : Comme vous l’avez rappelé, l’Open Data est plus qu’encouragée par la loi. Reste que les plateformes en open source nécessitent, pour être en mesure d’agréger une multitude d’acteurs, de s’appuyer sur un tiers de confiance. Cet enjeu est au cœur des réflexions autour des Blockchains, qui reviennent à en instaurer un sous une forme distribuée. Dans quelle mesure cette alternative ne risque-t-elle pas de contrarier la dynamique en faveur de l’Open Data ?

Cédric Velpeaux : Je ne m’attendais pas à ce que la question des Blockchains vienne si vite dans nos discussions ! Je rebondirai davantage sur cette notion de tiers de confiance, un rôle que la CDC assume explicitement, entre acteurs publics et privés, échelons local et national. Mais les collectivités elles-mêmes se considèrent comme des tiers de confiance. En principe, elles n’auraient pas besoin d’un acteur situé au-dessus d’elles pour gérer les données relatives à leur territoire. Reste de multiples autres données sur lesquelles elles n’ont pas la maîtrise, celles produites par les multiples applications qui ont vu le jour avec l’arrivée du Smartphone.

C’est particulièrement vrai – j’y reviens – dans le cas des données qui touchent aux mobilités : elles ont produites par de très nombreux acteurs, publics et privés, qui en détiennent chacun au moins un bout : les opérateurs de transports publics, de l’autopartage (dont certains, observons-le, sont sous contrat public ; c’est le cas de Vélib’ pour ne citer que cet exemple) ou du covoiturage (des opérateurs privés, pour l’essentiel, qui sont libres de mettre ou pas leurs données à disposition).

Force est de constater en France une certaine frilosité des collectivités à l’égard des opérateurs privés. Tout le contraire de ce qu’on observe aux Etats-Unis où des métropoles n’hésitent pas à négocier avec des acteurs privés comme Waze (un GPS collaboratif gratuit, racheté par Google), qui dispose d’un important volume de données, de surcroît précieuses, sur les villes. Mais les choses commencent à changer et Versailles, par exemple, vient de signer un partenariat d’échange de données avec Waze.

Cette question est matière à controverse avec Jean-Philippe Clément, qui, comme il pourra s’en expliquer, est plutôt défiant à l’égard des intentions de ces opérateurs privés. Pour ma part, je ne pense pas défendre une vision angélique en considérant que ces derniers ne demandent qu’à négocier. Certes, pas pour des raisons philanthropiques. Cela reste des entreprises en quête de profitabilité. Mais au moins sont-ils disposer à envisager un partage de données, moyennant une contractualisation avec les collectivités intéressées. Et pourquoi s’en offusquer ? Après tout l’Open Data, c’est aussi cela : le partage de données entre acteurs (publics et privés), sur la base de négociations, qui peuvent revêtir un volet commercial.

Je trouverais dommage que les villes ne puissent pas examiner les propositions de ces acteurs privés. Des discussions ont été amorcées en Ile-de-France avec Google sur les données de transports et de mobilité. C’est un début qu’il faut encourager. Certes la relation n’est pas facile, a fortiori pour de petites collectivités : les contrats proposés par Google peuvent être rédigés en anglais, alignés sur le droit américain et/ou truffés de subtilités prévues par une armée de juristes et d’avocats.

Reste que, face à la multitude d’acteurs opérant sur le territoire, le rôle d’une collectivité est d’orchestrer les relations, en prenant contact avec chacun des opérateurs, sans exclusive, publics aussi bien que privés. A l’égard des premiers – les acteurs publics ou en délégation de service public – elle pourrait se prévaloir de la loi qui lui fait obligation de s’inscrire dans une logique d’Open Data. A l’égard des seconds – les acteurs privés, hors délégation de services publics – elles instauraient des négociations commerciales « gagnant-gagnant ». Déjà, la plupart des grandes collectivités, à commencer par les métropoles et les intercommunalités se considèrent comme en charge de la gouvernance des données sur leur territoire. De fait, elles sont davantage armées pour faire le tour des parties concernées et agréger les données. Elles savent pertinemment que, si elles ne le font pas, d’autres acteurs se chargeront d’assumer ce rôle, en le leur faisant payer. Etant entendu que ce genre de compétence exige des moyens, du volontarisme, sans oublier une maturité dans l’approche du Big Data.

A contrario, certains acteurs privés, grands opérateurs de la ville, disent avoir perdu la bataille, du moins face aux géants américains et dans les services numériques aux usagers finals – je ne parle pas de ceux vendus à la collectivité. Certains s’emploient à résister, mais ce n’est pas simple. Les géants mondiaux ont une longueur d’avance dans la maîtrise de la relation à l’usager.

Stéphane Juguet : Si demain les données étaient gérées principalement par le secteur privé et marchand, ne risque-t-on pas de privilégier des territoires où les flux sont les plus importants et la clientèle solvable, au détriment de territoires relégués au plan économique. Ce qui pose la question de l’équité territoriale à l’égard des services numériques. Au regard de cette situation, que l’on peut déjà observer – au point que d’aucuns parlent de fracture numérique – que font la ville de Paris et la CDC ?

Jean-Philippe Clément : Vous posez en somme la question de savoir qui, à l’heure du Big Data, définit l’intérêt général. Naturellement, nous-mêmes sommes en relation avec les grands acteurs privés, qui viennent d’être cités. Nous tâchons de bien leur faire comprendre que nous ne sommes pas contre eux par principe, mais que tant qu’ils ne prendront pas part à la définition de l’intérêt général, il nous est difficile de poursuivre la moindre collaboration avec eux. Plusieurs de ces acteurs ont pris conscience qu’ils ne pouvaient plus se contenter de proposer le meilleur service au regard de leur modèle économique, mais devaient participer à une gouvernance partagée des données sur le territoire. Pas plus tard que la semaine passée, nous travaillions avec eux sur les licences de partage de données. Autant le dire : nous n’avons pas l’intention de lâcher sur cet enjeu-là. Si nous le faisions, il n’y aurait plus de maîtrise possible pour l’acteur politique, ni plus la moindre autonomie en matière de Big Data. Il est donc essentiel de continuer à rester ferme. Mais j’ai de bonnes raisons de penser que nous allons finir par nous mettre d’accord…

Je suis convaincu que pour avancer efficacement sur le partage des données, il faut commencer par s’accorder collectivement sur les projets qu’on veut mener. Et ce à différentes échelles, du quartier à celle, plus globale, de la métropole.

A l’échelle du quartier, d’abord : je reprendrai l’exemple de l’écoquartier de Clichy-Batignolles, que l’on pourrait doter d’un smart-grid, utile aussi bien aux gestionnaires qu’aux utilisateurs finals. Malheureusement, le cadre réglementaire est encore trop restrictif. Il nous faudra donc voir comment aller plus loin, en y travaillant collectivement. Ce à quoi de nombreux acteurs sont prêts.

A l’échelle globale, ensuite : nous réfléchissons à l’établissement d’une cartographie énergétique de la ville. Il s’agira de comprendre les enjeux aux différents points de la Capitale, comment nous pouvons travailler sur l’architecture des réseaux, améliorer son fonctionnement, sa compréhension par l’usager final de façon à le responsabiliser et en faire davantage un acteur. Cette fois, le cadre réglementaire, redéfini par le décret d’application du 30 juillet 2016 de la loi Valter sur l’Open Data, est satisfaisant.

Il y également tout ce qu’on peut encore envisager auprès de l’usager final. Aujourd’hui, dans le domaine de l’énergie, on voit se multiplier des services et autres tableaux de bord, proposés par les différents acteurs du secteur – distributeurs et fournisseurs. Je ne suis pas sûr que cette profusion puisse perdurer longtemps. Avec l’Agence Parisienne du Climat, nous nous employons à promouvoir une approche plus globale. On pourrait très bien imager de créer une sorte de grand tableau de bord des flux d’énergie comme d’autres ressources (l’eau), de façon à faire de l’usager final un vrai acteur de son territoire. Un défi technique et humain, mais à même de constituer un projet concret et mobilisateur. Nous serions partant pour commencer à le faire sur le territoire parisien, avant de le dupliquer dans d’autres collectivités. La transposition du principe du « bouton vert » (green button) nous facilite la tâche. Pour mémoire, il permet à tout usager de télécharger directement ses données sur les sites des énergéticiens en cliquant sur un bouton spécifique (de couleur verte, donc) et de donner son accord, au cas par cas, pour partager ces données avec des tiers.

Alain Bourdin : Combien de personnes votre mission mobilise-t-elle ?

Jean-Philippe Vincent : Nous venons juste de recruter un demi emploi à temps partiel (ETP). Cela peut paraître peu, mais nous ne sommes qu’au début de l’Open Data. Nous pouvons de surcroît nous appuyer sur les ressources déjà existantes, en interne.

Cédric Verpeaux : En réponse à la question sur le risque de fracture numérique, j’évoquerai la démarche entreprise par Google en prévision de l’Euro 2016. Elle s’était limitée aux villes qui allaient accueillir des matchs de foot, et lui offrant donc le meilleur potentiel en termes de marché. Il y a indéniablement une inégalité des territoires tant au regard des capacités en terme d’ingénierie que des partenariats qu’ils peuvent envisager avec les grands opérateurs du numérique.

Chaque collectivité peut certes élaborer sa licence. Plusieurs d’entres elles, dont Paris, comme cela a été évoqué, sont actives sur le sujet. Mais gardons à l’esprit que nous partons de loin : seules 60 collectivités ont, je le rappelle, un portail de données ouvertes. Les autres n’ont pas encore franchi ne serait-ce que cette étape.

Les métropoles sont de toutes les collectivités les plus matures en matière de gestion de la data, loin devant les départements ou même les régions. Du moins selon le secteur qu’on considère. Autant, elles ont été des chefs de file dans le traitement des data relatives au transport et à la mobilité, autant elles paraissent plus frileuses, moins armées, pour ce qui concerne les données énergétiques. Une des raisons tient sûrement au fait que cette compétence est relativement nouvelle pour elles. Les idées ne manquent pas en termes de mutualisation entre acteurs publics (partage de bonnes pratiques, coordination…), mais le passage au projet commun entre plusieurs collectivités est plus laborieux, y compris pour mettre en place une plateforme commune dans laquelle chacun apporte ses données (et quand bien même cela contribuerait à faire contrepoids à de puissants acteurs privés).

Pour notre part, nous nous sommes saisis du sujet, en y réfléchissant avec plusieurs métropoles – Bordeaux, Lyon, Nice, Paris… – dans l’idée de renforcer la mutualisation des données et des « outils » pour le gérer, entre elles. De prime abord, les métropoles sont partantes. Elles ont d’ailleurs déjà pris l’habitude de travailler ensemble sur différentes thématiques. Les métropoles sont certes en compétition. Mais dès lors qu’il s’agit d’enjeux techniques et de faire contrepoids à de puissants opérateurs privés, elles sont prêtes à travailler ensemble, conscientes de ne pas disposer à elles seules des moyens suffisants en termes d’ingénierie et de financement. Là encore, les idées ne manquent pas, ni la volonté. Reste que dans les faits, on n’avance difficilement. Les métropoles sont manifestement moins matures sur les enjeux énergétiques que sur ceux des transports, au regard, s’entend, de la gestion des data.

Alain Bourdin : Ce qui me frappe depuis le commencement de cette audition, ce n’est pas tant qu’on parle d’énergie (après tout, c’est une Matinale de l’Atelier Energie et Territoires) ou de mobilité (c’est un secteur où les métropoles sont effectivement matures), mais qu’on se limite à ces domaines alors qu’il y en a plein d’autres. Tant et si bien que se pose la question de savoir ce que l’on entend au juste par data… Que met-on derrière ce mot ? Quels sont les différents types de data à considérer ? On parle en outre d’Open Data. Or des données relatives à l’organisation structurelle d’une ville circulent moins bien aujourd’hui qu’il y a quelques années. Y compris pour une ville comme Rennes, qui a été citée en exemple en matière d’Open Data. Certes, un certain type de data centré sur les usages circulent bien, de surcroît en temps réel. A l’inverse, d’autres données circulent de moins en moins bien. En tout cas, c’était le cas ces dernières années. Peut-être que les choses ont récemment évolué sous l’égide d’Etalab et à la faveur des textes législatifs qui viennent d’être adoptés. Toujours est-il que je me demande s’il n’y aurait pas une réflexion à engager sur la nature des data pertinentes à mettre sur les plateformes. Où en êtes-vous d’ailleurs dans cette réflexion ?

Jean-Philippe Clément : C’est précisément la réflexion que nous avons engagée, ne serait-ce que dans le cadre de ce projet de cartographie des consommations d’énergie que j’évoquais tout à l’heure. Nous avons procédé à un état des lieux des données disponibles, à commencer par les données administratives des usagers parisiens. Ces données sont de plus en plus structurées au tour de la notion d’un compte unique usager pour les services numériques. Ce qui permettra d’avoir demain une démarche potentiellement plus proactive de nos administrations vis-à-vis des usagers. A quoi s’ajoutent les données d’exploitation de nos différents réseaux ou systèmes techniques : des feux de signalisation, de l’éclairage public, de l’assainissement, des déchets,… Des données recueillies en un temps de plus en plus court, grâce à des capteurs et qui permettent de faire de la maintenance prédictive. A quoi s’ajoutent encore les données liées aux flux urbains et qui sont loin d’être le monopole des seuls acteurs du numérique : les données produites par les usagers eux-mêmes à travers l’usage d’un service ou au cours de leur déambulation dans les rues de la ville et qu’on peut recueillir selon une logique de crowdsourcing. Une application est d’ores et déjà disponible : intitulée « Dans ma rue », elle permet à tout un chacun de faire remonter les anomalies relevées dans l’espace public : il suffit de prendre une photo et de nous l’adresser, chaque Smartphone faisant ainsi office de capteur. Une démarche que nous entendons développer, à travers des partenariats, dont l’un avec le CNRS, pour mieux apprécier la perception du confort environnemental par l’usager.

Une fois qu’on dispose de toutes ces données, la question est de savoir comment les combiner et les interpréter. On en vient aux enjeux du traitement des données, autrement dit des data sciences.

Il faut cependant garder à l’esprit que tous les domaines ne produisent pas des volumes de données aussi massifs que ceux des mobilités et de l’énergie. Tant et si bien que le recours à des prestataires extérieurs et à des Data Centers ne se justifie pas en toutes circonstances. Actuellement, nous-mêmes réfléchissons à la manière d’optimiser les différentes données dont nous disposons.

Cédric Verpeaux : Je suis d’accord avec vous sur la nécessité de s’interroger sur le type de données sur lesquelles on travaille. De prime abord, on peut concevoir qu’une collectivité qui s’engage dans l’Open Data mette à disposition, pour commencer, les données les plus faciles à fournir,  de façon à ouvrir aussi rapidement que possible son portail. Soit, le plus souvent, des données en provenance de systèmes d’information géographique (SIG), qui disposent déjà de données structurées. Plus une collectivité gagnera en maturité en matière d’Open Data, plus elle pourra élargir le spectre de données et plus elle sera amenée à se positionner comme un tiers de confiance – on y revient – entre les différents opérateurs, non sans se préoccuper en conséquence du format d’échange. Un défi dont on a peu parlé jusqu’à présent, mais qui est d’importance.

Alain Bourdin : Deux autres questions. La première porte sur le caractère prédictif des informations produites à partir des données recueillies. Autant il paraît manifeste dans le cas de systèmes techniques industriels, ainsi que cela a été illustré lors de la précédente audition, autant on peut s’interroger sur sa réalité dans le cas des politiques publiques. Celles-ci doivent a priori composer avec des usagers, dont les choix et comportements ne sont pas dictés par de simples calculs. Bref, dans quelle mesure le Big Data impacte-t-il la manière d’élaborer des politiques publiques, sur un territoire. La seconde question porte sur les métropoles : je ne serais effectivement pas étonné qu’elles soient les plus en avance, du fait des compétences dont elles disposent et parce qu’elles ont plus la capacité, comparées aux départements et même aux régions, à recruter les bonnes équipes. Mais qu’en est-il exactement ? Que savez-vous des recrutements ? Des profils requis et des nouveaux postes créés ? Comme on l’a vu lors de la précédente matinale, des entreprises se dotent de digital officers. Qu’en est-il des collectivités ? Y-a-t-il des administrateurs généraux des données ? Si oui, en quoi consisterait le rôle ?

Jean-Philippe Clément : Considérons d’abord votre première question qui revient en somme à se demander dans quelle mesure un algorithme est soluble dans le politique ou, dit autrement, s’il y a une politique de l’algorithme. Il serait dommage que sur des sujets qui relèvent de logique d’exploitation, on se prive des données numériques car elles constituent un vrai apport au plan prédictif. Nous-mêmes étudions la question de savoir si nous ne pourrions pas développer une maintenance prédictive sur les feux de croisement (les conclusions d’une étude devraient nous parvenir prochainement). Un exemple parmi d’autres. De manière plus générale, je militerai volontiers pour élargir cette approche à tous les systèmes d’exploitation.

Maintenant, si l’analyse des data nous permettait de détecter des signaux faibles, en matière d’urgence sociale et d’éviter ainsi à des personnes ou des familles, de se retrouver dans des situations douloureuses, je ne serais pas hostile à y recourir davantage.

Alain Bourdin : Ce qui supposerait d’avoir des personnes qualifiées pour interpréter ces signaux faibles…

Jean-Philippe Clément : De fait, la data science n’est pas autre chose que de l’interprétation de données. Elle requiert tout à la fois des techniques informatiques, l’apport de sciences (mathématique, statistique,…) et des compétences humaines. En disant cela, je réponds aussi à votre seconde question. Je précise que je m’emploie à convaincre en interne d’engager une réflexion sur les métiers, leur évolution ou l’invention de nouveaux. Cependant, nous ne partons pas de rien. Une ville comme Paris dispose de ressources disséminées dans différents services. La question est alors de savoir si on maintient ces ressources en l’état, en les faisant fonctionner en réseau, ou si on les concentre au sein d’un service de data scientists.

Comme vous le savez, ce genre de profil est très recherché ; il peut donc prétendre à une rémunération élevée. Il n’est pas sûr qu’une ville comme Paris ait les moyens d’en recruter un dans l’immédiat.

Cédric Verpeaux : En réponse à la question sur le prédictif, je souhaiterai aborder celle de la monétisation des données car les deux sont liées, me semble-t-il. Je pensais d’ailleurs que la seconde viendrait plus tôt dans la discussion, avant même celle relative au Blockchain. Les collectivités peuvent-elles vendre leurs données ? C’est une question que de plus en plus d’entre elles se posent en constatant que des opérateurs privés tirent un profit marchand de l’Open Data.

En matière de mobilité (désolé de m’en tenir à ce domaine, mais il est plus mature, au regard du Big Data, comparé à celui de l’énergie), on observe une tendance globale des acteurs publics et de l’Etat à pousser en faveur de la gratuité d’accès aux données publiques. Un point de vue que défend la CDC. Il y a encore quelques années, cela n’allait pas de soi pour les métropoles. Certes, toutes considéraient que la mise à disposition des données publiques était souhaitable car cela produirait toujours de la valeur sur leur territoire. Fallait-il pour autant les fournir gratuitement ? Les points de vue étaient partagés. Schématiquement, on pouvait distinguer deux positions opposées.

D’un côté, des métropoles ont fait le choix de vendre certaines de leurs données de mobilité. C’est le cas, par exemple, de Lyon, qui a fait ce choix non pas tant pour gagner de l’argent, que pour atteindre les deux objectifs suivants : d’une part, lutter à son échelle contre la position jugée dominante et abusive de Google (seule l’application leader sur le marché des mobilités sur le territoire lyonnais – donc, a priori, celle du géant américain – se voyait contrainte de payer les données) ; d’autre part, reprendre la main sur la régulation des applications de façon à mieux maîtriser les effets sur le système de transport local, en favorisant en l’occurrence les modes doux ou de partage. Pour cela, la métropole a fait sienne le principe de l’Open Algorithm, lequel consiste à mettre à disposition non pas simplement les données en accès libre, mais des algorithmes correspondant à des applications qu’elle souhaite promouvoir. Du même coup, elle était en mesure de susciter l’intérêt de start-up de son écosystème – les opérateurs mondiaux de type Google n’étant pas a priori intéressés de promouvoir des applications locales ; ils préfèrent disposer des données brutes, mais adaptées à leur format d’échange. Cette position de monétisation des données à Lyon est aujourd’hui en réflexion et évoluera certainement.

De l’autre côté, des métropoles réfléchissent sur le fait de faire payer leurs données de mobilité, mais pour un autre motif : elles ne considèrent tout simplement pas normal que des acteurs privés soient les seuls à en tirer un profit marchand.

Alain Bourdin : Voici une autre question à laquelle nous réfléchissons au sein de l’Atelier Energie et Territoires : nous voyons bien que les data servent à créer des services, mais dans quelle mesure peuvent-elles servir à fabriquer la ville, aider à faire du projet urbain ?

Jean-Philippe Clément : C’est une question que nous nous posons aussi, et qui nous incite à expérimenter, y compris avec des partenaires privés. Dans la perspective de notre plan de rénovation des grandes places parisiennes, Cisco, par exemple, nous a proposé de monitorer les flux enregistrés sur la Place de la Nation. Partenariat que nous avons accepté. Nous voyons dans cette expérimentation un moyen de faire de l’urbanisme agile, en appréciant en temps réel les incidences de telle ou telle option d’aménagement sur le trafic (par exemple, la fermeture d’une contre-allée). Grâce à des capteurs, nous mesurons les effets avant et après le test et ce, sur un laps de temps court. Un changement par rapport à l’urbanisme classique qui consistait à aménager sans pouvoir apprécier les effets. Cette nouvelle manière de faire pourrait être déclinée dans des projets d’aménagement de pistes cyclables et de zones piétonnes.

Cédric Verpeaux : On voit au passage le genre de partenariat qu’une collectivité peut conclure avec un opérateur du numérique. Mais j’ai aussi relevé que la ville de Paris dispose d’un demi ETP. Ce qui peut paraître peu. Pourtant, toutes les métropoles ne peuvent se doter de telles ressources ni ne sont en mesure de négocier avec un opérateur aussi puissant que Cisco. Vous aurez reconnu le fil rouge de mon propos, depuis le début de cette audition. Mais c’est un vrai sujet : comment en plus de procéder à leur ouverture de données, comme la loi les y oblige, les collectivités peuvent-elles apprendre à travailler avec des opérateurs privés, mais aussi d’autres collectivités ? Faut-il des ressources mutualisées ? Recruter des data scientists, mis à disposition de plusieurs villes ? Cela paraît séduisant, mais pas simple à mettre en œuvre : comment les rémunérer ? Sous quelle responsabilité interviendraient-ils ? Certes, il existe des associations d’élus, mais ce ne sont pas forcément des structures de projets. Quant à l’Etat, il ne dispose pas forcément des moyens pour accompagner la montée en compétence de toutes les collectivités. La voie est donc celle de la mutualisation. Certes, il ne s’agit pas d’un sujet nouveau : elle est recommandée pour chaque politique publique. Mais sa nécessité de pose avec acuité dans le domaine des data et de leur traitement. Il serait dommage de ne pas y parvenir : ce sont des ressources immatérielles, donc a priori plus facilement partageables. Nous y œuvrons aux côtés de collectivités. Reste que c’est un vrai challenge. Nous n’avons pas l’expertise ni la légitimité pour décider à leur place quelles données mettre en accès libre ou restreint.

Jean-Philippe Clément : Nous avons justement lancé hier [le 22 novembre], la deuxième édition de DataCity, notre programme d’Open Innovation, avec neuf partenaires et le concours de l’accélérateur Numa Paris. Ce programme traite précisément du sujet que Cédric vient d’aborder : comment adresser par la data des solutions qui ne sont pas encore sur le marché, mais dont on a l’intuition qu’elles pourraient répondre à des enjeux urbains ? Outre des collectivités, nous planchons avec des start-up et de grands groupes, sur des solutions émergentes, qui répondraient à des défis urbains pour Paris et n’importe qu’elle autre grande ville. C’est un des plus importants programmes d’innovation ouverte en Europe.


Echanges avec le public

Antoine-Christian Mocilnikar, Secrétariat général du Ministère de l’Environnement, de l’Energie et de la Mer : Une remarque et une question. La remarque concerne les TEPCV, objet de vos précédents travaux de l’Atelier Energie et Territoires, juste pour rappeler qu’ils étaient ouverts aux projets touchant aux data. Une question, ensuite, relative à l’international : qu’en est-il de la coopération bilatérale ou multilatérale avec des collectivités étrangères? N’y a-t-il pas moyen de parvenir à un effet levier en matière d’innovation ? De monter, avec elles, des démonstrateurs exportables ?

Jean-Philippe Clément : Nous avons essayé de répondre à des appels à projets européens, en nous associant à d’autres villes européennes : c’est certes intéressant, parce que cela confronte à des contextes différents. Mais ce n’est pas simple : chaque ville a des profils énergétiques différents et l’Europe nous demande pourtant de travailler ensemble autour de projets communs. Il nous faut donc trouver nos villes sœurs, ce qui n’est pas évident. Et puis ces coopérations mobilisent beaucoup de moyens et d’énergie comparé à ce qu’elles rapportent effectivement. Prenez le H2020-SCC, un des programmes européen phares sur ces sujets de l’énergie : une ville comme Paris peut prétendre obtenir de l’ordre de trois millions d’euros sur un budget global d’une quinzaine de millions d’euros pour un projet pouvant dépasser plusieurs fois la subvention allouée, ce qui est peu au regard des efforts consentis en amont et pendant le déroulement du projet.

Cédric Verpeaux : Les autres villes françaises tiennent-elles toutes le même raisonnement ? Je n’en suis pas sûr. Toujours est-il que le constat que l’on peut faire est qu’elles sont très mal représentées dans les programmes européens, y compris ceux relatifs à la smart city. Peu répondent aux appels à projets européens. Même les villes des pays du sud européen sont plus représentées. Je ne parle même pas des villes de l’Europe du Nord !

Certes, ces programmes européens requièrent une ingénierie particulière. Mais cela ne saurait être la seule explication. Naturellement, on peut le regretter, car, comme le suggère Monsieur, la coopération internationale pourrait se révéler un précieux levier d’innovation dans le domaine de la smart city.

Julien Soreau, de l’EPA Paris-Saclay : Force est de constater que nous sommes confrontés à des masses de données, sur tous les sujets possibles. C’est particulièrement vrai dans le domaine de l’énergie, où en en dispose de plus en plus en temps réel. Reste que le recueil et le stockage de ces données a un coût. Se pose aussi la question de leur fiabilité. Bref, je souhaiterais revenir à la question posée en préambule de cette audition : la donnée, pour quoi faire ? J’ajoute que de nombreux démonstrateurs ont été conçus, sur la base d’une gestion de données numériques, dans la perspective de la smart city ou du smart grid. Il me semble donc qu’on dispose d’assez de recul pour savoir jusqu’où aller dans l’Open Data.

En échangeant avec des énergéticiens, je perçois d’ailleurs un changement d’attitude : l’heure n’est plus à chercher à récupérer coûte que coûte toutes les données disponibles. D’autant que, dans le même temps, le contexte réglementaire évolue dans le sens d’une sécurisation des données personnelles. Tant et si bien que je me demande s’il ne faut pas revenir à des méthodes qui ont fait leur preuve, du moins pour les besoins élémentaires. Je pense à l’optimisation des factures de collectivités sur laquelle j’ai travaillé il y a une dizaine d’années : nous pouvions déjà réaliser des économies substantielles. Rien n’empêchant aux opérateurs – producteurs, gestionnaires de réseaux – de se concentrer sur les segments de données, dont le traitement est susceptible de produire de la valeur.

Cédric Verpeaux : Pour les métropoles avec lesquelles nous commençons à travailler autour des données de l’énergie, l’usage de la data est aussi un moyen de rétablir une relation plus équilibrée avec leurs délégataires de services publics, qui jusqu’ici disposaient seuls des données. Elles en voient l’utilité en matière d’urbanisme, de logement ou de transport. Enfin, elles font, encore une fois le pari, qu’en les mettant en accès libre, elles peuvent susciter de l’innovation ou d’autres externalités positives sur leur territoire. Cependant, comme j’ai déjà eu l’occasion de le dire, la démarche est encore moins mature que dans les domaines des transports et des mobilités où on compte déjà de nombreux exemples d’entreprises, qui parviennent à créer de la valeur, et notamment en B2C, à partir de la gestion des données.

Jean-Philippe Clément : A propos de l’agrégation de données, il est de plus en plus question de « lac » de données. Je trouve la métaphore intéressante. On peut la filer en considérant qu’un tel lac suppose qu’on se fixe une rive à atteindre. Sans quoi on se noie ! Encore une fois, l’important n’est pas de prévoir à l’avance toutes les données qui s’ouvriront à nous, mais de partir de projets concrets où chacun à un objectif transparent.

Jacques Roger-Machart, Fondation Jean Jaurès : Une question qui s’adresse a priori à Cédric Verpeaux : comment traitez-vous de la problématique de la privacy, autrement dit de la protection des données personnelles ? J’en profite pour faire part de ma perplexité devant la réflexion engagée au cours de cette audition autour de l’Open Data. La data n’a de sens qu’en fonction de l’usage qu’on peut en faire. J’aimerais donc qu’au cours des prochaine auditions, l’attention soit davantage portée sur les applications concrètes de l’Open Data, dans l’énergie, notamment.

Cédric Verpeaux : Même si ce commentaire ne m’est pas directement adressé, je réagirai en disant que je vous rejoins sur l’intérêt à réfléchir davantage aux applications, mais en soulignant que l’ambition d’une collectivité, son rôle, n’est pas nécessairement de prévoir a priori celles qui pourront être développées à travers l’Open Data. Et quand bien même ne peuvent-elles anticiper ces applications, il importe qu’elles mettent à disposition leurs données, sans quoi il ne se passera rien. L’intérêt de l’Open Data est de ne pas préjuger des projets qu’il en résultera.

Bien que la question ne lui ait pas été adressée, il me semble qu’elle concerne davantage Jean-Philippe, en son titre de représentant d’une collectivité. La Caisse des Dépôts ne gère pas de données. Cela étant dit, il convient effectivement de rappeler que beaucoup des données dont nous avons parlé, sont à caractère personnel. La question se pose davantage avec les données de l’énergie qu’avec celles des mobilités. Pour une collectivité, le sujet n’est pas nouveau : de tout temps, une collectivité a eu à gérer des données personnelles liées aux divers services qu’elle rend. Si nouveauté il y a, il tient au caractère massif et à l’accès en temps réel à des données liées à des usages de la vie quotidienne.

Cela étant dit, je pense que la question de l’usage de données personnelles inspire beaucoup de craintes exagérées. Celles relatives à notre consommation d’eau ou d’énergie augmenteraient, dit-on, les risques de cambriolage en trahissant nos absences… Personnellement, je crains davantage le détournement de mes données recueillies par mon opérateur télécom : il peut savoir à tout instant où je suis. Demain, il saura tout ce que j’achète (dès lors que mon mobile fait office de carte bleue), en plus de savoir à qui je téléphone…

Alain Bourdin : Je crois qu’aborder la privacy par le seul prisme des données est une erreur. Il faut le faire au regard du droit à la vie privé. Il y a à cet égard un retard de nos législations actuelles sur la définition de ce droit, de ce qui faut entendre par là.

Sylvain Allemand : Une question pour Jean-Philippe Clément, inspirée par le constat fait par M. Verpeaux quant à la difficulté de certains élus – ne généralisons pas – à entrer dans cette problématique de l’Open Data. Ce qu’on peut effectivement concevoir en faisant l’hypothèse que la data ne concerne pas les usages de leurs seuls administrés, mais d’usagers qui ne résident pas dans leur ville. C’est particulièrement le cas à Paris dont les usagers viennent d’au-delà du périphérique. D’où ma question : arrive-t-il à Jean-Philippe Clément, bien que non élu, de songer que sa fonction de responsable de la démarche et des solutions data aurait encore davantage de pertinence à l’échelle du Grand Paris ?

Jean-Philippe Clément : Il est clair que tous les projets que nous menons avec les différentes directions de la ville doivent pouvoir être proposés à l’échelle de la métropole. C’est le cas pour la plateforme de données de la Ville de Paris : en travaillant sur elle, nous veillons à travailler aussi pour celle de la métropole, en nous en tenant à faire des propositions, sans chercher à imposer nos choix.

Dominique Bidou, Consultant, spécialiste du développement durable : Vous avez beaucoup parlé des métropoles et des grandes villes en général. Qu’en est-il des zones rurales ? Seront-elles exclues des bénéfices du Big Data ou y aura-t-il des services adaptées pour elles ?

Philippe Labro : A quand, en somme, la promotion d’une smart campagne ?

Cédric Verpeaux : Nous venons de diffuser une étude (téléchargeable), menée en partenariat avec l’Association des Petites Villes de France (APVF) et l’Assemblée des Communautés de France (AdCF) [ pour y accéder, cliquer ici ]. Son intitulé se veut on ne peut plus évocateur, jugez-en par vous-mêmes : «  Smart city versus stupid village ? ». A travers cette étude, nous souhaitions attirer l’attention sur le challenge que la smart city représente, justement, pour les territoires ruraux ou périurbains. La question de la mutualisation se pose d’autant plus dans leur cas. De même que celle de savoir qui peut en être le chef de file : le département ? La région ? Les grandes agglomérations ? Avec quels partenaires privés ? Autant de vrais sujets. Pas plus que le Big Data, l’Open Data ne concerne les seules grandes agglomérations. Au regard des territoires ruraux, le challenge est assurément devant nous.

Yves Contassot, Conseiller de la Ville de Paris, Président de l’Agence Parisienne du Climat : On parle beaucoup de l’intérêt du Big Data pour l’usager final, en matière d’énergie. Or, force est de constater que celui-ci ne manifeste pas le moindre intérêt. Je serais étonné que beaucoup d’entre nous, dans cette salle, connaissent le montant de leur facture annuelle d’énergie. Celui de leur facture d’eau, encore moins. Ne nous illusionnons pas : ce n’est pas l’usager final qui sera un acteur réel de la transition énergétique. Il ne l’est déjà pas aujourd’hui, malgré les informations dont il dispose sur sa facture. Les usagers ne sont pas seuls en cause. Jean-Philippe Clément peut en témoigner : nous rencontrons les pires difficultés à faire en sorte que les services de la ville s’intéressent eux-mêmes à ces enjeux et qu’ils nous fassent remonter les montants des factures. Cela va changer, mais pour l’avoir expérimenté ailleurs, je sais le temps qu’il faudra pour y arriver.

Je me demande en outre si nous ne sommes pas passés à côté des enseignements qu’on peut tirer d’autres domaines impactés par le Big Data. Deux exemples pour illustrer mon propos. Le premier concerne le secteur bancaire : pendant des années, il a pratiqué la segmentation de clientèles, à partir d’algorithmes sophistiqués. Les conseillers clientèle se voyaient recommander de placer des produits financiers aux clients en fonction de leur profil. Le résultat fut un échec total (les conseillers avaient d’autres objectifs à atteindre que celui de placer des produits financiers ; ils se fiaient en outre davantage aux relations de confiance nouées avec leurs clients). Deuxième exemple : la lutte contre le terrorisme, qui a pâti de la suppression du travail de terrain au profit du Big Data avec le résultat que l’on sait. Ces exemples démontrent à mon sens les risques qu’on encourt à placer tous ses espoirs dans les seules données numériques, au détriment des compétences humaines. Ce n’est certainement pas les data scientists qui y suppléeront. On peut même craindre une perte supplémentaire d’information par les élus. Or, comment peut-on proposer des politiques publiques pertinentes si nous-mêmes, les élus, ne disposons pas de l’information ni n’avons la capacité de les intégrer ? Le risque serait d’être les « otages » de personnes qui prétendent savoir grâce à leur expertise dans l’interprétation des données, mieux que les usagers aussi bien que les élus. Ce qui n’est pas sans interroger sur le devenir de notre démocratie.

Jean-Philippe Clément : L’intervention de Yves Contassot est l’occasion pour moi de rappeler que nous n’en sommes encore qu’au début en matière de Data Science et que nous nous y engageons avec un souci clair de ne pas fonder nos espoirs seulement sur la technique, mais au contraire, de pouvoir nous appuyer aussi sur des compétences proprement humaines. Je dis « aussi » car il me semble qu’il ne faut pas opposer les deux. Des technologies existent, qui sont de plus en plus puissantes. Pourquoi s’en priver a priori ? Etant étendu qu’on ne peut pas faire toujours la part entre l’humain et la technologie, et que c’est précisément cette combinaison des deux qui peut produire des résultats intéressants.

Cela étant dit, c’est vrai que nous n’avons pas réussi à embarquer l’utilisateur final dans les enjeux de la smart city. Mais je ne désespère d’y parvenir à travers la réalisation de projets concrets, à même d’impacter sa vie quotidienne. Ce n’est pas en démultipliant les interfaces de consommation d’énergie, d’eau et d’autres ressources, qu’on parviendra à le convaincre, lui faire adopter des comportements plus vertueux. Il y a au contraire un effort à faire, de la part des différents opérateurs, pour lui proposer une vision globale en y ajoutant d’autres services à même de faire vibrer sa fibre environnementale. A défaut de l’accrocher sur les enjeux de la smart city ou même de la transition énergétique, peut-être pourrions-nous le faire par les enjeux de l’alimentation durable, du recyclage des déchets et plus généralement, des questions pratiques qui touchent à son mode de vie, à son quartier. On ne s’éloignerait par pour autant de la smart city ni de la transition énergétique car l’une comme l’autre sous-tendent une vision globale d’enjeux qu’on avait juste tendance à traiter séparément.

Olivier Génin, Teradata (constructeur et un éditeur de solutions informatiques spécialisées en matière d’entrepôt de données et d’applications analytiques) : Je voulais réagir à la remarque de M. Contassot en recommandant de ne pas opposer analyse des données et l’humain. Dans les démarches que nous développons chez nos clients, ce sont deux choses que nous considérons comme étant complémentaires. Un data scientist saura d’autant plus identifier les données pertinentes parmi toutes celles collectées, celles qui vont créer de la valeur et de l’utilité à l’utilisateur, qu’il travaille en association étroite avec une personne connaissant bien son métier, que ce soit pour de la maintenance prédictive ou la création de nouveaux services. C’est en cela que son analyse conserve nécessairement une dimension humaine.

Henry C. Reese, Secrétaire général d’Energie franco-allemande : Je souhaite enfoncer le clou planté par Antoine-Christian Mocilnikar : la France a des savoir-faire à exporter, y compris en Allemagne. Récemment, nous avons accompagné des chercheurs qui travaillent sur la smart city, au cours de leur visite de Berlin dont ils voulaient découvrir les organismes engagés dans cette thématique. Force a été de constater que cette ville, comme le pays, part de loin. La France paraît plus avancée. Certes, on y est un peu moins soucieux du détail, mais les grandes visions stratégiques y sont clairement formulées. Ma question s’adresse à Jean-Philippe Clément : est-ce que la Ville de Paris contribuer, fût-ce avec le concours d’énergéticiens et de start-up, à exporter son savoir-faire ? Actuellement, les opérateurs de l’énergie allemands – EON et autres – sont en train de réinventer leur modèle économique. Le contexte est particulièrement favorable au lancement de projets de coopération franco-allemand dans le domaine du numérique.

Jean-Philippe Clément : Pourquoi pas en effet, sous réserve cependant que cela ne débouche pas sur des montages compliqués. Encore une fois, nous ne sommes qu’au début de notre démarche Open Data. Nous apprenons à travailler avec des distributeurs et fournisseurs. Peut-être faudrait-il attendre des réalisations concrètes, enregistrer nos premiers succès avant de nous investir dans une coopération internationale et faire profiter de notre expérience.

Un représentant de la Smart Lighting Alliance, qui vise à promouvoir le LiFi en Europe et en Chine : Pour avoir un cabinet de lobbying à Bruxelles, je suis en mesure de dire qu’il y a effectivement très peu de villes françaises qui déposent des dossiers pour obtenir des subventions européennes. Inutile donc de mobiliser le Big Data ! Il en va de même des entreprises françaises. A l’inverse, l’Allemagne est parfaitement représentée. Ses collectivités et entreprises emportent de nombreux appels à projets, malgré les efforts extraordinaires de la BPI

Emmanuel Boissac, de la Direction générale de l’énergie et du climat (DGEC) : Vous n’avez pas évoqué des organismes qui ont une expérience ancienne dans le traitement de données, à savoir : les instituts de sondage, qui, comme chacun sait, ne se limitent pas aux seuls sondages d’opinion ; l’essentiel de leur activité porte sur la collecte et le traitement de données relatives à la consommation. Avez-vous des échanges avec eux ?

Jean-Philippe Clément : Effectivement, nous avons des échanges et plutôt fructueux. Mais au risque de vous surprendre, c’est sur d’autres savoir-faire, moins connus, que les échanges portent, en l’occurrence sur la manière dont on peut faire évoluer certains comportements d’usagers, sans qu’on soit pour autant dans une logique de manipulation, mais davantage d’incitation. Soit ce qu’il est convenu d’appeler des stratégies nudge, qui consistent à mettre les individus dans un contexte de choix les incitant à adopter le comportement souhaité. Ce qui passe par l’indentification de leviers spécifiques.

Michel Micheau : J’ai relevé un certain nombre de tensions dans vos réflexions. Une première entre projet et principe (une tension, qui s’observe aussi dans le champ de l’aménagement avec le projet urbain versus les systèmes de planification). Il ne s’agit pas d’opposer l’un à l’autre, mais de les faire tenir ensemble. C’est pourquoi, d’ailleurs, je parle de tension.Depuis la loi sur la République numérique, on voit poindre des tensions avec la loi relative aux libertés informatiques. L’anonymisation des données et le consentement ne sont pas des conditions suffisantes pour assurer la neutralité au sens prévu par cette dernière. On voit de plus en plus, dans l’utilisation de modèle d’agrégation massive de données de comportement, qu’il suffit d’ajouter une variable supplémentaire pour identifier des individus, repérer des groupes. D’où la saisie du problème par les juristes, qui prennent , semble-t-il, la mesure des risques encourus.

La question des algorithmes a été évoquée : de fait, c’est à ce niveau que se jouent les vrais défis. Vous l’avez dit, mais je tenais à le souligner. Les algorithmes sont basés sur des modèles qui ne sont pas faciles à repérer. Leur mise à disposition par une puissance publique est une piste. Mais encore faut-il qu’on puisse en maîtriser la conception. Soit un enjeu de gouvernance des algorithmes, dont il faudrait débattre

Cédric Verpeaux : J’abonde dans votre sens. Reste cependant à savoir ce que vous entendez par puissance publique : est-ce l’Etat, les collectivités ou des groupements de collectivités ? A qui va incomber la construction et le contrôle des algorithmes d’intérêt général, notamment dans le domaine de l’énergie ? Autant de questions qui constituent autant de challenges, y compris pour la CDC, acteur public s’il en est. Un algorithme est a priori plus complexe à manipuler qu’un fichier Excel de données !