Aménagement

3. Le développement inexorable de ces nouveaux outils crée de nouvelles missions pour les collectivités territoriales

Mots clés : Etat et collectivités locales

L’utilisation d’outils numériques, qu’ils soient proposés par les pouvoirs publics, leurs délégataires ou directement par la sphère privée, créent de nouvelles responsabilités pour les collectivités territoriales.

Tout d’abord, ils créent une attente nouvelle d’un service public mieux administré, plus personnalisé et plus frugal. La mission constate qu’émerge chez les habitants une exigence de transparence plus grande, ainsi qu’une demande de co-construction de la ville.

La question des données, dont le recueil va devenir massif et la gouvernance de ces données devraient devenir une compétence nouvelle des collectivités territoriales.

Le développement de services nouveaux, plus personnalisés mais également désintermédiés renforce l’obligation traditionnelle des pouvoirs publics de garantie de l’égalité entre citoyens et de création de lien social. En effet, les usages numériques peuvent accentuer les phénomènes de segmentation sociale. Par exemple, le développement des plateformes permet de constituer des groupes similaires d’usagers qui, à partir d’une taille critique, peuvent avoir intérêt à se passer de l’intermédiaire de la puissance publique pour créer un service pour leur seul usage. De telles pratiques renforcent le cloisonnement social et renchérissent le coût du service public.

3.1. Favoriser la collaboration de l’ensemble des acteurs du territoire pour améliorer le service aux habitants

D’après une étude menée au moment des élections municipales de 2014, la préoccupation principale des Français est l’emploi et le développement économique. Au second rang des attentes des Français, on trouve des thématiques locales : la sécurité locale (49 %), l’environnement local (43 %) ainsi que les conditions de circulation (36 %), important motif d’insatisfaction à l’égard de l’action locale.

Les transports en commun constituent une attente pour 32 % des Français et notamment les Franciliens (45 %). Les sports et les loisirs recueillent 22 % des citations39 . Sur les quatre thématiques locales, les outils numériques sont en mesure d’apporter des améliorations. C’est particulièrement vrai, aujourd’hui, pour l’environnement, les conditions de circulation et les transports, comme le soulignent les différents exemples déjà cités. Cependant, l’utilisation à plein potentiel des outils numériques passe également par une évolution de la manière de rendre les services d’intérêt général et notamment la capacité à faire travailler ensemble différents acteurs.

Dans le baromètre Paul Delouvrier40 , les répondants associent services publics à l’État (59 % en 2014, en hausse de 12 points par rapport à 2013), aux collectivités territoriales (25 %, en baisse de 7 points), aux grandes entreprises et à d’autres acteurs presque à égalité (respectivement 18 et 16 % mais les grandes entreprises sont en baisse de 9 points et la catégorie autre progresse de 4 points). L’augmentation des acteurs « autres » doit être envisagée comme une opportunité pour les collectivités territoriales. En effet, il semble que les habitants considèrent aujourd’hui que certains services publics peuvent être rendus par des entreprises ou des associations, même de taille modeste et même en dehors de contrat avec la puissance publique. Dans certains secteurs, on constate aujourd’hui une complémentarité entre l’offre de la puissance publique et l’offre privée, notamment issue des services numériques. L’offre peut également être proposée par les habitants eux-mêmes dans une logique très décentralisée de production de services. Face à cela, la collectivité territoriale a un nouveau rôle : optimiser et sécuriser l’offre de service.

3.1.1. Collaborer avec l’ensemble des acteurs du territoire pour améliorer les services publics

3.1.1.1. La relation avec les grands acteurs du numérique et avec le monde de la recherche doit être pensée dans une logique collaborative

Les services publics ne parviennent pas, seuls, à répondre parfaitement à la demande des habitants. Sur les transports en commun, par exemple, on sait que le dernier kilomètre est une problématique sur laquelle les pouvoirs publics ont des difficultés à répondre. Ils cherchent à y répondre par l’intermodalité. Une enquête menée par Ipsos pour Trans-dev, auprès d’élus de collectivités urbaines, indique que 74 % d’entre eux jugent prioritaire l’intermodalité entre les différents types de transport. 78 % pensent également qu’il est important de mettre en place des services spécifiques et complémentaires tels que l’auto-partage et les vélos en libre-service. La question qui se pose est celle de la répartition entre initiatives privée et publique. En effet, il peut être moins coûteux pour une collectivité de créer les conditions d’une complémentarité avec le secteur privé sans pour autant dégrader le service public. Sur les transports en commun, l’objectif général est d’amener des habitants qui utilisent traditionnellement leur véhicule individuel vers les transports en commun (TC) en réduisant la pénibilité associée à ces déplacements. L’utilisation d’un véhicule individuel présente un coût (monétaire et temporel). Il convient donc de trouver des solutions qui rendent l’utilisation de TC plus attractive. L’intermodalité permet de répondre à la pénibilité du dernier kilomètre mais cette intermodalité n’a pas à être nécessairement assurée par le service public. En revanche, une véritable concertation et collaboration entre les acteurs favoriseront la fluidité du passage d’un mode de transport à l’autre, créant les conditions d’une intermodalité efficace. Il y a une complémentarité entre les solutions publiques et privées, comme il y a une complémentarité entre les différents modes de transports.

En guise d’illustration, on peut mentionner l’utilisation de services de voiture à la demande (taxi, VTC…). À Londres, la ville a choisi d’étendre les horaires de certaines lignes de métro le week-end. Après la mise en place des nouveaux horaires, le nombre de prises en charge par des véhicules Uber à 200 mètres d’une station de métro a progressé de 22 % pendant les horaires nocturnes. Ce constat se répartit ainsi : une diminution des prises en charge à proximité des stations de centre-ville jusqu’à – 40 % et une progression moyenne de 63 % pour les stations hors du centre-ville. Il y a bien une optimisation des usagers qui combinent les deux modes de transport pour réduire la pénibilité de leur trajet tout en gardant un coût acceptable.

GRAPHIQUE 6 : REPRÉSENTATIONS DES VARIATIONS DU NOMBRE DE PRISES EN CHARGE UBER APRÈS L’EXTENSION DES HORAIRES DU MÉTRO DE LONDRES

Nier la complémentarité des offres privées et publiques conduirait à une dégradation des services offerts aux habitants. À l’inverse, l’entrée massive d’une offre privée sur des secteurs traditionnellement tenus par les services publics risque de limiter la capacité du pouvoir politique à prendre des décisions concernant son territoire. À titre d’exemple, on peut citer les systèmes de navigation fournissant des données de trafic en temps réel. Ces systèmes n’intègrent pas les contraintes de la collectivité dans leur système d’optimisation des trajets. Cela peut conduire l’algorithme embarqué à orienter le flux du trafic vers des zones voulues calmes par la collectivité territoriale, justement parce que le trafic y est faible. Cela pourrait conduire aussi, si de telles données étaient intégrées dans les systèmes d’optimisation, à des stratégies d’évitement de certains quartiers considérés comme peu sûrs et limitant de fait la cohérence territoriale et la cohésion sociale. Aucun moyen contraignant n’existe aujourd’hui pour éviter ce type de dérives. À long terme, un encadrement législatif pourra être pertinent mais il semble qu’à court terme les enjeux sont encore trop incertains pour ouvrir une réflexion de ce type. En revanche, une collaboration de la collectivité avec les acteurs privés peut permettre d’arriver à des solutions, de même que la mise en place d’une licence d’utilisation des données imposant le respect de l’intérêt général (voir 3.2.2.4).

Il faut ici insister sur l’idée que mener ces concertations avec des groupements de collectivités permettrait à celles-ci de disposer d’un pouvoir de négociation plus important. En ce sens, la concurrence territoriale doit être évitée au maximum.

Il faut également encourager les relations entre le monde académique et les collectivités territoriales. Ces échanges, quand ils ont lieu comme à Angers, Montpellier ou Nice (voir encadré 6), par exemple, sont bénéfiques à tous et permettent le développement d’innovations cohérentes avec les besoins et réellement prospectives.

3.1.1.2. Intégrer les modes de production décentralisés et collaboratifs

Le développement du numérique ainsi que d’autres évolutions technologiques permettent d’envisager la production par les habitants – ou à des niveaux très décentralisés – de services traditionnellement assurés par les pouvoirs publics ou de grands acteurs institutionnels.

Le changement le plus évident aujourd’hui est celui de l’électricité. Les évolutions techniques rendent envisageable la production locale d’électricité comme source première d’alimentation d’une ville (hors industrie). Certaines entreprises promettent 100 % d’énergies renouvelables pour tous. Ces modèles reposent sur la production d’énergie renouvelable moins chère (les prix de production d’énergie solaire ont baissé de 90 % depuis 2009), une capacité d’optimisation de la consommation en temps réel grâce aux outils technologiques et des possibilités pour des échanges de flux financiers simplifiés et sécurisés entre particuliers. Le développement du numérique se situe au centre des deux derniers aspects.

Aujourd’hui, l’électricité produite par de l’énergie solaire revient à 0,10€ /kWh41 . Si l’on y ajoute le stockage dans des batteries, le coût monte à 0,20€ /kWh, soit 0,05€ /kWh de surcoût par rapport au tarif de l’électricité en France. Il est pourtant possible de ramener le coût de l’énergie solaire à un niveau égal ou inférieur à 0,15€ /kWh, en optimisant la demande d’énergie grâce à des solutions intelligentes de gestion de la file d’attente. Par exemple, un congélateur de catégorie A peut cesser d’être alimenté pendant 12h sans risque alimentaire. Avec des objets connectés et des algorithmes de gestion de file adaptés, cette déconnexion peut être décidée par un algorithme recevant également les données de consommation des autres appareils au moment des pics de consommation afin de lisser la demande.

Des systèmes de ce type qui optimisent la gestion de la file d’attente existent. Un rapport du Rocky Mountain Institute montre que leur installation permet aux gestionnaires de réseau d’électricité d’économiser 200€ par an et par box. En extrapolant, si les près de 24 M de ménages français étaient équipés de ce type d’outils, les économies pour le gestionnaire de réseau seraient de 4,76 Md€ annuels. Si l’optimisation peut être faite à l’échelle d’un quartier ou d’une ville, les possibilités d’utilisation d’énergies produites localement sont plus importantes encore car la difficulté du stockage s’en trouve réduite. Pour cela, les flux financiers doivent être simples et sécurisés. Les systèmes de type blockchain peuvent répondre à ces problématiques.

Le système décrit supra est celui d’une production décentralisée, peut-être par des habitants ou des entreprises dont ce n’est pas l’activité principale, avec une consommation locale et des transactions directes entre le producteur et le consommateur. Les pouvoirs publics peuvent permettre à tous de tirer profit au mieux de ces nouvelles possibilités en jouant le rôle de tiers de confiance, par exemple en organisant au mieux les réseaux locaux (identification des producteurs, amélioration des réseaux d’IoT de connaissance de l’offre et de la demande, déploiement de logiciels d’optimisation de la file d’attente dans les bâtiments publics) et en offrant plus de sécurité pour les échanges financiers. La création d’une blockchain fermée des collectivités territoriales et éventuellement de l’État serait de nature à favoriser la confiance et à fluidifier les échanges.

3.2. Garantir la sécurité des données et des systèmes

3.2.1. L’Internet des objets et le développement des données

3.2.1.1. Développement des objets connectés

L’Union internationale des télécommunications (UIT) a mené un travail de caractérisation dans une recommandation de 201242 . Selon l’UIT, l’internet des objets se définit comme « l’infrastructure mondiale pour la société de l’information, qui permet de disposer de services évolués en interconnectant des objets (physiques ou virtuels) grâce aux technologies de l’information et de la communication interopérables existantes ou en évolution » . Aujourd’hui, l’internet des objets au sens large, communément appelé IoT pour Internet of Things , se divise en trois catégories principales, qui correspondent plus ou moins à une typologie établie par iDate (voir graphique 7) :

– Les objets connectés, qui, dans la typologie sont à la fois les « wearables » ou gadgets et les objets disposant d’une identification électronique. Pour cette catégorie, les applications sont nombreuses.

– Le machine to machine (M2M). Les experts considèrent que demain, il y aura plus de cartes SIM pour le M2M que dans des téléphones portables.

– Les appareils.

GRAPHIQUE 7 : TYPOLOGIE DE L’I

Ces objets permettent de recueillir des données qui reflètent les comportements individuels et d’améliorer le service public autour de quatre axes43 : personnalisation, prévention, prédiction et participation (voir notamment 1.2.1).

Selon différentes analyses, le nombre d’objets connectés devrait s’accroître très sensiblement dans les années à venir (26 Md d’objets connectés en 2020 d’après Gartner à 75 Md d’après Morgan Stanley). Cela s’explique en partie par les facteurs techniques avec une baisse des coûts des capteurs, de l’augmentation de la puissance des processeurs, de la miniaturisation et des capacités de stockage. La partie de l’IoT qui devrait avoir la croissance la plus importante à court terme sont les objets connectés via une identité électronique avec 68 Md d’objets en 2020 d’après l’iDate44 .

Les smart cities sont également un des terrains de développement de l’IoT, aussi bien dans la dimension espace public que pour toutes les applications privées liées à des services publics (voir tableau 1 : nombre d’objets connectés installés dans les smart cities dans le monde par sous-catégorie (en millions)).

TABLEAU 1 : NOMBRE D’OBJETS CONNECTÉS INSTALLÉS DANS LES SMART CITIES DANS LE MONDE PAR SOUS-CATÉGORIE (EN MILLIONS)

3.2.1.2. Assurer la sécurité des objets connectés déployés par la ville

Aujourd’hui, les objets connectés sont jugés insuffisamment sécurisés et 70 % des objets connectés, utilisés le plus fréquemment, présentent des vulnérabilités, selon un rapport de HP security research45 .

L’objet du présent rapport n’est pas de proposer des mesures précises pour remédier largement à cette situation, même si une mission pourrait avantageusement être prévue pour établir précisément les failles de sécurité les plus communes et prévoir des mesures, y compris législatives et réglementaires, pour encadrer la sécurité des objets connectés. En effet, il ne semble pas raisonnable d’attendre des consommateurs particuliers qu’ils disposent d’un niveau d’expertise suffisant pour évaluer ces objets en fonction de leurs caractéristiques de sécurité.

En revanche, ce niveau d’expertise peut et doit être attendu des pouvoirs publics. C’est pourquoi, si les collectivités territoriales font l’acquisition d’objets connectés pour la gestion des services publics, les habitants sont en droit d’attendre que ces objets soient sécurisés. C’est d’autant plus important que les objets connectés d’une collectivité peuvent constituer une cible particulièrement attractive pour des pirates informatiques. En effet, la connexion de réseaux publics (eau, gaz) ou de la voirie (feux de circulation, places de stationnement) accentue la problématique de la sécurité et le piratage d’un système d’information devient plus facile car les objets connectés multiplient les points d’accès physiques à ce réseau, points d’accès qui de plus se trouvent dans des lieux publics. Par ailleurs, le piratage de systèmes d’information n’a plus seulement un impact « virtuel » mais peut représenter une menace physique. Par ailleurs, les réseaux d’une collectivité territoriale sont des cibles particulièrement visibles qui peuvent attirer des pirates informatiques ayant des intentions criminelles mais aussi des groupes cherchant à relever un défi pour des raisons de visibilité. Cet aspect peut être renforcé par le développement de scénarios de ce type dans l’industrie du divertissement (cinéma, jeux vidéo, télévision). C’est déjà le cas de la série de jeux vidéo Watch Dog d’Ubisoft. Dans cette série, des hackers s’infiltrent dans le CtOS (city operating system), un système informatique hyperviseur gérant les infrastructures électriques et électroniques de Chicago (épisode 1) puis de Los Angeles (épisode 2) pour gérer à distance les infrastructures de la ville, en partie pour augmenter la visibilité de leur groupe.

Or, il ressort des différents entretiens que la mission a pu mener, que les enjeux de sécurité de ces nouveaux outils sont mal perçus et mal compris des collectivités territoriales, et notamment de leurs responsables politiques. Plusieurs facteurs expliquent cela :

– La complexité technique. La sécurisation d’objets connectés est techniquement complexe et la compréhension précise des risques nécessite une expertise spécifique.

– Le niveau de décision concernant la digitalisation. Bien souvent, pour les objets comme pour les données ou autres aspects de la digitalisation de la ville, les décisions sont prises à des niveaux techniques, en fonction de contraintes budgétaires, sans que le niveau politique ne soit saisi. On peut aussi souligner que, dans bien des cas, ces décisions ne sont pas réellement prises car la question de la sécurité n’est pas posée. Alors, les services de la ville qui installent ces objets estiment, sans le vérifier, que les prestataires extérieurs qui proposent ces objets connectés en assurent la sécurité.

Cette situation n’est pas acceptable car elle pourrait mettre en péril la sécurité des collectivités territoriales, notamment si le déploiement d’outils connectés de la ville se poursuit et parce qu’elle risque, à terme, de remettre en cause la confiance des habitants dans leur ville et les pouvoirs publics. C’est pourquoi il faut offrir des outils permettant de développer l’expertise sur ces questions et imposer des clauses de sécurité obligatoires dans les appels d’offres.

3.2.2. Dans la ville intelligente, la donnée devient une politique publique à part entière

3.2.2.1. Massification des données collectées

Cette massification du marché des objets connectés entraîne également une massification des données collectées. Ainsi, 90 % de l’ensemble des données aujourd’hui disponibles ont été créées ces deux dernières années46 . D’ici 2020, 32 milliards de ces nouveaux outils pourraient générer 44 zetta-octets (44 000 milliards de giga-octets) de données47.

Ce mouvement résulte de l’introduction du numérique qui permet une baisse du coût de la collecte de la donnée. Celle-ci peut s’appréhender par l’exemple. Avant l’apparition de capteurs connectés, la collecte de données de consommation d’eau impliquait le déplacement de techniciens jusqu’aux compteurs individuels. Aujourd’hui, la donnée peut être directement envoyée par les compteurs connectés plusieurs fois par jour. Obtenir la même granularité de donnée avec une collecte physique aurait entraîné des coûts très nettement supérieurs à l’intérêt de la donnée. Ce phénomène accompagne la dématérialisation numérique en général (voir encadré 7 : Massification liée à la digitalisation, l’exemple des photos).

Avant même le déploiement d’objets avec une identité électronique à grande échelle, les appareils connectés (smartphones en particulier) recueillent des données personnelles et en particulier des données de géolocalisation. Le collecteur de la donnée est soit l’opérateur téléphonique, soit l’opérateur du système d’exploitation (iOS ou Androïd), soit le développeur de l’application utilisée par l’usager. La commission nationale informatique et libertés (CNIL)50 a montré que 25 à 30 % des applications mobiles accèdent à des données de géolocalisation. La donnée est alors collectée dans un modèle vertical descendant : une entreprise recueille via le produit qu’elle fournit aux consommateurs des données suite à un consentement plus ou moins éclairé de celui-ci.

Les habitants peuvent également produire volontairement des données pour les partager, dans une approche collaborative ( crowdsourcing ). C’est le modèle de Wikipedia dans le domaine de la connaissance. OpenStreetMap (OSM) applique le collaboratif à la cartographie. En 2013, plus d’1 M de contributeurs s’étaient enregistrés auprès d’OSM. L’originalité pour ce service, par rapport à Wikipedia, est que la collecte d’information peut être passive à partir de la géolocalisation du contributeur. Celui-ci peut choisir d’être géolocalisé pendant son trajet qui est ainsi cartographié. Ce modèle de collecte ascendant ou horizontal, où l’habitant accepte d’utiliser ses appareils connectés pour collecter des données qui sont ensuite largement partagées (OSM est en open data) s’étend à d’autres domaines (voir encadré 8). Cette collaboration dans la collecte de données d’intérêt général ou territorial est une des formes que pourra prendre la démocratie participative de demain et une des manières dont les collectivités peuvent créer des services inclusifs (voir 1.2.2). La collectivité peut avoir intérêt à créer des initiatives de collecte de données citoyennes, notamment pour les données d’intérêt territorial (voir 3.2.2.2) auxquelles les collectivités ne pourraient avoir accès qu’à des tarifs trop importants.

3.2.2.2. Définir la donnée d’intérêt territorial

La donnée est un bien non rival, c’est-à-dire qu’elle n’est ni détruite ni immobilisée par son utilisation par un agent économique. En d’autres termes, une même donnée peut être utilisée par plusieurs agents économiques, simultanément ou non, sans que sa valeur intrinsèque ne diminue ou qu’elle soit altérée. En ce sens, et parce que les données ont de la valeur, l’ouverture de certaines données peut être créatrice de croissance ou de valeur pour les collectivités et leurs habitants.

Le Gouvernement s’est engagé dans une politique d’ouverture et de partage des données publiques « open data ». Cette priorité a été inscrite dans la Charte de déontologie du 17 mai 2012. Elle s’est ensuite traduite dans les décisions prises lors des Comités interministériels pour la modernisation de l’action publique51 . Une feuille de route a également été adoptée lors du séminaire gouvernemental sur le numérique du 28 février 2013.

La loi n° 2016-1321 du 7 octobre 2016 à son article 6 a confirmé cette ambition du Gouvernement en passant d’une logique de communication des données sur demande à une publication systématique des données communicables, quand elles existent et sont au format électronique. Ce changement s’applique notamment aux données « dont la publication présente un intérêt économique, social, sanitaire ou environnemental » . Cette obligation s’impose aux documents produits par les administrations mentionnées au premier alinéa de l’article L. 300-2 du Code des relations entre le public et les administrations, c’est-à-dire « les documents produits ou reçus, dans le cadre de leur mission de service public, par l’État, les collectivités territoriales ainsi que par les autres personnes de droit public ou les personnes de droit privé chargées d’une telle mission » .

La loi (article 17) impose également la communication des données des concessionnaires à la puissance concédante. Celle-ci peut, par la suite, les publier gratuitement dans une logique d’open data.

Malgré ces avancées, la loi du 7 octobre 2016 n’épuise pas la question de l’ouverture des données d’intérêt général. En particulier, certaines données d’intérêt territorial sont produites par des opérateurs privés qui ne sont pas délégataires de services publics. La question est alors de savoir comment les pouvoirs publics peuvent accéder à ces données, en tirer profit pour la collectivité, sans pour autant remettre en cause les modèles économiques de ces entreprises ni la protection des individus.

Plusieurs modalités d’accès à ces données privées existent qui peuvent concilier ces exigences :

– Un accès payant. C’est par exemple ce que propose l’entreprise TomTom aux collectivités pour les données de trafic en temps réel. L’accès payant ne doit pas nécessairement être perçu comme rédhibitoire pour les collectivités si ce coût est moindre que l’installation d’un système de capteurs leur permettant d’accéder à la même donnée.

– Un accès gratuit. Toujours dans le domaine des transports, Uber propose aux villes un programme dit « Uber movement », qui permet d’accéder à des données agrégées permettant une meilleure compréhension du trafic urbain.

– Un accès via la portabilité des données et un consentement des personnes physiques concernées. En effet, aujourd’hui, les secteurs privés qui produisent des données susceptibles d’intéresser les territoires (opérateurs téléphoniques, sociétés de transport, distributeurs d’énergie…) détiennent des données personnelles.

Cette portabilité est déjà prévue par la loi du 16 octobre 2016 qui introduit l’article L. 224-42-1 du Code de la consommation : « Le consommateur dispose en toutes circonstances d’un droit de récupération de l’ensemble de ses données ».

On peut définir comme donnée d’intérêt territorial celle qui permet d’améliorer le bien-être social et notamment la gestion et l’administration des services publics locaux. Cette donnée n’a pas vocation à être systématiquement partagée librement. En revanche, l’accès des pouvoirs publics doit être permis plus largement qu’il ne l’est aujourd’hui, y compris avec un accès rémunéré. L’objectif est de garantir un juste équilibre entre droit de propriété, liberté d’entreprendre et secret industriel et commercial d’un côté et amélioration des services publics de l’autre.

Il ne semble pas nécessaire, à court terme, de rendre cet accès contraignant, car les collectivités ne semblent pas suffisamment équipées pour identifier les données disponibles, les collecter et les utiliser. À plus long terme et après une expertise approfondie des gains potentiels pour les collectivités et des freins pour les entreprises, cet accès pourrait être rendu contraignant, au moins pour les données de certains secteurs. Rappelons ici que la ville de New York a rendu obligatoire pour la société Uber de transmettre les données collectées dans la ville. Il ne s’agit donc pas d’une utopie. En France, c’est ce qui a déjà été prévu par exemple dans le domaine de l’énergie par la loi n° 2015-992 du 17 août 2015 relative à la transition énergétique pour la croissance verte et le décret n° 2016-973 du 18 juillet 201652 .

En revanche, un travail de recensement obligatoire par secteur des données d’intérêt territorial aurait plusieurs vertus :

– cet exercice pourrait servir de base au législateur s’il voulait rendre contraignant l’accès à certaines données ;

– le dialogue nécessaire au recensement pourrait permettre des échanges fructueux entre la collectivité et les producteurs de données qui souvent assurent des missions proches ou complémentaires du service public ;

– la publication d’un catalogue de données, recensant leurs caractéristiques principales (producteur, format, fréquence) serait une base utile pour le développement d’innovations ouvertes. Il serait également précieux que l’État fasse un travail d’agrégation de ces listes de données et les publie.

À ce travail de recensement obligatoire pourrait être adjointe la liste des données devenues disponibles du fait des deux lois transition énergétique et République numérique afin de disposer d’un état des lieux complet de la donnée territoriale. Ce travail est d’autant plus utile pour les collectivités que l’on constate aujourd’hui une réticence de certains délégataires de services publics à fournir des données pourtant obligatoires en prétextant un manque de savoir-faire. La comparaison des pratiques d’une collectivité à l’autre serait de nature à améliorer la fourniture des données sur l’ensemble du territoire national.

L’objectif serait de créer un répertoire, semblable à celui prévu par l’article L322-6 du Code des relations entre le public et les administrations (CRPA), pour les données d’intérêt territorial.

Les acteurs privés, délégataires de service public, mènent également une réflexion sur le rôle de la donnée dans l’évolution des missions de service public. C’est par exemple le cas des gestionnaires de réseau électrique (voir encadré 9).

3.2.2.3. Gouvernance des données

Le système décrit ci-dessus, aussi bien pour les données auxquelles les collectivités doivent avoir et donner accès que pour les données d’intérêt territorial relève d’une gouvernance complexe. En effet, la collecte de ces données relève de plusieurs acteurs : secteur privé, secteur privé délégataire de service public, secteur public, particuliers.

Les individus ont, par exemple, toujours la possibilité d’exercer leurs droits et notamment le droit d’accès, de rectification et de suppression auprès de tout organisme de traitement des données personnelles. Cela signifie que si, dans le cadre d’une délégation de service public (DSP), la collectivité devient dépositaire d’un fichier de données personnelles recueillies par son délégataire, l’individu peut exercer ses droits auprès du délégataire et auprès de la collectivité. Par ailleurs, l’article 26 de la loi République numérique établit « le droit à la libre disposition de ses données, c’est-à-dire le droit de l’individu de décider de contrôler l’usage qui est fait de ses données à caractère personnel » .

La collectivité est, et deviendra à mesure de la massification, dépositaire d’un grand nombre de données, y compris individuelles. Cela emporte des conséquences juridiques du fait du chapitre V de la loi 78-17 du 6 janvier 1978. Un traitement approprié de ces données doit donc être apporté. Au-delà de ces obligations légales, la gouvernance de la donnée comporte des enjeux d’efficacité et de sécurité.

Les organisations aujourd’hui privilégiées par les collectivités territoriales où les données sont traitées, par métier dans la direction technique correspondante, semblent devoir montrer rapidement leurs limites, laissant la place à un traitement plus transversal. Cela correspond à l’émergence d’une nouvelle politique publique, autour de la gouvernance des données territoriales. Certaines collectivités l’ont déjà d’ailleurs mise en pratique comme Grenoble qui a mis en place un comité de pilotage de l’ open data . La collectivité dépositaire des données n’en sera pas, nécessairement, propriétaire. En revanche, il lui reviendra de les stocker, de les sécuriser, de les traiter, de les exploiter et de les mettre éventuellement à disposition. Cette politique publique ne semble pas pouvoir être conduite efficacement au niveau de la commune. En effet, la gouvernance des données demande des compétences et des infrastructures qu’une mutualisation rendra soutenables financièrement. Par ailleurs, la richesse de l’exploitation de données naît dans la capacité à croiser des bases de différentes sources. La mutualisation de la gouvernance de ces données au niveau des EPCI prend donc tout son sens.

Comme pour les systèmes et les objets connectés, la sécurisation des données doit faire l’objet d’une attention particulière. Aujourd’hui, il est apparu que le degré d’appropriation de ce sujet était inégal d’une collectivité à l’autre. Des bonnes pratiques doivent pouvoir être définies et les marchés publics doivent prendre cet élément en compte. Le recours à un cloud homologué par l’ANSSI semble de bon sens mais pourrait devenir une contrainte législative si l’adoption d’une telle pratique n’était pas uniforme sur le territoire.

Quel que soit le modèle choisi sur les données personnelles, il est nécessaire de mener un débat citoyen sur l’utilisation par la collectivité des données, notamment individuelles. Comme le souligne Jacques PRIOL de Civitéo : « Puisque l’on parle de données utilisées pour des missions d’intérêt général, pourquoi ne pas s’en saisir pour jeter les bases d’une relation de confiance avec les usagers/habitants/citoyens ? »53 La mission propose qu’après un large débat citoyen, chaque collectivité adopte une charte de la donnée. Cela conforterait la collectivité dans son rôle de tiers de confiance. D’autres acteurs traditionnels comme La Poste ou Orange peuvent également être amenés à jouer ce rôle de tiers de confiance et doivent être invités à l’élaboration de cette charte. Ils peuvent être amenés à jouer ce rôle de tiers de confiance sur d’autres services de la smart city . En 2014, le groupe La Poste a par exemple affirmé son ambition sur le numérique avec l’adoption de son plan « conquérir l’avenir » qui rend ses services omni-canaux.

3.2.2.4. Mise à disposition des données et open data

Plusieurs dispositions législatives imposent la mise à disposition de données publiques. Certaines créent des obligations générales, codifiées dans le Code des relations entre le public et l’administration (CRPA). C’est notamment le cas de :

– la loi sur la Communication des Documents Administratifs (loi dite « Cada » du 17 juillet 1978), codifiée dans le Code des relations entre le public et l’administration depuis le 1er janvier 2016 ;

– la loi 78-17 du 6 janvier 1978 (dite loi « informatique et libertés ») qui régit les données personnelles ; l’ordonnance 2015-899 relative aux marchés publics (23 juillet 2015) « les acheteurs rendent public le choix de l’offre retenue et rendent accessibles sous un format ouvert et librement réutilisable les données essentielles du marché public (…) » ;

– l’ordonnance de 2015-1341 du 23 octobre 2015 ;

– l’ordonnance n° 2016-307 du 17 mars 2016 ;

– le décret n° 2016-308 du 17 mars 2016 ;

– la loi n° 2016-1321 du 7 octobre 2016.

Par ailleurs, d’autres dispositions imposent l’ouverture dans certains secteurs. C’est notamment le cas de la loi pour la croissance, l’activité et l’égalité des chances économiques du 10 juillet 2015, dite « loi Macron » qui crée le chapitre V du code des transports, « accès aux données nécessaires à l’information du voyageur » et en particulier l’article L. 1115-1 : « les données des services réguliers de transport public de personnes et des services de mobilité sont diffusées librement, immédiatement et gratuitement en vue d’informer les usagers et de fournir le meilleur service, notamment en permettant l’organisation optimale des services de mobilité et des modes de transport. Dans ce but, elles sont diffusées par voie électronique, au public et aux autres exploitants, dans un format ouvert destiné à permettre leur réutilisation libre, immédiate et gr atuite » .

Le principe pour les données publiques est la libre réutilisation (article 9 de la loi du 7 octobre 2016, codifiée à l’article L. 321-1 du CRPA) : « Les informations publiques figurant dans des documents communiqués ou publiés par les administrations mentionnées au premier alinéa de l’article L. 300-2 peuvent être utilisées par toute personne qui le souhaite à d’autres fins que celles de la mission de service public pour les besoins de laquelle les documents ont été produits ou reçus » avec certaines limites et notamment l’anonymisation pour les données personnelles (article R322-3 du CRPA). Une licence fixe les conditions de cette réutilisation.

Aujourd’hui, deux types principaux de licence sont utilisés par les collectivités territoriales :

– une licence libre préparée par Etalab et qui va devenir « licence ouverte administration » ;

– la licence Opendata base licence (ODbL) qui impose des contreparties et notamment de maintenir la licence sur la base de données, y compris si les données ont été modifiées. Elle relève du principe « share alike » (partager à l’identique).

Un décret prévu par la loi numérique va limiter le choix des collectivités à ces deux licences. Aujourd’hui, les collectivités territoriales rencontrées sont assez équitablement réparties, avec certaines collectivités qui utilisent l’un ou l’autre type selon le jeu de données concernées. Enfin, Lyon a écrit sa propre licence qui différencie les modalités d’accès en fonction du type d’utilisateur.

Il est apparu, lors de différents entretiens avec les collectivités mais également l’association Open data France que, pour certaines, le choix de la licence ODbL est fait dans le but de se protéger de l’entrée d’acteurs économiques perçus comme hégémoniques et notamment de Google. En effet, Google refuse d’accéder aux données sous licence ODbL en raison du flou juridique perçu autour de la notion de remise à disposition de la donnée enrichie. Le groupe américain estime qu’il y a un risque de « contamination » de ses propres bases de données, c’est-à-dire qu’en accédant à des données sous cette licence et en les croisant avec ses propres bases, il serait tenu de partager un grand nombre de ses données en raison du principe de « share alike ».

Il ne relève pas du rôle de ce rapport de conseiller un type de licence plutôt qu’un autre car ce choix relève de la liberté des collectivités territoriales. Cependant, il semble qu’il est erroné de penser la licence comme un moyen de protéger l’éco-système de start-ups . En effet, la crainte de la contamination n’est pas propre à Google. Les start-ups construisent, pour certaines, leur modèle économique sur le croisement de plusieurs bases de données pour proposer des services innovants. Le principe de remise à disposition pose pour ces entreprises un problème de viabilité économique directe car elles craignent de devoir partager en open data ce qui crée leur valeur ajoutée. À l’inverse, si Google doit accéder à un certain jeu de données, cet acteur dispose des moyens financiers pour la recréer. Par exemple, au moment de la mise en place de calculateurs d’itinéraires en transport en commun pour Paris, Google, n’ayant pas pu accéder aux données d’horaires théoriques, a déployé une équipe sur l’ensemble des stations de métro pour répertorier ces horaires et donc créer cette base de données. Il est évident que cette méthode n’est pas optimale et que Google préférera toujours des données officielles et que de tels procédés coûteux ne seront pas mis en œuvre à chaque fois que Google ne peut pas accéder à une base de données. Il n’en reste pas moins que l’entreprise dispose des moyens de le faire si elle considère que c’est nécessaire. Ce n’est pas le cas d’une start-up . En empêchant l’accès libre à un jeu de données, le risque est donc de bloquer plutôt les entreprises qui disposent de peu de moyens financiers que les grands opérateurs. Le choix du type de licence ne devrait donc pas être guidé par une logique de protectionnisme économique.

La licence ODbL permet, en revanche, que la donnée mise en ligne par la collectivité soit corrigée et enrichie par l’ensemble des utilisateurs. C’est la raison d’être du partage à l’identique. L’idée sous-jacente est que l’ open data doit permettre une véritable coopération de l’ensemble des acteurs. Les utilisateurs améliorent les bases soit en y détectant des erreurs soit en les améliorant avec des éléments nouveaux. Choisir d’utiliser la licence ODbL pour des raisons d’amélioration des données disponibles pour l’ensemble de l’écosystème peut, de ce point de vue, répondre aux objectifs d’une collectivité territoriale qui ouvre des jeux de données. Il faut pourtant en connaître les limites exposées plus haut.

Il semble, par ailleurs, qu’en s’enfermant dans l’alternative licence libre – licence ODbL, les collectivités risquent de ne pas remplir entièrement leur rôle de défenseur de l’intérêt général et de tiers de confiance. En effet, il est paradoxal de penser que les données produites dans le cadre du service public et de missions d’intérêt général, mises à disposition gratuitement, pourraient être utilisées pour cibler les consommateurs dans une démarche commerciale, pour de la réidentification ou pour des services allant à l’encontre des objectifs de politique publique. La licence pourrait être utilisée pour limiter les usages. C’est particulièrement vrai si ce sont des données individuelles, même anonymisées, ou des données d’une granularité géographique suffisamment fines qu’elles permettraient d’identifier des usagers. En effet, aujourd’hui, le croisement de plusieurs bases peut permettre d’identifier des individus à partir de données anonymisées. Par exemple, lorsque New York a mis en accès libre les données de l’ensemble des trajets effectués par les taxis, il a été possible de reconstituer les déplacements d’une personne spécifique, identifiée par croisements. C’est une atteinte importante aux libertés individuelles. La licence peut être utilisée pour interdire la réidentification. Elle peut aussi éviter l’utilisation à des fins de ciblage commercial. Par exemple, si les consommations énergétiques sont fournies en open data au niveau d’un îlot, il sera possible d’identifier les zones où la consommation dépasse la moyenne de la ville, suggérant une mauvaise isolation, et proposer automatiquement les publicités des fournisseurs d’isolation à tous les habitants de cet îlot. La licence ou la loi doivent pouvoir éviter ces dérives. Pour les données individuelles, la base juridique se-rait le détournement de la finalité de la loi de 1978. Pour les données non individuelles, il ne serait pas inutile de trouver un vecteur législatif et modifier le CRPA. Une fois ce vecteur trouvé, un modèle de licence pourrait être proposé pour accompagner les collectivités. Pour mémoire, légalement, les conditions de la licence « ne peuvent apporter de restrictions à la réutilisation que pour des motifs d’intérêt général et de façon proportionnée. Elles ne peuvent avoir pour objet ou pour effet de restreindre la concurrence. »54 . Il ne paraît pas non plus inutile de prévoir dans la licence des engagements des utilisateurs des données à respecter les objectifs de politique publique de la puissance les ayant mises à disposition. Si l’on reprend l’exemple de calculateurs d’itinéraires en temps réel en voiture, grâce aux données de trafic, il ne serait pas inutile, s’ils accèdent à des données publiques, d’imposer le respect d’un plan local de circulation et notamment le respect de zones calmes.

Il serait donc intéressant que l’État puisse, dans le décret qui fixe les deux licences principales que les collectivités peuvent choisir, indiquer qu’un module supplémentaire, encadrant la réutilisation au respect des objectifs de politique publique, pourra être annexé à l’une ou l’autre licence.

3.2.2.5. Plateforme de mise à disposition des données

Les collectivités ayant l’obligation nouvelle de mettre leurs données en ligne doivent trouver une solution technique pour le faire, soit en développant une plateforme en interne soit en ayant recours aux solutions existantes sur le marché.

Les communes ayant choisi d’utiliser la plateforme d’Open-datasoft représentent plus de 20 M d’habitants. Cette entreprise propose une solution pour la mise à disposition de données publiques. Celle-ci se présente sur son site Internet comme « la 1re solution prête à l’emploi pour la valorisation des données par les directions métiers » et se propose de « fusionner, explorer et API-fier les données » . Ce logiciel n’a pas un code source ouvert ( open source ). Les enjeux du choix d’un logiciel open source ou propriétaire pour la plateforme d’ open data sont mal appréhendés et les raisons qui dictent aujourd’hui ce choix semblent trop souvent budgétaires.

3.2.2.5.1. Plateforme open source ou propriétaire, quelle souveraineté pour les collectivités ?

Le choix d’un logiciel propriétaire peut poser des questions liées à la souveraineté de la collectivité territoriale sur ses données.

Si le logiciel, pour mettre à disposition les bases de données, les modifie, il y a un risque immédiat de perte de souveraineté. En effet, si les données brutes sont modifiées sans que le code de modification ne puisse être maîtrisé par la collectivité territoriale, il y a un risque de perte de maîtrise des données. Ce n’est pas le cas aujourd’hui, par exemple, avec la solution Opendatasoft, qui ne modifie pas les données brutes mais crée seulement l’interface pour mettre ces données à disposition dans des formats accessibles.

Avec d’autres logiciels propriétaires, il peut y avoir un risque pour la collectivité territoriale, à moyen et long terme, de ne plus être maîtresse de ses choix. C’est particulièrement le cas si le logiciel n’est pas facilement interopérable avec d’autres solutions existantes sur le marché, c’est-à-dire en absence de « réversibilité ». Cela entraîne, pour sortir de la solution initialement préférée, un coût extrêmement élevé et place donc la collectivité territoriale dans une situation de dépendance face à son fournisseur de logiciel.

3.2.2.5.2. Un choix aujourd’hui guidé par des contraintes plutôt que par une décision prise au niveau politique

Face à ce risque de perte de souveraineté, un choix éclairé, au niveau politique, est nécessaire. Or, ce n’est pas ce que la mission a observé lors de ses entretiens. En effet, l’entreprise Opendatasoft, des consultants et la plupart des collectivités interrogées ont affirmé que le critère open source /propriétaire n’avait pas été affirmé comme déterminant. Une majorité des communes cherche d’abord une solution pratique et peu coûteuse pour remplir les obligations qui lui sont faites par la loi République numérique. La crainte de mal répondre aux nouvelles obligations légales guide également les choix de certaines communes. En ce sens, la solution Opendatasoft, qui dispose d’une expertise sur les données à mettre en ligne et qui est détenue en partie par des actionnaires rassurants comme la Caisse des dépôts, est de nature à orienter le choix des collectivités.

Dans les collectivités où un arbitrage sur le logiciel propriétaire plutôt qu’ open source a été rendu, il ne l’a pas été à un niveau politique mais plutôt au niveau technique. Cela s’explique souvent par un déficit de compétences sur ces sujets au niveau des cadres de l’administration et des élus. Cela trouve sa source également dans un manque de prise de conscience des techniciens des enjeux de souveraineté, conduisant à ne pas soumettre à des niveaux politiques ces décisions jugées techniques.

3.2.2.5.3. La mutualisation et l’interopérabilité pour sécuriser les collectivités

Pour assurer que les collectivités territoriales prennent une décision réellement éclairée, deux mesures semblent devoir s’imposer :

– Une meilleure formation des élus et des cadres territoriaux aux enjeux du numérique, dans la même lignée que ce qui a été proposé pour la sécurité des données.

Il ne s’agit pas de transformer tous les élus en développeurs informatiques mais plutôt de leur faire apparaître les enjeux réels de leurs choix sur l’ensemble des questions numériques.

– La mutualisation des services dévolus à la mise à disposition des données pour lever la contrainte financière et ne pas la laisser seule guider le choix de la plateforme de l’open data.

La mutualisation a été mise en place avec succès à Montpellier, par exemple, qui a fait le choix de développer sa propre plateforme de mise à disposition des données, pour la ville, l’EPCI et les communes de celui-ci. Pour ce faire, la métropole a dévolu à la gestion et mise à disposition des données, un agent à temps plein, suffisamment formé, hiérarchiquement rattaché au service informatique.

Il convient également de permettre aux EPCI qui feraient le choix d’un logiciel propriétaire de rester souverains. Pour cela, ils doivent être attentifs à différents critères de la solution proposée :

– la donnée brute n’est jamais altérée par le logiciel ;

– le logiciel est interopérable avec d’autres solutions du marché ou, du moins, il est aisé de changer de plate-forme de mise à disposition des données. C’est la réversibilité du système.

Plus largement, les collectivités gagneraient à réfléchir à la collecte des données, indépendamment du fait qu’elles doivent ou non être mises à disposition, pour les rendre immédiatement intégrables à une plateforme. En effet, la plateforme de données gagnerait à être d’abord un outil de gestion et d’amélioration interne. Dans ce cas, la plateforme publique de mise à disposition ne serait qu’une partie réduite, une émanation, de la plateforme dont la collectivité disposerait. Cette culture de la donnée comme outil de gestion et de pilotage de la ville, d’amélioration des services, serait de nature à bénéficier à tous.

3.2.3. Collectivité comme tiers de confiance

On le voit, le déploiement public et privé de services relatifs à la smart city entraîne deux mouvements contradictoires :

– Décentralisation et désintermédiation des services. Par exemple, dans le cas de la mobilité, les usagers vont mélanger plusieurs offres : transports en commun, autopartage, covoiturage et transport à la demande.

– Demande d’expérience utilisateur simplifiée et unifiée. Par exemple, l’utilisateur cherche dans son moteur de recherche le lieu où il souhaite se rendre et il trouve immédiatement les itinéraires possibles, y compris en transports en commun et peut également réserver un VTC.

La contradiction entre ces deux tendances implique l’émergence de la fonction d’agrégateur de services, un tiers qui centralise et unifie les offres pour l’utilisateur final. Aujourd’hui, cet agrégateur est souvent un grand opérateur d’Internet. Sur l’exemple de la mobilité, Google, avec Transit, offre ce type de services. Il y a cependant deux risques à laisser les opérateurs d’Internet jouer ce rôle d’intermédiaire pour les services publics locaux :

– Un risque de perte de valeur pour les opérateurs économiques. En effet, l’agrégateur est l’interface entre le producteur et le client final. Il peut rapidement occuper une position incontournable qui lui permet de capter de la valeur chez les producteurs. Dans l’exemple de la commande d’un VTC depuis les itinéraires proposés par Google, cette offre existe pour Paris avec Uber. Dans ce cas, Google perçoit une commission, versée par Uber, pour la mise en relation. Ce modèle pourrait être transposable pour d’autres services au détriment des producteurs.

– Un risque sur les données individuelles. En effet, un agrégateur aura accès à un grand nombre de données personnelles, et ce d’autant plus que l’agrégateur gérera un nombre important de domaines. La mise en place d’un service simplifié et unifié nécessitera un traitement automatisé ayant pour objet l’interconnexion de fichiers. Celle-ci est susceptible d’être soumise à une autorisation préalable de la CNIL (article 25 de la loi Informatique et libertés).

Face à ces risques, la collectivité peut apparaître comme l’agrégateur naturel. En effet, elle ne crée pas d’impact économique négatif en captant la valeur. Par ailleurs, la collectivité est un tiers de confiance et pourrait jouer ce rôle sur les données individuelles.

Sur ce dernier point se pose cependant la question de savoir comment seront conservées les données. Deux modèles sont possibles :

– Le stockage par la collectivité qui devrait alors mettre les garde-fous nécessaires pour assurer une sécurité optimale et ne procéder à des interconnexions automatisées que si celles-ci sont absolument nécessaires. On peut imaginer, par exemple, une interconnexion des fichiers par domaine de services publics (transport, énergie, eau…) mais sans connexion inter-domaines. L’objectif est de trouver un juste équilibre entre qualité et simplicité du service et protection des libertés individuelles.

– Le self-data. L’idée serait alors que chaque individu soit doté d’un coffre-fort numérique dans lequel chacune de ses données serait stockée et l’agrégateur (la collectivité) aurait des autorisations d’accès mais sans autorisation de conservation. L’avantage de ce modèle serait la réversibilité de l’autorisation d’accès. Ce modèle demande cependant une réelle maîtrise chez les habitants de l’outil numérique et de l’utilisation de la donnée. Il pose également la question de la gestion et de la sécurisation des coffres forts.

Une autre question que posera la décentralisation de la production de services sera également la désintermédiation des transactions et donc le développement de l’utilisation des blockchains . Ce sujet est aujourd’hui encore peu mature mais devrait, selon l’ensemble des spécialistes rencontrés par la mission, se développer dans les années à venir. Or, la blockchain pose un risque de protection des données individuelles réel. Dans leur rôle d’agrégateur et de tiers de confiance, les collectivités territoriales pourraient offrir une blockchain privée. En cela, la France bénéficierait de son maillage territorial. La prise de 51 % d’une telle block-chain serait de ce fait très complexe. Cependant, le sujet n’est aujourd’hui pas mature et les usages qui pourraient en être faits pas suffisamment définis pour orienter une recommandation particulière.

3.2.4. Créer des infrastructures numériques appropriées

La création de projets « smart cities » nécessite la création de réseaux adaptés au transport d’information pour permettre notamment de connecter les objets ou capteurs mais également de centres de traitement et de stockage de données.

Les objets connectés peuvent utiliser, pour transférer la donnée qu’ils recueillent et recevoir des instructions, différents types de réseaux (voir graphique 8 : Les différents types de réseaux utilisés pour les objets connectés). Le choix de la technologie dépend de plusieurs paramètres et notamment :

– le volume des données à échanger ;

– la consommation énergétique. L’objectif est d’optimiser la durée de vie de l’outil connecté, notamment dans le cas du capteur autonome.

GRAPHIQUE 8 : LES DIFFÉRENTS TYPES DE RÉSEAUX UTILISÉS POUR LES OBJETS CONNECTÉS

En particulier, les réseaux bas débit sont utilisés par les objets connectés. Ils offrent une bonne portée avec une consommation électrique réduite, les rendant intéressants pour les objets dont ils améliorent l’autonomie. Plusieurs acteurs existent en France dans ce type de réseaux : Sigfox et Qowisio développent leur propre technologie. Bouygues Telecom et Orange exploitent, quant à eux, la technologie LoRa pour construire leurs réseaux bas débit (voir encadré 10).

À côté de ces réseaux aujourd’hui largement développés en France et en Europe, se développent de nouvelles options comme par exemple le Li-Fi (ou Light Fidelity), technologie de communication sans fil, basée sur l’utilisation de la lumière visible. Ce protocole est adapté à des communications sans fil jusqu’à une dizaine de mètres, légèrement plus que le Bluetooth basse puissante, mais moins que le WiFi. Selon une start-up française développant ces systèmes, le débit est en 2015 de « 10 mégabits/seconde en download [descendant] et de 5-10 Mb/s en upload [ascendant] ; mais des travaux d’optimisation sont d’ores et déjà en cours, et la limite théorique du débit est de 1 gigabits par seconde »55 . Selon cette même start-up, « La bande Li-Fi est 10 000 fois plus large que la bande WiFi. Beaucoup d’utilisateurs peuvent être connectés en même temps à une seule borne » .

Il faut ajouter, sur les territoires, les réseaux classiques comme le WiFi. Plusieurs collectivités souhaitent développer des réseaux WiFi gratuits sur l’ensemble de leur territoire. Ces réseaux peuvent être le socle du développement de certaines stratégies smart cities. Par exemple, une collectivité qui veut proposer des trajets touristiques avec des explications culturelles et de la réalité virtuelle pour enrichir l’expérience des touristes bénéficiera d’un bon réseau WiFi gratuit dans la ville.

Il faut que ces infrastructures puissent trouver un modèle économique. C’est-à-dire, qu’ils soient privés ou publics, que le coût de leur infrastructure, aussi légère soit-elle, puisse être amorti par les gains sur les usages. Ces usages permettront de dégager une redevance, une économie ou un gain d’utilité et de bien-être qui doivent être mis en regard du coût d’infrastructure. Selon les interlocuteurs de la mission, cet amortissement n’est aujourd’hui possible que si un réseau est utilisé pour de multiples usages, le minimum évoqué étant de trois. Ce chiffre est fourni de manière approximative sans qu’une étude approfondie n’ait été menée sur ce sujet.

Par exemple, lorsqu’une collectivité crée une infrastructure pour connecter ses candélabres (réseaux, cloud et traitement de la donnée), elle risque de ne pas y voir un intérêt suffisant s’il s’agit de pouvoir régler l’intensité lumineuse en fonction du passage. Si, en revanche, elle utilise la même infrastructure pour d’autres usages (caméras et capteurs sonores par exemple), elle peut y voir un intérêt économique suffisant pour consentir cet investissement initial. Il est donc important, au moment de la mise en place d’infrastructures numériques, de créer les conditions d’extension de leur utilisation dans le futur. À ce titre, le volume de données échangeable, le sens du signal (descendant uniquement ou descendant/ ascendant) et la neutralité technologique constituent des éléments à prendre en compte dans l’étude de l’investissement. Aucun de ces choix n’est a priori bon ou mauvais, en revanche, il importe que l’investissement consenti soit examiné au regard de ces critères.

3.3. Permettre l’accès de tous à ces services

L’utilisation d’outils digitaux pour rendre des services publics ou pour améliorer ceux-ci pose inévitablement la question de l’accès de chacun aux services publics, dans un contexte où :

– une connexion Internet de qualité n’est pas accessible uniformément ;

– le découpage administratif risque de créer des zones blanches et des zones de recoupement des nouveaux services en l’absence de concertation au niveau approprié ;

– les usages numériques dépendent de facteurs socio-économiques.

3.3.1. La fracture numérique territoriale

3.3.1.1. L’aménagement numérique du territoire

3.3.1.1.1. Des usages hétérogènes sur le territoire du fait d’un déploiement inégal des réseaux haut débit

Les usages d’Internet varient en fonction du lieu de résidence. D’après le dernier baromètre du numérique de l’ARCEP, 52 % des non-internautes résident dans des communes de moins de 20 000 habitants.

La vitesse de connexion ne peut être négligée dans ces différences d’usage. La couverture du territoire national par des connexions internet très haut débit et par de la 4G pour la téléphonie mobile n’est pas achevée.

GRAPHIQUE 9 : ÉTAT DES DÉPLOIEMENTS DES RÉSEAUX FTTH (FIBRE) AU 30 SEPTEMBRE 2016

Le plan Très haut débit (THD), lancé au printemps 2013, vise à couvrir l’intégralité du territoire en très haut débit, d’ici à 2022. Il représente un investissement total de 20 Md e

publics et privés. 3,3 Md€ de subventions de l’État sont destinés aux projets des collectivités locales dans les zones « non conventionnées ». À ce titre, le fonds de soutien à l’investissement local de 1 Md€ en 2016, passera à 1,2 Md€ en 2017. Dans le cadre de ce plan, l’investissement public relatif à la résorption des fractures numériques avoisinera les 14 Md e

de 2012 à 2022. Le principal levier d’action publique pour le déploiement d’infrastructures de connexion Internet relève des programmes organisés au travers des Réseaux d’Initiative Publique (RIP). De 2004 à 2012, les RIP de première génération ont mobilisé environ 3,5 Md€ pour dégrouper 2 778 nœuds de raccordement d’abonnés (NRA).

GRAPHIQUE 10 : ÉTAT DES DÉPLOIEMENTS DES RÉSEAUX À TERMINAISON COAXIALE AU 30 SEPTEMBRE 2016

Aujourd’hui cependant, ce raccordement n’est pas terminé et 54,72 % de la population réside dans des communes où aucun local n’est éligible à un débit de 100 Mbit/s (voir tableau 3) et 9,5 % dans des communes où ni la 4G ni un débit de 30 Mbit/s ne sont accessibles.

TABLEAU 2 : TAUX D’ÉLIGIBILITÉ PAR TYPE DE COMMUNE

TABLEAU 3 : RÉPARTITION DE LA POPULATION PAR TAUX D’ÉLIGIBILITÉ À INTERNET HAUT DÉBIT

GRAPHIQUE 11 : RÉPARTITION DES COMMUNES PAR TAILLE ET PAR TAUX DES LOCAUX ÉLIGIBLES À UN DÉBIT DE 30 MBIT/S OU PLUS

GRAPHIQUE 12 : RÉPARTITION DES COMMUNES PAR TAILLE ET PAR TAUX DES LOCAUX ÉLIGIBLES À UN DÉBIT DE 100 MBIT/S OU PLUS

TABLEAU 4 : MOYENNE DES COUVERTURES MAXIMALES OFFERTES PAR L’UN DES QUATRE OPÉRATEURS PAR TAILLE DE COMMUNE

L’absence de connexion de qualité à Internet, fixe ou mobile, influence l’équipement des ménages et leurs usages. On constate notamment une différence des usages selon la taille de la commune, avec une place particulière de Paris et de son agglomération.

Ces différences d’usage sont également attribuables à des différences d’âge, de niveau de diplôme ou de revenus (voir 3.3.2). Il n’en reste pas moins qu’une offre de connexion haut débit peut permettre de diffuser les équipements et les usages numériques sur lesquels la mise en place de projets smart city dans les zones plus rurales devra s’appuyer. En effet, les habitants doivent disposer de l’équipement et de l’habitude d’utilisation pour que ces projets puissent réellement leur bénéficier.

Cette fracture territoriale est d’autant plus dommageable que les territoires ruraux ont beaucoup à gagner à l’optimisation des services publics. En effet, les ressources financières des territoires moins peuplés sont plus faibles par construction (base fiscale plus limitée) et ils ne bénéficient pas d’effet de levier ou d’économies d’échelle dans les services publics rendus. Ils pourraient donc bénéficier économiquement de services publics moins coûteux à rendre et plus personnalisés.

Une telle approche serait d’autant plus efficace qu’ils pourraient bénéficier de l’expérience et des stratégies mises en place dans des territoires adjacents plus avancés technologiquement.

En d’autres termes, on pourrait commencer par déployer des smart cities pour passer ensuite aux smart territoires, quelle que soit leur taille.

GRAPHIQUE 13 : ÉQUIPEMENT ET USAGE DES CONNEXIONS INTERNET PAR TAILLE DE COMMUNE

GRAPHIQUE 14 : TYPE D’UTILISATION D’INTERNET PAR TAILLE DE COMMUNE

À l’inverse, étant données les différences actuelles dans le déploiement du réseau et dans les usages, le risque serait de créer des projets dans les territoires les plus connectés sans anticiper les besoins de ceux qui ne le sont pas encore. En effet, sans coordination suffisante, il pourrait y avoir un morcellement du territoire national où des stratégies smart cities émergeraient sans pouvoir, à terme, s’intégrer les unes avec les autres. Si de tels risques se matérialisaient, les territoires aujourd’hui peu connectés pourraient se retrouver à la frontière de plusieurs projets non interopérables. Rappelons que, d’après l’Insee, les communes multipolarisées56 expliquent 19 % de la croissance démographique de 2006 à 2011 alors qu’elles n’abritent que 10 % de la population. Dans ce cas, les habitants et les collectivités concernées, ne pourraient pas réellement profiter des stratégies smart cities . Sans nier la possibilité aux collectivités de mener les projets qui leur semblent utiles aujourd’hui, il convient de leur offrir des cadres de concertation pour leur permettre d’envisager les interconnexions futures. L’interopérabilité des systèmes mis en place devrait aussi être la norme.

3.3.2. La fracture sociale

En dehors de l’accès territorial aux outils numériques, il faut prêter une attention particulière aux inégalités sociales tant dans l’accès que dans les usages du numérique.

Une source directe d’inégalité sociale tient au coût de l’équipement et de l’abonnement numérique. Ainsi, 16 % des personnes qui ne disposent pas d’une connexion Internet à domicile mettent en avant un coût trop élevé57 . La complexité d’installation est quant à elle mise en avant par 9 % des personnes concernées, ce qui montre l’importance des compétences instrumentales pour l’accès aux outils numérique (voir ci-dessous). De ce fait, les taux d’équipement varient significativement en fonction du revenu (voir graphique 15).

À cela s’ajoutent les inégalités qui apparaissent et s’amplifient autour de l’usage. C’est ce que Hargittaï58 (2002) nomme « fracture numérique au second degré » (second or-der digital divide). Hargittaï (2004) a, par la suite, suggéré de remplacer le terme de fracture par celui d’inégalités, afin d’insister sur les différents niveaux qui existent dans le processus menant tant à l’accès aux technologies qu’à leur pleine appropriation. Pallier le déficit en termes d’équipement et de connexion est une condition nécessaire, mais non suffisante, pour réduire les inégalités sociales issues de la diffusion du numérique dans la société.

L’usage des outils numériques pose la question des compétences et ressources cognitives. La maîtrise du numérique et de l’information qu’il rend accessible nécessite de savoir naviguer dans un univers conceptuel complexe et de pouvoir trier les informations obtenues en fonction des besoins. Ainsi, aujourd’hui, selon l’agence nationale du numérique, 16 % des Français ne se sentent pas capables d’effectuer une démarche administrative en ligne et 40 % sont inquiets à l’idée d’en effectuer une.

GRAPHIQUE 15 : TAUX D’ÉQUIPEMENT EN FONCTION DU REVENU59 (EN %)

Une typologie de ces compétences a été élaborée par les chercheurs60 . On distingue trois niveaux de compétences numériques :

– Les compétences instrumentales relèvent du savoir-faire opérationnel de base autour de la manipulation du matériel et des logiciels. Le « permis de conduire informatique européen » vise à affermir ces compétences.

– Les compétences structurelles (ou informationnelles) ont trait aux méthodes de recherche, de sélection, de compréhension, d’évaluation et de traitement de l’information.

– Les compétences stratégiques que sont l’aptitude à utiliser l’information de manière proactive, à l’utiliser dans le cadre de sa propre vie et prendre des décisions.

Par ailleurs, avant même l’acquisition de compétences numériques spécifiques, l’accès aux outils du numérique demande un bon niveau de maîtrise des compétences fondamentales que sont la lecture et l’écriture. Or, comme le rappelle l’agence nationale de lutte contre l’illettrisme, 7 % de la population adulte âgée de 18 à 65 ans ayant été scolarisée en France est en situation d’illettrisme, soit 2 500 000 personnes en métropole. D’après l’Insee, 16 % des personnes de 18 à 65 ans ont des difficultés avec l’écrit61 .

Plus largement, la différence de niveau d’éducation, notamment pour les diplômes inférieurs au baccalauréat, a un impact réel sur la connectivité. Ainsi, un Français avec un diplôme « inférieur au baccalauréat » a une probabilité huit fois plus importante [qu’un Français diplômé du supérieur] de ne jamais avoir utilisé un ordinateur »62 . Cette proportion a été calculée à partir de l’enquête ménage de l’Insee de 2008 et les chiffres ont pu évoluer mais elle montre que les inégalités numériques liées au niveau d’éducation ne doivent pas être sous-estimées.

De fait, l’utilisation des outils numériques est différenciée par niveau de diplôme. Ces différences sont plus marquées chez les plus de 60 ans mais elles existent également chez les personnes âgées de 15 à 44 ans (voir graphique 16 et graphique 17).

GRAPHIQUE 16 : TAUX DE CONNEXION À INTERNET PAR NIVEAU DE DIPLÔME ET PAR ÂGE (EN %)

GRAPHIQUE 17 : USAGES NUMÉRIQUES PAR ÂGE ET DIPLÔME (EN %)

Enfin, la catégorie socioprofessionnelle et le type d’emploi tendent à renforcer ces différences, selon l’utilisation qui est faite des outils numériques dans le cadre professionnel. En effet, une personne exposée à Internet et à l’informatique dans le cadre professionnel, recevra une formation, au moins de facto et parfois une formation continue, à l’utilisation du numérique et développera de ce fait une forme de familiarité avec l’outil. Or, les utilisations du numérique dans le cadre professionnel varient avec la catégorie socioprofessionnelle (graphique 18).

GRAPHIQUE 18 : CONNEXION À INTERNET SUR LE LIEU DE TRAVAIL AU COURS DES TROIS DERNIERS MOIS PAR CATÉGORIE PROFESSIONNELLE (EN %)

La correction de ces différences sociales dans l’accès à l’outil numérique fait déjà l’objet de politiques publiques au niveau national ou européen. Par exemple, la Commission européenne a mis en place un programme d’action en faveur de l’ e-inclusion , dans le cadre de la « Déclaration de Riga » (Commission européenne, 2006). Le renforcement de ces actions et la formation à l’utilisation optimale des outils numériques doivent se poursuivre. Ce sujet dépasse cependant l’objet de ce rapport.

En revanche, les collectivités territoriales qui mettent en place des projets « smart cities » doivent prendre conscience de ces différences d’accès et d’usage et veiller à ce que la numérisation de certains services publics ne conduise pas à une qualité de services publics différente pour les publics les moins « digitaux ». Cela peut les conduire à mettre en place des bornes d’accès à Internet à différents points de la ville, pour limiter les différences de taux d’équipement. Cela peut aussi les inviter à développer une politique d’accompagnement des publics les plus éloignés du numérique pour leur présenter les nouveaux services. Cela doit enfin conduire à une réflexion forte de l’ergonomie des services numériques proposés. Plus la prise en main de ces offres est simple, moins les compétences nécessaires sont élevées. Ainsi, 27 % des personnes de plus de 18 ans considèrent que les sites qui proposent des démarches administratives devraient être plus simples à utiliser et 28 % qu’il devrait y avoir une aide ou un accompagnement physiques dans un lieu de proximité pour les démarches en ligne. Il est intéressant également de souligner que l’habitude crée la compétence. Ainsi, 62 % des personnes qui ont déjà effectué une démarche administrative en ligne se sentent à l’aise avec l’idée d’en effectuer une. Ce taux varie de 47 % pour ceux n’en ayant effectué qu’une à 70 % chez ceux en ayant mené cinq ou plus63.

39) Institut de sondage LH2, Municipales 2014 Volet 2. Attentes et perspectives au niveau local, 20 mars 2014.

40) Baromètre de l’Institut Paul Delouvrier, « Les services publics vus par les Français et par les usagers » – Edition 2015.

41) Données concordantes recueillies au cours de divers entretiens.

42) UIT (2012), « Présentation générale de l’internet des objets », recommandation Y.2060.

43) Axes dégagés par Elisabeth Grosdhomme-Lulin, Transformer les collectivités territoriales par le numérique, Les Echos le 20 mai 2015.

44) iDate (2015), Internet of Things.

45) HP Fortify on Demand (2014), «Internet of Things State of the Union Study».

46) C. Brasseur (2013). Enjeux et usages du Big Data. Technologies, méthodes et mise en œuvre. Lavoisier.

47) IDC pour le compte d’EMC (2014), The digital universe of opportunities: rich data and the increasing value of the internet of things.

50) CNIL et INRIA (2014), Mobilitics saison 2.

51) Des 18 décembre 2012, 2 avril 2013, 17 juillet 2013 et 18 décembre 2013.

52) Décret relatif à la mise à disposition des personnes publiques de données relatives au transport, à la distribution et à la production d’électricité, de gaz naturel et de biométhane, de produits pétroliers et de chaleur et de froid.

53) www.civiteo.fr.

54) L. 323-2 du CRPA.

55) Propos recueillis par Batiactu le 11/09/2015 d’Edouard Lebrun, directeur du développement de Lucibel.

56) Commune multi-polarisée : commune située hors des aires, dont au moins 40 % de la population résidente ayant un emploi, travaille dans plusieurs aires urbaines, sans atteindre ce seuil avec une seule d’entre elles.

57) Arcep, Baromètre du numérique 2016.

58) Hargittaï E. (2002), Second-order digital divide: differences in people’s online skills, First Monday, vol. 7 n°4, University of Illinois at Chicago.

59) Les tranches de revenus sont définies par le Crédoc en fonction du revenu moyen par tranche : bas revenus, 1 200€ par foyer ; classe moyenne inférieure, 1 820€ ; classe moyenne supérieure, 2 800€ ; hauts revenus, 4 600.

60) Van Dijk J. (2005), The deepening divide – Inequality in the Information Society, Sage.

61) Nicolas Jonas, (2012), Pour les générations les plus récentes, les difficultés des adultes diminuent à l’écrit, mais augmentent en calcul, Insee première.

62) Centre d’analyse stratégique(2011), Le fossé numérique en France, La documentation française.

63) Baromètre numérique 2016.

Vous devez être abonné au moniteur pour lire la suite de ce contenu
PAS ENCORE ABONNÉ
ENCADRE

Encadré 6 : l'IMREDD, lieu d'échange entre le monde universitaire et la collectivité

L’institut Méditerranéen du Risque, de l’Environnement et du Développement Durable, future composante de l’Université de Nice Sophia Antipolis (UNS), est financé dans le cadre du programme d’investissement d’avenir 2020, the Joint excellent and dynamic initiative . L’IMREDD a pour vocation de fédérer différents acteurs – chercheurs, étudiants, créateurs d’entreprises, partenaires économiques et collectivités – autour d’un projet commun. En plus des formations, des plateformes technologiques collaboratives seront mises en place avec des partenaires publics et privés. Par cette approche transverse, l’Institut entend répondre à un des défis de la smart city, à savoir, le développement d’une ville dans le respect de ses ressources naturelles.

Source : mission.

ENCADRE

Proposition n° 4

Proposition n° 4 : engager systématiquement des discussions et des collaborations avec l’ensemble des acteurs de la ville et notamment les grands acteurs du numérique, au niveau de chaque collectivité mais également avec des groupements de collectivités pour assurer une meilleure complémentarité entre les offres publique et privé et garantir le respect de l’intérêt général.

ENCADRE

Proposition n° 5

Proposition n° 5 : offrir des formations, accessibles aux élus locaux et à leurs services, pour évaluer les degrés de sécurité des objets connectés et des systèmes d’information qui leur sont liés. Ces formations doivent donner lieu à des supports accessibles en ligne (notamment des MOOC) et à des fiches de bonnes pratiques. L’ANSSI pourrait être l’interlocuteur chargé de mettre en place ce système, par exemple en préparant des modules de formation dispensés par divers acteurs.

ENCADRE

Proposition n° 6

Proposition n° 6 : inclure dans tous les marchés liés à la digitalisation des collectivités une clause sur la sécurité avec des critères d’exigence minimale définis au niveau national, en concertation avec les associations de collectivités et l’ANSSI.

ENCADRE

Encadré 7 : massification liée à la digitalisation, l'exemple des photos

En 1999, année du pic de l’industrie de la photo, les consommateurs ont pris 80 M de photos dans le monde48 . En mai 2015, 2 Md de photos par jour ont été partagées sur Facebook, 700 M sur Whatsapp et l’équivalent sur Snapchat (en 2014)49 . En faisant un rapide calcul, on parvient à 1 241 Md de photos échangées chaque année sur les 3 réseaux sociaux occidentaux principaux. Le chiffre peut être moindre du fait des doublons mais ne prend pas en compte les autres réseaux sociaux et notamment pas ceux de WeChat qui revendique plus de 650 M d’utilisateurs.

48) Chiffres de Kodak.

49) Données des entreprises citées.

Source : mission.

ENCADRE

Encadré 8 : la collecte collaborative de données dans le cas du bruit

Noisetube est une application issue d’une initiative citoyenne visant à mesurer, à l’aide de son smartphone, la pollution sonore de son environnement. L’utilisateur, grâce au micro de son smartphone, effectue la mesure brute des décibels. Il enregistre sa position au moment de la mesure et peut l’enrichir après capture (niveau de gêne, origine du bruit…).

Des applications de ce type sont évidemment intéressantes pour les pouvoirs publics locaux dans leur mesure de la pollution sonore et de l’effet de certaines décisions. La mesure de la pollution sonore est d’ailleurs une exigence communautaire pour les villes de plus de 250 000 habitants mais ces cartes sont traditionnellement réalisées par extrapolation statistique d’un nombre limité de mesures.

Source : mission.

ENCADRE

Proposition n° 7

Proposition n° 7 : identifier les besoins de données pour la collectivité et proposer des outils de collecte citoyenne collaborative par exemple en utilisant leur équipement en smartphone ou en objets connectés.

ENCADRE

Encadré 9 : éléments de réflexion d'Enedis sur la création d'une plateforme de données

La généralisation des compteurs communicants, le développement des objets connectés et des capteurs bouleversent le paysage traditionnel de la transmission de données. Ils créent de nouvelles attentes, de nouveaux besoins, offrent de nouvelles opportunités. Ils appellent aussi des garanties renforcées de traitement, de protection et d’accès sécurisé.

Le rôle des gestionnaires de réseau est de faciliter cette transition vers une nouvelle économie de la donnée dont les acteurs – élus locaux, entreprises – définiront les nouveaux usages.

C’est pourquoi les gestionnaires de réseau de distribution (GRD) veulent répondre à ce nouveau défi en se dotant de moyens adaptés pour assurer efficacement un « service public de nouvelle génération ».

La création de l’Agence réunissant tous les gestionnaires de réseau de distribution d’électricité voire de gaz (étude en cours) veut répondre ces nouveaux enjeux. Elle permettrait :

– de répondre pleinement aux nouvelles missions numériques de service public autour de la transition énergétique et du fonctionnement du marché, dans le respect de la protection des données ;

– d’améliorer les services de données réglementairement dus par les gestionnaires de réseau aux acteurs du marché en offrant un guichet unique multi-GRD et une capacité de consolider des données sur un périmètre national ;

– de réaliser des économies par la mutualisation des moyens nécessaires à la conduite d’un service public des données de l’énergie ;

– d’appuyer la construction de futurs services de données résultant d’évolutions réglementaires.

Ce nouveau service public au service de la donnée intégrera pleinement les technologies numériques et digitales et les besoins du système électrique en données. Au service de la transition énergétique, il sera un acteur facilitant le marché.

Les savoir-faire développés associés aux compétences réseaux serviraient à la crédibilité de la filière française en matière de smartgrid.

Source : Enedis.

ENCADRE

Proposition n° 8

Proposition n° 8 : engager, au niveau local, un recensement des données d’intérêt territorial disponibles, produites par les entreprises ou associations non concernées par les lois transition énergétique et République numérique.

À moyen terme il sera nécessaire d’évaluer la possibilité de créer un droit des collectivités à accéder à ces données à titre gratuit ou onéreux ( fair acces/fair use ).

Mettre à disposition en open data la liste de ces données ainsi que celles dont le partage à la collectivité est rendu obligatoire par la loi. Compléter la liste des caractéristiques principales de ces données. Agréger ces listes au niveau national et les partager en open data.

ENCADRE

Proposition n° 9

Proposition n° 9 : attribuer une compétence nouvelle pour chaque type d’EPCI à fiscalité propre relative à la donnée pour créer un nouveau service public. Une compétence similaire devrait être donnée aux régions et aux départements pour les données qui les concernent. Ce service public impliquera notamment :

– la création d’une plateforme data territoriale, comprenant un volet open data au moins pour les données prévues par la loi ;

– l’inventaire des données d’intérêt territorial ;

– le recueil de l’ensemble des données auxquelles les communes membres de l’EPCI et l’EPCI lui-même ont légalement accès ;

– la sécurisation de ces données ;

– le stockage ;

– l’anonymisation, si nécessaire, des données personnelles ;

– l’adoption, après un large débat citoyen, d’une charte de la donnée.

ENCADRE

Proposition n° 10

Proposition n° 10 : offrir des formations, accessibles aux élus locaux et à leurs services, pour évaluer les degrés de sécurité physique et informatique des données. Ces formations doivent également donner lieu à des supports accessibles en ligne (notamment des MOOC) et à des fiches de bonnes pratiques. L’ANSSI pourrait être l’interlocuteur chargé de mettre en place ce système par des modules de formation dispensés par divers acteurs.

ENCADRE

Proposition n° 11

Proposition n° 11 : inclure dans tous les marchés publics ou les contrats passés par une commune ou un EPCI à fiscalité propre une clause sur la sécurité de la collecte et du stockage des données recueillies dans le cadre de l’exécution du contrat. En particulier, en cas de recours à un cloud, utiliser un prestataire homologué par l’ANSSI.

ENCADRE

Proposition n° 12

Proposition n° 12 : Compléter l’article L. 321-1 du CRPA pour interdire l’utilisation des données mises à disposition par les collectivités territoriales pour de la réidentification ou du ciblage publicitaire.

ENCADRE

Proposition n° 13

Proposition n° 13 : Proposer un module de licence qui pourrait compléter aussi bien la licence ouverte administration que la licence ODbL pour interdire la réidentification à partir de données publiques, le ciblage publicitaire ou l’utilisation de données publiques pour des fins contraires aux objectifs de politiques publiques.

ENCADRE

Encadré 10 : réseaux bas débit

La communication machine to machine (M2M), qui est une branche de l’IoT, doit s’appuyer sur un réseau, qui ne soit pas nécessairement le réseau de la téléphonie mobile. Les réseaux actuellement en concurrence pour ce marché s’appuient sur une logique Low Power Wide Area Network (LPWAN), c’est-à-dire un réseau de faible intensité, et donc de faible consommation énergétique, mais de longue portée. La consommation énergétique est un élément d’attention pour le M2M, les objets communicants étant énergétiquement autonome. Trois technologies différentes, toutes initialement développées en France, sont présentes sur le marché.

Sigfox

Sigfox est une société française, née en 2010. C’est le premier réseau spécifique à l’IoT à avoir été mis en place. L’entreprise utilise une technologie radio Ultra narrow band (UNB) qui utilise des bandes de fréquence libres de droit disponibles pour le monde entier, comme les bandes ISM (Bande industrielle, scientifique et médicale). En Europe, il s’agit de l’ISL à 868 MHz. Sur ce réseau, les objets peuvent recevoir jusqu’à 140 messages de 12 octets par jour. Le réseau est bidirectionnel, c’est-à-dire que les objets envoient des informations vers les serveurs (le cloud) et reçoivent des informations des mêmes serveurs.

Le réseau Sigfox est propriétaire et l’entreprise est l’unique opérateur de son réseau. Elle reçoit les informations communiquées par les objets connectés sur ses propres serveurs et les transmet sur des serveurs tiers. La technologie pour le développement de modules de connectivité est librement accessible mais la certification des terminaux et le passage exclusif par le cloud de Sigfox sont imposés. La technologie Sigfox est assez économe en antennes. On estime à 1 500 le nombre d’antennes nécessaires pour couvrir 92 % du territoire français.

L’entreprise a déjà réalisé cinq levées de fonds. Fin mars 2014, pour sa troisième levée de fonds, elle a levé 15 M€, notamment auprès d’Intel Capital, du Fonds d’ambition numérique appartenant à BPIFrance. En février 2015, elle a levé 100 M€, notamment auprès d’Air Liquide, Telefonica, GDF Suez et SK Telecom. La cinquième levée de fonds, en novembre 2016, s’élevait à 150 M€ . Les prix affichés pour chaque objet connecté vont de 1 euro à 14 euros par an suivant le nombre de message envoyé.

LoRaWAN

LoRaWAN est l’acronyme de Long Range Wide-area network que l’on peut traduire par « réseau étendu à longue portée ». LoRa est un type de réseau (plus exactement une technologie de modulation) à l’image de la 3G ou de la 4G. Contrairement à ces derniers, le protocole n’est pas basé sur la technologie IP, mais sur LoRaWAN, un nouveau protocole développé afin de répondre aux problématiques des objets connectés. Au CES 2015, à Las Vegas, Cisco, IBM, Semtech et Microchip, mais aussi les Français Actility, Eolane, Kerlink et Sagemcom, ont annoncé la création de l’Alliance LoRa, un consortium visant à développer une offre concurrente de Sigfox, open source, et basé sur une technologie d’origine française. En effet, la technologie utilisée provient de l’entreprise française Cycleo, rachetée en 2012 par l’entreprise américaine Semtech.

LoRa est une technologie ouverte, toute entreprise peut créer son propre réseau LoRa. Elle nécessite une antenne avec une station de base émettant sur la bande 868 MHz en France et reliée à Internet et l’équipement des objets connectés avec des puces LoRa pour recevoir le signal de cette antenne.

Ce modèle, ouvert à la coexistence de plusieurs opérateurs membres de l’alliance sur une même zone géographique, amène naturellement au développement d’un standard interopérable, permettant aux objets LoRa de fonctionner sur les divers réseaux – privés comme ouverts au public – déployés internationalement.

Qowisio

Qowisio s’appuie sur son propre réseau télécom opéré avec la technologie UNB, très bas débit (16 octets par messages) et longue portée (jusqu’à 80 km de portée), sur la bande de fréquence non-licenciée du 868/869 MHz. À la différence des opérateurs télécom « classiques », elle intègre toute la chaîne de valeur, lui permettant ainsi de présenter des prix à tarifs disruptifs intégrant à la fois le capteur, la connectivité (l’équivalent de 0,10€ /objet/an) et l’applicatif dédié.

Les coûts de connectivité sont donc intégrés au prix initial, les budgets de fonctionnement ne sont plus impactés et le retour sur investissement plus rapide.

Source : mission ; Arcep ; sites Internet des entreprises concernées ; Qowisio.

ENCADRE

Proposition n° 14

Proposition n° 14 : s’assurer que les nouvelles infrastructures numériques puissent être le support de plusieurs usages et que l’investissement initial corresponde à l’adaptabilité de ces infrastructures, en particulier sur :

– la neutralité technologique ;

– le caractère bidirectionnel du réseau ;

– le volume des informations échangées.

ENCADRE

Proposition n° 15

Proposition n° 15 : Poursuivre le déploiement du réseau haut débit Internet et de la 4G de manière à couvrir les zones blanches.

ENCADRE

Proposition n° 16

Proposition n° 16 : Coordonner les projets smart cities lancés dans les collectivités pour permettre leur compatibilité dans le futur. Les régions peuvent être le niveau pertinent pour mener cette coordination.

ENCADRE

Proposition n° 17

Proposition n° 17 : Créer une clause « interopérabilité » et en faire une clause par défaut des contrats de commande publique des infrastructures numériques de la smart city.

ENCADRE

Proposition n° 18

Proposition n° 18 : Proposer des points d’accès à Internet pour utiliser les services numériques mis en œuvre dans le cadre de la stratégie , veiller à proposer une aide physique dans des lieux de proximité pour l’accès à ces services et travailler l’ergonomie des sites pour garantir une prise en main facile afin de limiter les risques d’exclusion d’une partie de la population.

En poursuivant votre navigation sur ce site, vous acceptez l'utilisation de cookies pour vous proposer des services et offres adaptés à vos centres d'intérêt. OK En savoir plus X