Commande publique augmentée par la donnée : à l'Est, du nouveau
Bercy met la dernière main aux arrêtés relatifs à la dématérialisation des marchés publics. Pendant ce temps, les acteurs phosphorent sur la mise en œuvre concrète de l’open data. Les initiatives fourmillent, tel ce datathon en Bourgogne le 2 décembre. Voyage au pays des geeks de la commande publique.
Sophie d’Auzon
Un datathon à Chalon-sur-Saône. Intriguant. Des briques Lego pour un serious game, des ateliers menés à grands renforts de Post-it multicolores, des codeurs penchés sur leurs claviers jusqu’au milieu de la nuit… Qui a dit que la commande publique était ringarde ? Après le barcamp du 9 mai à Rennes, un datathon autour de la transparence dans les marchés publics s’est déroulé ce 2 décembre, à l’initiative du GIP e-Bourgogne Franche-Comté et du conseil régional, et en partenariat avec le Secrétariat général pour la modernisation de l’action publique (SGMAP) et Etalab. Pour Patrick Molinoz, président du GIP et vice-président de la Région, « les technologies permettent de modifier considérablement les relations entre les personnes publiques et les entreprises. Une telle journée doit alimenter la réflexion sur la place de la transparence, sur sa finalité et sur sa mise en œuvre. En la matière, le GIP a un rôle d’évangélisateur, et de SAV. Aujourd’hui encore, l’open data dans la commande publique fascine et fait peur ». Et pourtant, il est urgent de s’y mettre.
Les arrêtés démat' pour mars
La publication des données essentielles de chaque marché public sur les profils d’acheteurs (plateformes de dématérialisation) sera en effet impérative à compter du 1er octobre 2018. La consultation publique sur le projet d’arrêté mettant en musique cette obligation vient de s’achever. « Le texte sera publié d’ici mars, de même que l’arrêté sur les profils d’acheteurs », annonce Jean Maïa, directeur des affaires juridiques de Bercy, venu ouvrir le datathon bourguignon. Il rappelle que c’est le gouvernement qui a souhaité ériger l’open data en principe, les directives européennes marchés publics ne l’imposant nullement. Et que le projet d'arrêté a fait le choix d’édicter un format pivot de publication des données essentielles, afin d’assurer l’interopérabilité et la réutilisation des données. « Nous avons reçu de nombreuses contributions lors de la consultation publique : aucune objection au dispositif, les observations portent surtout sur ce que l’on pourrait faire de plus ! Mais il ne faut pas vouloir tout dire dans les textes, pour ne pas brider la démarche », estime le DAJ.
Le seuil en débats
Un point toutefois reste en arbitrage : la réintroduction, ou non, d’un seuil de 25 000 euros à partir duquel la publication des données essentielles d'un marché serait obligatoire. La Direction des affaires juridiques de Bercy affirme que rien n’est tranché sur ce point. Ce seuil est réclamé par un certain nombre de représentants des collectivités, qui expliquent notamment que de toutes petites communes, qui ne passent que des marchés inférieurs à ce seuil, ne sont même pas dotées d’un profil d’acheteur… « Rien n’empêchera de toute façon ceux qui le souhaitent de publier leurs données dès le premier euro », tempère Jean Maïa. Par ailleurs il faut rappeler que cette obligation de publication n’est assortie d’aucune sanction ! « Peut-être introduira-t-on un jour un système de « name and shame » pour pointer ceux qui ne jouent pas le jeu », imagine l'un des participants. Mais l’heure est plutôt, comme en témoigne ce datathon, à l’accompagnement des acteurs et à la coconstruction des obligations. Et au partage des forces. « Cela me semble très difficile pour les collectivités d’atteindre les objectifs de 2018 sans se poser la question de la mutualisation », lance Jean Maïa.
Le succès de la démarche reposera aussi sur une bonne compréhension de ses enjeux. « L’open data dans la commande publique permettra déjà de savoir enfin quel est le montant précis de la commande publique en France ! Et ouvre aussi tout un champ de services aux entreprises, aux collectivités et aux citoyens qui reste à créer », assure Jean Maïa. Avec sans doute des emplois à la clé.
Des pistes d'exploitations possibles
Les ateliers ludiques menés lors du datathon n’ont pas forcément abouti à des résultats directement exploitables. Mais ils ont du moins permis de soulever des questions très concrètes sur le cheminement de la publication des données, les précisions réglementaires à apporter, et de formuler des pistes sur les exploitations possibles de la donnée commande publique (outils de sourcing, de mesure de la performance, de suivi des avenants, de géolocalisation des attributaires, et.). Et de faire dialoguer acheteurs publics, informaticiens et éditeurs. A la nuit tombée, une douzaine de codeurs planchaient encore pour réaliser un POC (1) sur les données des marchés publiés par le GIP e-Bourgogne Franche-Comté… jusqu’au petit matin (lire ci-dessous).
@s_dauzon @Etalab @CMaudry après #OpenDataChalon, developper un POC à partir de données essentielles pic.twitter.com/DNE2YXDviw
— Daniel Coissard (@CoissardD) December 2, 2016
La nuit du datathon, racontée par Daniel Coissard, chef de projets au GIP e-Bourgogne« Les données qui ont été remises aux codeurs concernaient uniquement les marchés d’un montant supérieur à 20 000€ et qui avaient au moins une réponse électronique, soit environ 3 000 marchés pour la Bourgogne. Les codeurs ont transformé les données au format CSV en flux JSON ; puis récupéré les données et les ont injectées et visualisées avec Kibana et Elastic. Sur cette base, l’équipe a pu faire quelques réalisations assez intéressantes pour la suite. Notamment, représenter graphiquement par département et par acheteur les types de marchés passés en 2015. Calculer par acheteur le montant des dépenses et le volume des marchés passés en 2015. Identifier pour un code CPV donné, les marchés qui ont été passés, par quel acheteur et le nombre de dossiers de consultation des entreprises (DCE) téléchargés. Cela peut servir de base de travail pour les entreprises. En effet, celles-ci se focalisent souvent sur les mêmes acheteurs et négligent certains « petits » acheteurs. Par exemple, pour le même code CPV, il y a eu vingt retraits de DCE sur Chalon-sur-Saône et quatre sur la commune voisine de Chatenoy-le-Royal pour le même type de travaux. Cela se vérifie sur plein d’autres marchés et codes CPV. L’équipe a aussi géo-localisé (plus difficilement, faute d’informations suffisantes) les entreprises qui déposaient une réponse par rapport à un marché donné.
L’exercice nous a aussi permis de mesurer le chemin qu’il reste à faire pour les éditeurs métiers (profils acheteurs ou gestion financière) pour obtenir des données brutes qui peuvent coller au format pivot. Ce n’est qu’un début, mais l’on pourrait à partir de données plus précises, plus propres, utiliser l’open data comme un véritable outil de développement économique, voire un élément qui pourrait être intégré dans les systèmes d’information pour élaborer la stratégie commerciale dans les entreprises. »
(1) Proof of concept, c’est-à-dire une réalisation expérimentale cherchant à démontrer la faisabilité d’une méthode ou idée.
Analyses de jurisprudence
Toute l’expertise juridique du Moniteur avec plus de 2 500 analyses et 20 ans d’historique
Je découvreCommande publique augmentée par la donnée : à l'Est, du nouveau
Tous les champs sont obligatoires
0Commentaire
Réagir