Energie

La gestion des infrastructures de réseaux

Sommaire

La gestion des infrastructures de réseaux – Première partie5

Préface7

La gestion des infrastructures de réseaux – Première partie

Les grands réseaux, d’énergie, de transports, d’eau et d’assainissement conditionnent le développement économique. L’OCDE (1) évalue les investissements annuels dans les secteurs correspondants à 4 % du PIB mondial et estime que, pour satisfaire les besoins, leur niveau devrait être relevé de près de 60 % à l’horizon 2030, par rapport à la situation actuelle.

L’enjeu pour les émissions de gaz à effet de serre est déterminant, la croissance verte réclamant des investissements substantiels dans les énergies renouvelables, l’efficacité énergétique et les transports durables. Constatant que cet investissement « vert » tardait, le premier souci (2), ces dernières années, a été d’identifier les obstacles à démanteler pour en assurer l’essor : appropriabilité des bénéfices des projets, stabilité des politiques, accès aux financements et orientation de l’épargne pour réaliser des équipements qui, souvent, sont caractérisés par une maturité exceptionnellement longue et des risques importants.

Dans ce cadre, l’attention s’est focalisée sur les projets nouveaux (« greenfield »), plus que sur l’amélioration de l’existant (« brownfield »), par exemple, pour les transports, sur les grands projets d’infrastructures alternatifs à la route ; sur les énergies renouvelables, pour la production d’électricité. Cependant, il est apparu progressivement que cette approche comportait un double biais.

D’une part, le déploiement des NTIC sur les réseaux, associé à des comportements plus sobres, permettent d’envisager une utilisation plus efficace des infrastructures. Le défi serait alors moins de financer un montant additionnel important que de s’assurer que les choix d’investissement s’orientent vers l’investissement vert et, au sein de celui-ci, vers les solutions les plus appropriées. D’autre part, de même qu’au milieu des années 2000, il avait été pris conscience que la réduction des émissions de gaz à effet de serre du secteur résidentiel-tertiaire ne pouvait être obtenue seulement en agissant sur les performances thermiques des nouveaux bâtiments, l’essentiel des services d’énergie, de transports, d’eau et d’assainissement restera encore longtemps distribué par les réseaux existants, dans les pays avancés. Le problème se déplace donc vers l’optimisation de la gestion de l’existant et l’investissement sur celui-ci, pour qu’ils intègrent les exigences de décarbonation et de résilience.

L’environnement n’est pas le seul élément à prendre en compte. D’autres facteurs, démographiques, urbains, économiques, sociaux ou politiques affectent les attentes vis-à-vis de ces réseaux et leur organisation : par exemple, l’évolution des phénomènes de migration, les délocalisations industrielles, le développement des résidences secondaires, le développement de modes d’énergie décentralisés ou le fait que les ménages deviennent des acteurs importants de ce marché.

Ces évolutions se sont traduites par la multiplication des objectifs – économiques, environnementaux, de maîtrise des risques de disponibilité et d’approvisionnement à prendre en compte pour leur gestion, qui a conduit sans aucun doute à sa fragmentation et à un brouillage des priorités. Les processus de libéralisation ont aussi ajouté des contraintes sur l’accès à l’infrastructure, les recommandations concernant l’attention à porter, pour cela, à la gestion des segments constituant des monopoles naturels n’ayant pas d’ailleurs retenu suffisamment l’attention. Il apparaît donc urgent de redonner de la lisibilité aux missions des gestionnaires d’infrastructures, celles-ci devant procéder, de plus, d’une approche économique.

Certes, les instruments dont on dispose pour l’évaluation socio-économique des politiques de maintenance et d’amélioration de l’existant sont un peu moins développés que pour l’analyse des coûts et bénéfices des projets nouveaux. Mais ceci ne peut être un argument pour négliger des politiques qui conditionnent la capacité des infrastructures à fournir les services qu’en attend la collectivité : les enjeux de maintenance apparaissent en effet très importants pour tous ces réseaux,

qui représentent des patrimoines importants ; et il convient de tirer pleinement parti des opportunités de grand carénage ou de rénovation, pour ne pas renouveler à l’identique et saisir les possibilités de modernisation et d’introduction de nouvelles technologies qui sont ainsi offertes.

Les références économiques pour éclairer ces choix existent : calcul économique pour évaluer les choix d’investissements et de renouvellement ; tarification des monopoles publics ; régulation de l’accès aux marchés et régulation incitative des opérateurs. Elles se sont développées depuis plus de deux siècles, en même temps que se sont construites les sciences économiques. Les économistes français y ont apporté des contributions majeures, de Dupuit (1844) pour « l’évaluation de l’utilité » des projets publics et leur financement, à Laffont et Tirole (1993) pour la régulation, en passant par Boiteux pour la tarification de l’électricité (1949) puis celle des monopoles publics soumis à l’équilibre budgétaire (1956).

Ce rapport, qui se propose donc de réactualiser le cadre de mission économique des gestionnaires d’infrastructures, s’y réfère évidemment. L’interview que Jean Tirole nous a donnée en préface les mettent en perspective.

Toutefois, il est apparu que la simple déclinaison de ces différents thèmes aurait présenté des inconvénients majeurs par rapport à l’objectif visé, en risquant de focaliser l’attention sur des aspects analytiques ou techniques, au détriment de la cohérence d’ensemble. Surtout, il faut reconnaître que les gestionnaires d’infrastructures privilégient les dimensions techniques, ce qui se comprend eu égard à leur complexité et aux contraintes de la gestion opérationnelle. Dans ce contexte, des questions économiques centrales concernant l’organisation des marchés ou le partage entre public et privé ne sont perçues paradoxalement que dans leur dimension idéologique. Pour éviter ces écueils, la démarche a donc été inverse, de s’astreindre à partir des questions concrètes que rencontrent les gestionnaires d’infrastructures.

Le rapport s’appuie sur un ensemble complet de monographies sectorielles. Il s’intéresse plus particulièrement à la gestion patrimoniale, au financement et aux perspectives ouvertes par les nouvelles technologies. Dans tous les cas, le besoin de mettre en place des incitations appropriées pour les utilisateurs, les gestionnaires et les investisseurs est mis en exergue, ainsi que celui de rénover les gouvernances et modes de régulation. Il est souligné encore qu’il faut moderniser non seulement réseau par réseau, mais en ayant aussi en perspective le développement des interconnexions et d’optimisation des synergies possibles entre ceux-ci, notamment, dans un contexte de métropolisation, dans les villes. Fondamentalement, deux grands axes émergent : Asset Management fondé sur des critères économiques ; nécessité d’un modèle robuste de tarification et d’incitations à la performance.

En particulier, tous les réseaux d’infrastructures sont confrontés à des arbitrages délicats pour concilier la couverture des coûts et, selon les cas : une utilisation efficace du réseau ; la capacité des marchés à supporter les tarifications envisagées, ou leur acceptabilité sociale ; ainsi que la réduction, constatée, ou souhaitée quand il s’agit d’usages polluants, de clients traditionnels contributifs ; ou encore le souci de stimuler de nouveaux usages. Par ailleurs, les usagers contestent fréquemment les niveaux de redevances qui leur sont réclamés.

À titre d’illustration de ces arbitrages délicats à effectuer, on peut citer : pour les réseaux électriques, les controverses avec les électro-intensifs ; les débats sur les redevances ferroviaires et aéroportuaires ; ou ceux sur l’impact de la « sobriété » sur l’équilibre des concessions des réseaux de distribution, et l’opportunité de les adapter en conséquence. Ainsi, l’évolution des marchés affecte certaines ressources de ces réseaux, le « Versement transport », par exemple, atteignant ses limites et les expériences de tarification progressive de l’eau ou de l’énergie ayant révélé des élasticités-prix non négligeables sur certains segments de marché. De plus, les modèles économiques restent à trouver pour le comptage intelligent, les réseaux de recharge pour les véhicules électriques, ou les gares, pour qu’elles deviennent de véritables lieux d’interconnexion entre tous les modes de transports et la ville.

La gestion des réseaux d’eau, d’énergie et de transports réclame des ressources pérennes, ce qui a traditionnellement relégué au second plan la manière dont la tarification guide les usages et les localisations, ou favorise l’innovation. De nouveaux modèles tarifaires, conciliant efficacement contraintes de financement et orientation des comportements, sont donc nécessaires, d’autant plus que les ressources venant des contributions publiques deviennent de plus en plus rares, compte tenu de la crise que traversent nos Finances publiques.

Le cadre conceptuel pour ces tarifications est associé au nom de M.Boiteux, qui a établi comment atteindre l’équilibre financier en distordant a minima les prix qui sont critiques pour orienter les comportements. Ceci nécessite, certes de plutôt taxer les demandes « inélastiques », mais aussi – comme le fait toute entreprise privée – d’examiner comment la diminution de la demande sur un produit affecte les recettes sur d’autres segments. Les réflexions récentes, notamment celles développées par J. Tirole, renforcent cette idée, avec une vision active du rôle des utilisateurs : comment la tarification va inciter ceux-ci ou différents intermédiaires à investir ? Pour cela, elle doit prendre garde à ne pas exproprier les investissements de l’aval, sinon il n’y en a pas, et donc se référer aux élasticités-prix de long terme. Ensuite, il convient de stimuler les investissements qui vont générer de la valeur pour l’ensemble du réseau.

Par ailleurs, il a été abondamment documenté que des mécanismes de remboursement des coûts fixes ne sont pas incitatifs à la performance dans la gestion de ces réseaux, que le remboursement passe par des contributions publiques ou des revalorisations automatiques du niveau moyen des tarifs. Il est donc crucial de renforcer les mécanismes de régulation incitative dans leur gestion.

Les problèmes évoqués ne sont pas propres à notre pays. En effet, tous les pays développés se trouvent confrontés à la difficulté d’intégrer dans une culture technique l’appréhension des enjeux économiques et l’émergence des questions environnementales, ou d’attribution des tâches quand les échelles territoriales concernées sont multiples. Par ailleurs, les biais en faveur des projets nouveaux, plus visibles par le public, et a contrario la difficulté à établir des incitations appropriées pour la gestion patrimoniale « à long terme » sont inhérents à la gestion publique.

Notre pays semble cependant rencontrer des difficultés particulières pour y trouver ses solutions. Un argument souvent avancé résiderait dans le fait que l’excellence technique serait un handicap pour intégrer des dimensions d’autre nature, notamment économiques. Le fait que ces réseaux aient été bâtis sur l’échelle nationale constitue aussi une spécificité, source de difficultés face à l’émergence des agglomérations et de l’Europe. Surtout, l’identification entre service public et entreprise publique est demeurée la référence au sein de ces entreprises et dans l’administration, les obligations d’ouverture de certains marchés qui ont émergé depuis une vingtaine d’années dans le cadre européen étant subies et abordées de manière défensive, plutôt que comme des opportunités pour améliorer sa performance et l’adapter à l’évolution des technologies et des attentes du public. Ceci rend d’autant plus urgent de refonder le cadre économique pour la gestion de nos infrastructures. Ce rapport s’inscrit dans cette perspective.

 

Le CEDD a pour mission de mobiliser des références économiques pour élaborer les politiques de développement durable. Sa composition reflète la diversité de la recherche académique et de l’expertise des parties prenantes sur les thématiques liées à la transition écologique. Ses travaux visant à éclairer les choix, ils se doivent de refléter la diversité des points de vue. Les contributions à ses rapports n’engagent donc que leurs auteurs, donc ni le CEDD, ni les organismes dans lesquels ils exercent par ailleurs des responsabilités. Sa composition est source de richesse, mais ne doit pas être source de malentendus. À ce titre on signalera donc les liens avec SNCF-Réseau pour A.Quinet, avec l’ARAF pour D.Bureau, avec EDF pour R.Crassous et avec la CDC pour D.Janci.

Préface

Interview

Comment réguler la gestion des infrastructures de réseaux ? Dix questions à Jean Tirole

Jean Tirole a reçu le prix Nobel d’économie 2014 pour ses travaux sur la régulation et la politique de la concurrence applicables aux marchés complexes que sont les oligopoles, les industries de réseaux et, plus récemment, les « plates-formes multifaces ».

Par exemple, ses travaux avec Jean-Jacques Laffont sur la régulation sectorielle ont fourni un cadre conceptuel cohérent pour : définir des contrats incitatifs entre l’État et les entreprises régulées ; concevoir l’introduction de la concurrence dans les industries de réseau ; fixer les prix d’accès aux infrastructures essentielles ; et, plus généralement, organiser la réglementation dans ces secteurs cruciaux pour l’économie et concevoir le rôle de l’État « régulateur ». Ses travaux sur le droit de la concurrence sur les abus de position dominante, sur la propriété intellectuelle ou sur les plates-formes multifaces ont influencé la pratique de ce droit, ainsi que les lignes directrices de la Commission Européenne et autres autorités de la concurrence à travers le monde.

Dix questions pour en donner un aperçu, et ainsi entrevoir sa conception du rôle de l’expertise économique et de la recherche pour construire les politiques publiques, appliquées à la gestion des infrastructures de réseaux…

1. Comment la conception d’un « État régulateur » a-t-elle émergé ?

Je voudrais commencer par deux remarques liminaires. Tout d’abord, nos économies ont besoin de règles et d’arbitres incitant les entreprises à développer les biens et services socialement souhaitables et à les proposer aux meilleures conditions. Ces règles incluent tout d’abord le droit de la concurrence, qui vise à réguler les accords interentreprises ou les abus de position dominante ; ce droit est mis en œuvre par des régulateurs tels que l’Autorité de la concurrence en France ou la Commission européenne. Elles incluent également des mesures propres à des industries spécifiques, telles que la réglementation prudentielle et les règles de transparence dans le secteur financier, ou les régulations des industries de réseau (électricité, télécommunications, transports). Ces règles sectorielles sont mises en œuvre par des agences telles que l’Autorité des communications électroniques et des postes, la Commission de régulation de l’énergie ou l’Autorité de régulation des activités ferroviaires.

Ensuite, la conception du rôle de l’État a évolué dans la plupart des pays. L’État producteur est devenu État régulateur. Sous la pression des parties prenantes et faisant face à une contrainte budgétaire lâche (les déficits d’une entreprise allant gonfler le budget global ou la dette publique), les entreprises contrôlées par la puissance publique à quelques exceptions près ne produisent pas à des coûts bas des services de qualité. Autrefois juge et partie, l’État s’est donc souvent recentré sur son rôle de juge, par exemple sous la forme d’autorités sectorielles, sous le contrôle d’autorités de la concurrence, toutes deux autorités indépendantes. Cependant, cette réorientation en elle-même est loin de résoudre tous les problèmes, comme le montre bien la forte inefficacité d’entreprises privées régulées, les « public utilities » américaines, du début du vingtième siècle jusqu’aux années 1980.

Les réformes dans les secteurs des télécoms, de l’énergie, du ferroviaire ou de la poste qui ont eu lieu à la fin du vingtième siècle constituent donc une réaction aux inefficacités de la gestion de ces secteurs qui avaient été constatées jusqu’alors. En effet, les entreprises, qui bénéficient dans ces secteurs d’une position de monopole de jure ou de facto liée à l’existence de segments à rendements d’échelle très importants, sont en mesure d’exiger des prix élevés ou d’imposer des services de qualité insuffisante aux consommateurs alors captifs. Jusqu’aux années 1980, partout dans le monde, ces secteurs étaient des monopoles aux incitations faibles (entreprises publiques en Europe, entreprises privées laissant le mandataire supporter la quasi-totalité du risque aux États-Unis), et pratiquant des subventions croisées entre services souvent plus motivées par des considérations politiques que par une logique économique.

Les situations de « monopole naturel » expliquent pourquoi, dans la plupart des pays, la puissance publique régule depuis longtemps les monopoles desservant les industries de réseau. Toutefois, les modalités de cette régulation ne vont pas de soi. De fortes asymétries d’information quant aux coûts, aux choix technologiques possibles et à la demande empêchent le régulateur de faire en sorte que les meilleurs services soient disponibles aux prix les plus bas possibles pour les citoyens. Autrement dit, l’entreprise régulée peut utiliser stratégiquement l’information dont elle dispose, la révélant quand cela lui est bénéfique et la gardant pour elle-même quand la transparence mettrait ses rentes en danger.

Une quadruple réforme a vu le jour ces trente dernières années, caractérisée par :

– l’accroissement des incitations à l’efficacité des monopoles naturels avec l’introduction de mécanismes de partage des gains d’efficacité (et, en Europe, des privatisations). Par exemple, l’usage de prix-plafonds (ou « price-cap ») qui imposent à l’entreprise régulée une borne supérieure pour le « prix moyen » de ses services s’est généralisé. Cette borne est généralement indexée sur l’inflation, sur le prix des inputs, et éventuellement sur des indicateurs comparatifs, et elle est ajustée dynamiquement en fonction du progrès technologique anticipé ;

– l’ouverture à la concurrence (totale ou de certains segments d’activités ne présentant pas les caractéristiques de monopole naturel), avec, d’une part, l’octroi de licences aux entrants et, d’autre part, la régulation des conditions de leur accès aux goulots d’étranglement. Le marché étant un aiguillon important, on ne saurait trop insister sur l’importance de la concurrence sur le dynamisme de l’entreprise, que celle-ci soit publique ou privée. Cependant, bénéficier de ses vertus requiert souvent de s’écarter du laisser-faire. De fait, les économistes ont consacré beaucoup de recherches à l’identification de ses défaillances et à leur correction par la politique publique ;

– le rééquilibrage des tarifs (entre entreprises et particuliers, entre abonnement, communications locales et longue distance, etc.). Ce rééquilibrage était souhaitable, car la couverture des coûts fixes des réseaux par des surcharges importantes sur des services à la demande très élastique conduisait à des sous-consommations très inefficaces et freinait l’introduction de services innovants ;

– et enfin, le transfert de la régulation vers des autorités indépendantes.

2. Qu’entend-on précisément par « régulation incitative » et quels sont les points d’attention à ne pas manquer pour construire les mécanismes correspondants ?

Les économistes sont dans l’ensemble très favorables à l’introduction de contrats incitatifs et ils ont joué un rôle important dans les réformes mettant en place de nouveaux contrats de régulation dans les industries de réseaux. En effet, le bon sens et le point de départ de la théorie des contrats suggèrent qu’afin de créer de bonnes incitations à contrôler les coûts (pour prendre cet exemple) la partie qui contrôle le niveau des coûts doit en porter au moins en partie la responsabilité. Ceci amène, par exemple dans le cas des concessions, à préconiser l’utilisation de contrats à incitations fortes, où le concessionnaire supporte intégralement ou en bonne partie les risques de coût qu’il peut maîtriser.

Dans le cadre de projets publics non marchands (disons, la construction d’un pont non soumis à péage), on parle souvent de « contrats à prix fixe », où l’autorité concédante paie une somme prédéterminée et la concession supporte la totalité de ses coûts (qui n’ont alors pas besoin d’être audités). Dans le contexte de services marchands, les contrats à incitations fortes prennent la forme des prix-plafonds non indexés sur le coût effectif de la production.

A ces contrats à incitations fortes doivent être opposés ceux à incitations faibles, où le producteur est assuré à l’avance que ses coûts, ou plus généralement la majeure partie de ses coûts, seront couverts soit par un accroissement de la subvention, soit par une augmentation des prix payés par l’usager ; il s’agit ici des contrats à coûts remboursés (cost-plus contracts) pour les services non marchands, et des contrats de régulation indexant les prix à la consommation sur le niveau des coûts réalisés (cost of service regulation). C’est ce type de contrat qui prévalait par exemple pour la régulation des public utilities jusqu’aux années 1980.

Plus généralement, l’idée derrière l’introduction de contrats à incitations fortes est simplement de responsabiliser l’entreprise pour sa performance pour l’inciter à mieux servir la collectivité. Par exemple, le gestionnaire de réseau anglais de transport d’électricité fut soumis dans les années 90 à un schéma incitatif qui le récompensait si la congestion et par là le coût de redispatching de centrales bon marché vers des centrales coûteuses diminuait. Ce coût de redispatching est en effet bien mesuré par les systèmes électriques. Cette incitation a incité le gestionnaire de réseau à faire preuve d’innovation et, à faible coût, réduire la congestion pour le bénéfice de la collectivité.

L’introduction de contrats plus incitatifs ne doit pas cependant se faire de manière trop naïve. À cet égard, un premier point est très général : plus les incitations sont fortes et plus importants sont les profits potentiels, à moins que l’autorité concédante ait une information très précise sur la fonction de coût (ce qui est improbable) ou qu’elle arrive à créer une concurrence effective entre des producteurs très similaires.

Le régulateur peut-il estimer le niveau des coûts de l’entreprise ? Non, car l’entreprise possède une bien meilleure information sur ses coûts et son potentiel d’amélioration. Que faire dans cette situation d’information asymétrique ? Le régulateur doit explicitement prendre en compte l’asymétrie d’information, et offrir un menu de contrats à l’entreprise régulée dans lequel sont proposées différentes possibilités de partage du coût : par exemple un contrat à coûts remboursés et un contrat à prix fixe. Une entreprise qui sait que ses coûts seront faibles voudra alors choisir un schéma très incitatif (être responsabilisée pour ses coûts) tandis qu’elle préférera un remboursement important de ses coûts si elle anticipe qu’ils seront élevés. Bien sûr elle fera plus d’effort de réduction des coûts dans le premier cas. L’entreprise conservera une « rente d’information », mais le menu d’options, s’il est bien conçu et cohérent, réalise le meilleur compromis entre rentes et incitations.

Bien qu’élémentaire, cet arbitrage entre rentes et incitations est souvent oublié. De façon récurrente, l’on recommande l’introduction de contrats de type « price-cap » en arguant (à juste titre) qu’ils inciteront à une efficacité accrue ; mais l’on oublie volontiers leur corollaire, à savoir la possibilité de profits élevés. Après une période d’enthousiasme s’ensuit un contrecoup avec une pression politique forte en faveur de la rupture du « contrat régulatoire » et de la confiscation des rentes créées… par les choix contractuels de la puissance publique. Mais, pour employer une expression populaire, l’on ne peut avoir « le beurre et l’argent du beurre ». Les gains d’efficacité liés à des contrats incitatifs puissants ne seront réalisés que si les concessionnaires peuvent avoir confiance en la capacité de l’État à respecter ses engagements.

Par ailleurs, les incitations fortes impliquent qu’il devient plus coûteux pour l’entreprise de fournir des services de qualité élevée, puisqu’elle supporte une fraction plus importante de ses coûts. L’entreprise a alors une incitation non-négligeable à réduire la qualité de service (ou sélectionner ses patients, si on considère le cas d’un hôpital à qui on a donné des incitations à réduire la mortalité ou augmenter le taux de guérison). Deux réponses à ce problème sont envisageables. La première, idéale si on sait mesurer la qualité, est de contrôler directement la qualité de service. La seconde réponse s’impose dès lors qu’il est réellement difficile de contrôler la qualité : des incitations faibles réduisent le bénéfice qu’a l’entreprise à réduire sa qualité.

Enfin, un corollaire de la relation entre la puissance des incitations et les rentes laissées à l’entreprise est que les incitations fortes créent aussi des gains accrus pour l’entreprise à capturer l’organe de réglementation. En effet, quel que soit le motif de la capture (amitié personnelle ou politique, emploi futur dans l’industrie, conflit d’intérêt lié à une participation financière, transfert d’argent, etc.), la probabilité de cette capture croît avec l’enjeu qu’a l’agent à capturer le superviseur. Si l’on ne peut garantir l’indépendance de l’autorité de régulation, le risque de capture pousse alors vers des contrats à incitations plus faibles (avec leur conséquence défavorable en termes d’efficacité).

3. L’horizon très long des décisions dans le domaine des infrastructures soulève-t-il des problèmes spécifiques ?

Une difficulté, notamment, provient du fait que les contrats liés à la gestion des infrastructures sont souvent incomplets dans la mesure où ils ne spécifient pas clairement ce qui doit être décidé, ou au moins la façon dont la prise de décision et la compensation doivent être organisées, dans certains états de la nature. Ils sont d’autant plus souvent incomplets que leur horizon est long (il est souvent beaucoup plus facile de prédire l’évolution technologique ou la demande à court terme qu’à long terme) et que l’incertitude technologique est forte. L’incomplétude des contrats, ou plus généralement tout motif permettant à un des deux acteurs de se comporter de façon opportuniste ex post (ce qui inclut par exemple la difficulté pour l’État de respecter ses engagements), met en danger l’incitation qu’ont les acteurs d’investir dans leur relation mutuelle. L’on parle alors de « danger d’expropriation réciproque » : de l’investissement du mandataire ; ou du concédant par le mandataire.

Les formes d’expropriation de l’investissement du mandataire en cours de contrat sont multiples : confiscation pure et simple (nationalisation insuffisamment compensée) ; prix bas pour l’usager (bien marchand) ou non-paiement par le mandant (bien non marchand) ; nouvelles exigences techniques ou contraintes de protection de l’environnement non compensées ; insuffisance de production de services complémentaires par le mandant (routes d’accès à une autoroute, liaisons avec un port autonome) ; interdiction de réduire un effectif pléthorique ; introduction non planifiée et non compensée de la concurrence ; etc. Cette menace d’expropriation pose particulièrement problème quand la capacité d’engagement de l’État est faible.

Inversement, le mandataire peut accroître ses exigences face à un mandant ayant un fort intérêt à l’accomplissement du projet ou à la bonne marche d’un service jugé essentiel pour la collectivité. Il peut se prévaloir par exemple d’inévitables ajustements au plan initial pour réclamer des augmentations substantielles ; ou encore il peut menacer de faire faillite, socialisant les pertes alors qu’il aurait gardé les gains privés dans un état de la nature plus profitable.

La première réponse à ce danger de comportements opportunistes est bien entendu de rendre les contrats moins incomplets. Mais il y a une limite à l’absence de complexité des contrats, même bien élaborés : les coûts de conception du contrat (temps des dirigeants, juristes, etc.) et les délais dans la conclusion d’un accord. Pour organiser une inévitable renégociation, il est alors bon d’établir dès le début des procédures claires de révision des contrats et de recours à l’arbitrage. Un autre élément réduisant le risque de comportements opportunistes est l’existence de réputations que les acteurs (entreprise, autorités) cherchent à défendre.

La concurrence « ex post » peut également limiter le risque d’opportunisme. Par exemple, une autorité concédante peut mieux résister à une demande indue de renégociation du prix par le concessionnaire si elle peut (et a le droit de) substituer à peu de frais le concessionnaire par une entreprise concurrente. Enfin, l’on peut envisager l’utilisation de sûretés pour dissuader de tels comportements. Ces sûretés peuvent se substituer avantageusement à un système légal trop lent pour éviter le non-respect des clauses explicites du contrat. Mais elles sont moins utiles quand il s’agit de mettre en œuvre l’« esprit » du contrat, car elles peuvent servir d’instrument de « chantage ».

4. Quels sont les problèmes de régulation pour l’accès au réseau ?

Une alternative aux schémas incitatifs pour améliorer la performance de l’entreprise est l’aiguillon de la concurrence. Cette dernière ne se développe cependant pas aisément de par la nature même des industries de réseau, où par définition, certains segments sont des « monopoles naturels » (ou « goulots d’étranglement » ou « infrastructures ou facilités essentielles » pour utiliser un terme du droit de la concurrence). Plus précisément, les industries de réseau reposent sur des infrastructures qui confèrent à leurs opérateurs une situation de « monopole naturel » : leur coût élevé rend en effet leur duplication indésirable et empêche donc une vraie concurrence, tout au moins sur ce segment de l’activité. Par exemple, s’il peut y avoir concurrence dans la production d’électricité, il ne peut raisonnablement pas y avoir plus d’un réseau de transport haute et basse tension.

Une entreprise dominante dans un marché intermédiaire, comme l’est donc en général un gestionnaire d’infrastructure, peut vouloir limiter la concurrence en aval pour éviter l’érosion de son profit, par exemple en privilégiant sa propre filiale en aval, en passant un contrat d’exclusivité avec l’un des concurrents ou en lui accordant des conditions d’accès privilégiées. Il fallait donc dégager des principes pour décider si une telle exclusion est justifiée ou non : il est normal, par exemple, que l’entreprise tire, au moins temporairement, les fruits d’une innovation ou d’un investissement ayant une valeur sociale importante ; si, par contre, la position de monopole est fortuite ou est un privilège octroyé par l’État (la gestion d’un aéroport ou d’un port par exemple), il n’y a pas de raison pour que l’entreprise obtienne des rentes de monopole en excluant des concurrents en aval. Ces principes ont notamment inspiré l’évolution du droit de la concurrence en matière d’infrastructures ferroviaires, portuaires et aéroportuaires, mais aussi de systèmes de réservation par ordinateur (dans les années 80), de systèmes d’exploitation d’ordinateur ou de propriété intellectuelle.

Le secteur des télécommunications a été confronté à des problèmes nouveaux pour définir les tarifs d’interconnexion, par exemple au sujet des prix d’accès des concurrents de France Telecom/Orange à la boucle locale (l’infrastructure essentielle). Avec Jean-Jacques Laffont nous avons donc examiné comment concilier l’introduction de la concurrence sur les segments complémentaires (par exemple, Internet) aux infrastructures (la boucle locale) et les incitations à investir dans ces infrastructures.

L’accès à la boucle locale de France Telecom est un accès unilatéral (« one-sided access »). Avec Jean-Jacques Laffont et Patrick Rey, nous avons aussi étudié le nouveau problème provenant de l’existence de boucles locales multiples (lié en particulier au développement des mobiles) et de l’accès mutuel (« two-sided access »), indiquant des principes pour le calcul des charges d’interconnexion mutuelles.

La question de l’accès donné à des entreprises aval concurrentes fait l’objet d’une riche littérature, car les problématiques diffèrent selon les secteurs. Lors de la restructuration de l’industrie électrique dans les années 1990, le réseau de transport a ainsi concentré une part importante de l’attention des pouvoirs publics et des chercheurs académiques. Le réseau étant le lieu physique du marché de gros, tous se sont accordés sur l’impératif que l’accès au réseau soit non-discriminatoire. Les pays concernés par la libéralisation ont adopté différents modèles pour garantir cet accès : les pays européens (à l’exception de la France et de l’Allemagne) ont créé des Gestionnaires de Réseau de Transport indépendants des opérateurs historiques intégrés, tandis qu’aux États-Unis la gestion des réseaux était confiée à des opérateurs indépendants.

Mais sous quelles conditions économiques vendre l’accès au réseau de transport ? Il s’agissait là d’un problème nouveau : les électriciens étant verticalement intégrés, la question ne s’était jamais posée. La solution la plus naturelle était de considérer des échanges bilatéraux de flux physiques d’électricité et de définir et d’échanger des droits de transport physiques : Une vente d’électricité d’un producteur situé en A à une entreprise ou un distributeur situé en B nécessité alors l’acquisition par les parties contractantes d’un droit de transport de A à B. Les droits de transport doivent respecter en agrégé les capacités des lignes et les lois physiques des réseaux (les lois de Kirchhoff en particulier). Par exemple pour un échange intracommunautaire, un producteur français souhaitant exporter vers la Grande Bretagne doit se procurer la capacité de passage sur l’interconnexion.

Une autre solution, moins naturelle mais aussi compatible avec la complexité de la physique des réseaux maillés avait été proposée par William Hogan, professeur à Harvard et consistait à adjoindre des droits financiers à un système d’enchères ; dans cette organisation du marché, les échanges ne sont plus bilatéraux ; au contraire chaque agent (producteur, consommateur) indique sa propension à payer à travers une courbe d’offre ou de demande ; le système, tenant compte des contraintes de réseau, réalise alors l’allocation qui génère le plus de surplus total (par exemple, si les demandes en les différents nœuds du réseau sont données, le système minimise les coûts : « least-cost dispatch »).

Dans un article fondateur, Hogan avait montré que des droits financiers de transport, qui payent à leur détenteur la différence de prix aux points de soutirage et d’injection, sont une alternative aux droits physiques (en concurrence parfaite). Si les droits financiers sont utilisés, le producteur n’aura pas besoin de se procurer la capacité physique sur la ligne. Il achètera un instrument financier qui compense, disons, la différence entre le prix en Grande Bretagne et le prix en France. Puis, il produira et vendra son électricité sur le marché de gros français, et achètera de l’électricité sur le marché de gros anglais pour la livrer à son client. Le droit financier le protège contre toute variation de prix, causée par exemple par la congestion sur la ligne. Les droits financiers ne sont donc qu’un instrument de couverture des risques.

Avec Paul Joskow, du Massachussetts Institute of Technology (maintenant président de la Sloan Foundation), nous avons examiné la situation lorsque les marchés sont imparfaits, et montré qu’un producteur en monopole local (en un nœud du réseau) ou un acheteur en monopsone local peuvent accroître leur pouvoir de marché en utilisant astucieusement les droits de transport, physiques ou financiers, et avons énoncé les principes pouvant guider les autorités de la concurrence en la matière.

5. Peut-on être un peu plus précis sur la manière de construire les prix d’accès aux réseaux d’infrastructures ?

De manière générale, la conception des signaux tarifaires vise plusieurs objectifs, que l’on peut illustrer à propos de l’infrastructure ferroviaire :

1°) Promouvoir l’efficacité allocative. Il s’agit de guider l’attribution de sillons en vue d’une utilisation et d’une répartition optimale : entre les différentes activités, telles que, par exemple, le transport de voyageurs longue distance, les trajets journaliers, le fret, mais également les besoins de maintenance de ces sillons ; et entre les différents opérateurs. Dans une perspective plus dynamique, l’efficacité allocative consiste également à orienter les investissements. Nous pouvons par exemple citer le cas de la réforme ERTMS 2 (European Rail Traffic Management System), dédiée à la gestion des capacités du réseau. Une approche consiste à imposer des normes et à tarifer les sillons de sorte qu’un opérateur qui ne serait pas en conformité avec les normes devrait payer une redevance supplémentaire. Cela constituerait une façon de mettre en œuvre l’ERTMS 2. Un premier objectif des signaux tarifaires réside donc dans la recherche de l’efficacité allocative.

2°) Assurer un niveau de recettes suffisant à l’entreprise ferroviaire. L’objectif des opérateurs est bien entendu de dégager des profits. Sur cette question, une approche économique fondamentale est celle de Ramsey-Boiteux. Que nous enseigne cette théorie ? La règle de Ramsey-Boiteux postule qu’un monopole naturel réalise des pertes s’il doit fixer son prix au niveau de son coût marginal (car il supporte un coût fixe initial important qu’il doit couvrir). Pour parvenir à l’équilibre budgétaire, l’opérateur doit appliquer une tarification supérieure au coût marginal et inversement proportionnelle à l’élasticité de la demande : l’idée est de récupérer les coûts fixes sur les services pour lesquels la demande est la moins élastique et donc la perte économique la plus faible. Le taux de marge associé à la tarification de Ramsey-Boiteux est donc une fonction décroissante de l’élasticité-prix de la demande. Autrement dit, la théorie de Ramsey-Boiteux est une théorie de tarification intuitive. La structure de prix relatifs résultant des principes de Ramsey-Boiteux n’est pas très différente de celle d’une entreprise privée ; la différence majeure est celle du niveau des prix : les prix sont plus bas car l’objet de la régulation est de limiter le pouvoir de marché.

Malgré son caractère très innovant, la mise en œuvre de l’article fondateur de Marcel Boiteux a été freinée par le manque d’information du régulateur sur les élasticités des demandes. Les critiques de cette approche économique et partisans du statu quo pointaient à juste titre cette asymétrie d’information. L’introduction de prix plafonds à la fin du XXe siècle fût une réponse à cette critique (et en même temps permit l’introduction d’incitations plus fortes comme nous l’avons vu précédemment). En effet, les schémas de prix plafonds encouragent les entreprises régulées à pratiquer une structure de prix plus efficace que celles existant avant les réformes, où les prix étaient déterminés de façon administrée, sans grand lien avec les principes économiques de tarification. La flexibilité laissée à l’entreprise dans sa « structure de prix » lui permet de mieux tenir compte de ce que chaque segment du marché peut supporter.

Une seconde innovation permettant la mise en œuvre des travaux de Boiteux fut son extension au cas où certains des biens sont des biens intermédiaires (l’article de Boiteux portait sur les prix des biens/services finaux fournis aux usagers). Le débat tarifaire s’est donc alors déplacé vers celui de la détermination des tarifs que devrait pratiquer l’opérateur historique pour fournir l’accès à ses infrastructures. En effet, dans ces secteurs, la fourniture d’un service par un concurrent nécessite l’utilisation des infrastructures du monopole. Par exemple, la fourniture des télécommunications à longue distance ne peut se faire que si l’on a accès à la boucle locale. De même, la fourniture d’électricité nécessite un accès au réseau de transmission et de distribution.

La réglementation de l’accès s’impose pour deux raisons, liées au fait que l’entreprise détient une infrastructure « essentielle ». Tout d’abord, l’entreprise ayant un monopole sur l’accès, elle va pratiquer des prix d’accès trop élevés. De plus elle peut être tentée d’exclure certains concurrents afin d’augmenter ses profits sur le marché de détail concerné. Se pose donc la question de la détermination des prix d’accès, c’est-à-dire des prix tarifés par l’opérateur pour accorder l’accès à son infrastructure. La fixation des prix d’accès à ces « infrastructures essentielles » doit concilier notamment ouverture à la concurrence et préservation de l’incitation pour l’opérateur historique afin qu’il maintienne ou développe son réseau.

Avec Jean-Jacques Laffont, nous avons montré la similitude entre le problème de la tarification de l’accès et celui du monopole multi-produits. L’accès doit contribuer comme les autres services au financement des coûts fixes d’infrastructure, selon les préceptes de Ramsey-Boiteux. Cette similitude avec les problèmes de tarification de l’entreprise multi-produits conduit à proposer d’utiliser, pour la régulation incitative, un « price-cap » global, sur un panier comprenant les biens vendus au détail mais aussi les services d’accès en gros.

Plus récemment, avec Jean-Charles Rochet, nous avons participé au développement d’un nouveau champ de l’économie industrielle, en proposant le concept de « plateforme-multifaces » (ou multi-sided market), qui étudie les situations dans lesquelles sont fournis des services à plusieurs types d’usagers, les bénéfices tirés par un côté dépendant de la manière dont fonctionnent les autres. Ce concept s’applique à toutes les industries organisant des interactions entre deux ou plusieurs catégories d’usagers (comme Internet, les moteurs de recherche, les systèmes d’exploitation d’ordinateur, les médias, les « réseaux » de cartes bancaires…). Par exemple, les incitations d’un concepteur de jeux vidéo ou d’applications à développer son produit pour une console de jeux ou un système d’exploitation dépendent du nombre d’utilisateurs en face et de leur composition sociodémographique.

Ces marchés soulèvent des questions nouvelles aux économistes, telle que la détermination du partage optimal des coûts entre les différentes catégories d’usagers. En effet, on observe que ceux-ci se sont souvent développés à travers des prix très faibles d’un côté du marché, cela permettant d’attirer des utilisateurs de ce côté et apportant indirectement des recettes sur l’autre coté. La structure des prix entre les deux côtés du marché compte alors, pour tirer pleinement parti des externalités entre ceux-ci.

L’idée de base est simple : le coût de servir un usager n’est pas le simple coût physique de le servir ; au contraire l’on doit défalquer le gain réalisé de l’autre côté du marché. Par exemple, un paiement par carte par un détenteur de carte bancaire génère pour la banque du détenteur un profit provenant de la commission commerçant (directement dans le cas d’American Express, indirectement à travers la commission d’interchange pour une banque membre de Visa ou MasterCard). Ca explique pourquoi les cartes sont souvent gratuites et leur usage fait l’objet d’un prix négatif (miles, cash-back bonuses) ou nul. De même pour Google (utilisateurs et publicitaires) ou une grande partie de la presse écrite.

Le modèle économique dépend alors des élasticités des demandes ainsi que des externalités entre les différentes faces du marché. Souvent, et comme le suggèrent les exemples ci-dessus, la structure des prix est très favorable à un côté du marché et très défavorable à l’autre. Prix prédatoires et prix abusifs ? Rien n’est moins sûr, car l’analyse montre que ce n’est pas forcément le cas ; d’ailleurs de telles structures de prix sont pratiquées par des entreprises sans pouvoir de marché. L’analyse a aussi montré quand de tels prix peuvent poser problème. En tout, la théorie des marchés multifaces a abouti à la conception d’une théorie éclairant les comportements des entreprises sur ces marchés apparemment disparates, qui est régulièrement utilisée tant par les sociétés de conseil en gestion que par les autorités de la concurrence.

6. Ceci suggère qu’il faut avoir une vision très cohérente des questions tarifaires et de réglementation des marchés ?

Ceci peut être illustré en revenant sur le secteur ferroviaire, dont certaines activités sont maintenant soumises à une forme de concurrence classique, sur le marché, ce qui est le cas du fret ; et d’autres demeurent en situation de monopole comme les transports régionaux de voyageurs, pour lesquelles la forme de concurrence envisagée par le règlement européen OSP est plutôt une concurrence « pour » le marché, par zones géographiques.

Dans tous les cas, la formule de Ramsey-Boiteux reflète ce que le marché « peut supporter » (en termes de prix), en considérant les coûts supportés par l’opérateur. Quelles sont les implications pour la tarification de l’accès au réseau par le propriétaire d’infrastructure ? Cela dépend de la structure du secteur.

Dans le cas d’une concurrence parfaite en aval, il convient d’appliquer un tarif d’accès linéaire. Dans ce cas, il faut donc que le tarif d’accès soit supérieur au coût marginal de l’activité amont afin de pouvoir couvrir les coûts fixes de l’infrastructure. Dans le cas d’une situation monopolistique en aval, il convient en revanche d’appliquer une tarification en deux parties avec un montant forfaitaire payé par l’opérateur au gestionnaire de réseau (couvrant ainsi les coûts fixes) et un tarif d’accès reflétant le coût marginal pour le gestionnaire d’infrastructures. En appliquant la formule proposée par ramsey–boiteux, dans ce cas, le tarif d’accès devrait même être inférieur aux coûts car il convient de compenser en partie la distorsion de monopole.

Ainsi, le pire scénario est celui d’une situation de monopole et d’une tarification linéaire. Dans ce cas, le prix fixé sera relativement élevé et impactera négativement l’utilisation du réseau ! Il faut s’engager soit dans une situation monopolistique soit dans une structure concurrentielle. Mais on ne peut pas à la fois avoir une situation de monopole et réguler le secteur comme s’il était défini par une structure concurrentielle.

Pour résumer, il faut mettre en œuvre une tarification linéaire lorsqu’on est dans une situation de concurrence. C’est le cas par exemple du fret. Mais quand il y a des contrats ou des concessions, comme c’est le cas par exemple pour les trains régionaux, il faut une tarification en deux parties. Il faut bien réfléchir à ces différentes solutions de tarification. Souhaitons-nous qu’il y ait des segments en situation monopolistique et d’autres qui soient en concurrence ? Voulons-nous de la concurrence dans ou pour le marché pour les trains à grande vitesse ? Une fois ces questions résolues, il convient d’appliquer les différents schémas tarifaires esquissés ci-dessus.

7. Faut-il définitivement écarter l’hypothèse de subventions pour la couverture des coûts fixes ?

La théorie de l’optimum premier apporte une réponse non ambiguë à la question du choix du financement : les prix tarifés aux consommateurs par le concessionnaire doivent s’aligner sur les coûts marginaux, et tout déficit (lié par exemple à l’existence d’un coût fixe) doit être couvert par le budget. Plus généralement, la théorie de Ramsey-Boiteux exige une couverture partielle (dans le cas de subventions par des fonds publics coûteux pour la société) ou globale (en cas de contrainte d’équilibre budgétaire).

Au niveau d’un service particulier, disons une ligne ferroviaire peu usitée, la question n’est pas seulement celle de sa tarification, mais aussi celle de savoir si on veut garder ou fermer la ligne ou service. Depuis au moins Adam Smith (1776), les économistes ont donc réfléchi au problème de la tarification lorsque les conditions sous-jacentes à la théorie de l’optimum premier ne sont pas réunies. La principale difficulté posée par l’application de la tarification au coût marginal ou sa généralisation par Boiteux est l’absence d’indication quant à l’intérêt social de produire le service (Smith 1776, Coase 1945, Allais 1947).

En effet, la fonction de demande n’est en général connue que localement, autour de la demande au coût marginal. Si le service est en partie au moins financé par le contribuable ou bien par des subventions croisées à partir des profits tirés d’autres segments, l’information disponible ne permet alors pas de savoir s’il faut continuer d’opérer le service, c’est-à-dire si la somme du surplus des consommateurs et du profit de l’entreprise excède le coût fixe. Une tarification testant les propensions à payer dans la zone de prix plus élevés est alors nécessaire (voir mon article de 2012 avec Glen Weyl à ce sujet).

L’utilité du service n’est par contre pas en doute si sa tarification couvre ses coûts puisque le surplus net des consommateurs est nécessairement positif et l’entreprise n’impose pas de charges au contribuable.

8. Ce cadre de régulation est-il compatible avec la poursuite d’objectifs de redistribution ou d’aménagement du territoire ?

Dans les secteurs de réseaux, l’objectif d’équité se traduit par une solidarité tarifaire : les consommateurs « riches » et/ou vivant dans des zones peu coûteuses à desservir subventionnent les consommateurs à faibles ressources (via des tarifs sociaux) et/ou ceux vivant dans des zones coûteuses à desservir (via des tarifs uniformes). En payant un prix supérieur à leur coût, ils compensent la différence entre le coût et le prix (inférieur au coût) payé par les consommateurs à faibles ressources ou vivant dans des zones coûteuses à desservir.

En environnement concurrentiel, le mécanisme de financement par des subventions croisées favorise « l’écrémage » et n’est donc économiquement plus viable : en tarifant ses prestations au-dessus des coûts dans certaines zones pour compenser les pertes réalisées dans les zones déficitaires, l’opérateur laisse des marges de manœuvres à des concurrents aussi efficaces (voire moins efficaces) mais qui n’ont pas l’obligation de servir des clients ou des zones non rentables. Pour contrecarrer les stratégies d’écrémage de ses concurrents, l’opérateur en charge du service universel doit baisser ses tarifs dans les zones les plus exposées à la concurrence (c’est-à-dire les moins coûteuses à desservir). Dans les secteurs dérégulés (télécoms, énergie,…) confrontés à cette problématique, un fonds de compensation des missions de service public, concurrentiellement neutre, a alors été mis en place dans la plupart des pays ayant restructuré ces secteurs.

Contrairement à une idée reçue, il n’y a donc aucun conflit entre service public et concurrence. Ainsi le rééquilibrage des prix qui a suivi l’introduction de la concurrence s’est accompagné d’obligations de service universel, protégeant les plus démunis et veillant à l’aménagement du territoire, plus transparentes et rendues compatibles avec la concurrence entre opérateurs.

D’autres formes de redistribution seraient cependant envisageables : via l’impôt et des transferts de revenus directs. Sous des conditions restrictives, Atkinson et Stiglitz (1976) ont démontré que tout objectif de redistribution entre individus devait être accompli via l’impôt sur le revenu (et non via des missions de service public) afin de ne pas distordre les choix de consommation des agents économiques.

En effet, la mise en place de missions de service public revient à imposer des choix de consommation à certaines catégories de citoyens. Mieux vaut, selon Atkinson et Stiglitz, éviter le paternalisme et redistribuer le revenu à travers la fiscalité directe que d’utiliser la fiscalité indirecte (dont font partie conceptuellement les missions de service public, même si techniquement il ne s’agit pas d’outils fiscaux car le financement de ces missions passe par les subventions croisées au sein de l’entreprise régulée plutôt que par la fiscalité de l’État). En termes concrets, Atkinson et Stiglitz suggèrent qu’un ménage à revenu faible ou un ménage rural de l’Ariège devrait disposer de plus de revenu, mais payer plus cher son téléphone, son électricité et son courrier, ceci afin de choisir librement son panier de consommation ; face à la vérité des prix, ce ménage préférerait peut-être réorienter sa consommation.

Si certaines hypothèses du théorème d’Atkinson-Stiglitz sont relâchées (notamment si les consommateurs ont des goûts différents – et non seulement des consommations différentes – selon leur revenu, ou si les revenus sont imparfaitement observables – ce qui est souvent le cas dans les pays en développement), l’instrument de redistribution que constitue le service universel peut s’avérer optimal.

En particulier, si l’on ne dispose pas de toute l’information nécessaire pour cibler les bénéficiaires d’une aide financière directe, subventionner certains produits/services spécifiquement achetés par la population visée peut permettre d’amoindrir ce problème d’information. Par exemple, la péréquation tarifaire nationale que permet le service universel aide indirectement les ménages ruraux en subventionnant leur consommation de services postaux. Au contraire, à supposer qu’il n’y ait pas de service universel, une aide financière directe accordée aux personnes déclarant vivre en zone rurale pourrait inciter des ménages urbains à déclarer une adresse rurale afin de bénéficier eux-mêmes de l’aide, et l’objectif poursuivi ne serait pas atteint.

Cependant, la première question que l’on doit se poser, avant de déterminer les modes de financement optimaux, est la suivante : est-il justifié de mettre en place des missions de service public ? Ensuite si l’on décide d’utiliser la « fiscalité » indirecte pour favoriser par exemple, des ménages défavorisés ou certaines régions, il convient de rendre cette ambition explicite. Or, en France comme dans de nombreux pays dans le monde, ce type d’actions redistributives a tendance à être entrepris de façon opaque.

Les missions de service public doivent être clairement définies afin de satisfaire au mieux l’objectif poursuivi et leur efficacité doit être comparée à d’autres instruments de redistribution, compte tenu des caractéristiques des marchés concernés et de leur évolution. Or, bien souvent, les mesures s’empilent, sans que l’ensemble du dispositif soit remis à plat, réduisant l’efficacité des politiques menées. Globalement, on peut regretter l’absence de débat et de réflexion autour de la définition des missions de service public et des moyens de les satisfaire ; absence qui s’explique par l’existence d’un ensemble de tabous, de dogmes et de mythes ainsi que par un appétit fort pour l’opacité de la part de certaines parties prenantes, se traduisant par un manque patent d’analyses coût-bénéfice et de rationalisation des choix budgétaires de l’État.

9. L’État régulateur n’est-il pas un État affaibli ?

Comme je l’ai dit précédemment, la nouvelle donne n’élimine pas l’État, mais redéfinit son rôle : l’État producteur d’antan est en partie devenu un État régulateur. L’État n’est pas affaibli : au contraire, il peut utiliser l’indépendance de sa régulation pour mettre plus en avant le service du public. En effet, des autorités de régulation indépendantes sont plus fortes que les ministères de tutelle face aux groupes de pression.

Bien sûr, l’indépendance n’est pas une panacée. Pour limiter les risques de dérive des agences indépendantes, la première condition est la nomination à leur tête de personnalités indépendantes et respectées à la suite d’auditions focalisées sur leurs qualifications. Une fois en place, la consultation, la transparence et l’exigence d’avis motivés créent des incitants à des décisions économiquement justifiées.

Enfin, une « autorité indépendante » ne doit pas être (et d’ailleurs n’est jamais) complètement indépendante : une majorité qualifiée du Parlement doit pouvoir en suspendre les dirigeants sur la base de leur politique globale (et non sur une question d’actualité politique) ; les décisions, elles, doivent pouvoir faire l’objet d’un appel devant une cour de justice.

L’hostilité ambiante à leur encontre ne peut laisser indifférent. L’on risque d’oublier que la soumission des télécommunications, de l’énergie, et des autres industries dites de réseau à une régulation indépendante (agences, et dans certains pays, juges) est la réponse à la tentation permanente du politique d’abaisser artificiellement les prix, compromettant ainsi l’investissement et la viabilité des réseaux à long terme, de limiter ou d’organiser la concurrence, ou encore de faire des cadeaux à certains groupes de pression électoralement sensibles au prix de distorsions économiques importantes. L’évolution de la conception de l’État vers celle d’un acteur aux pouvoirs plus limités, mais de par son indépendance et l’élimination des conflits d’intérêt, en même temps plus fort dans son rôle de régulateur que ne l’étaient les ministères, est donc souhaitable.

10. L’insistance des économistes sur la notion d’efficacité ne leur fait-elle pas oublier les questions éthiques ? La correction des défaillances de marché suffit-elle ?

La théorie économique de base nous enseigne que le jeu concurrentiel « pur et parfait » aboutit à une allocation efficace des ressources : il crée le maximum de valeur à moindre coût, sans gaspiller les ressources. Toutefois, les conditions de concurrence pure et parfaite ne sont que rarement satisfaites : Il existe des « défaillances de marché » : certains acteurs économiques ont un certain pouvoir de marché ; les actions de certains agents peuvent affecter positivement ou négativement le bien-être d’autres agents mais ces « externalités » ne sont pas prises en compte dans les décisions individuelles ; etc. De plus, allocation « efficace » des ressources ne signifie pas allocation « équitable » des ressources. Le « gâteau » à se partager est optimisé, mais son partage ne correspond pas forcément à notre vision éthique de l’équité. D’où la nécessité d’une intervention publique pour partager de façon plus équitable les revenus créés (objectif de « redistribution »).

Beaucoup de grands acteurs de la société civile ont une vision différente du marché et de l’intervention publique. Ils reprochent aux économistes de ne pas tenir assez compte des problèmes d’éthique, réclament une frontière claire entre domaines marchand et non marchand. Certains de ces débats reflètent une méconnaissance de nombreux travaux d’économistes, théoriques et expérimentaux (sur le terrain, en laboratoire, en neuroéconomie), qui couvrent des sujets aussi divers que la morale et l’éthique ou le rôle des normes sociales.

Les sujets éthiques à mon avis nécessitent une réflexion en profondeur (plus profonde certainement que celle offerte par les deux côtés du débat). Prenons, dans un domaine extérieur aux réseaux, l’exemple du don d’organes, où les problèmes éthiques sont particulièrement délicats. Il y a longtemps, l’économiste Gary Becker remarquait que l’interdiction de vendre son rein limitait les dons, condamnant des milliers de personnes à mourir chaque année faute de donneurs, ce qui pose un problème moral évident. Il recommandait la création d’un marché de dons d’organes.

Nous éprouvons cependant tous une gêne vis-à-vis de ce marché. Il convient de comprendre pourquoi. Craignons-nous que les donneurs ne soient pas assez informés des conséquences de leur acte (dans ce cas, il y a un remède simple : l’obligation d’écouter une information impartiale) ? La vente d’un organe, en dévoilant que des individus sont prêts à perdre un rein pour quelques centaines d’euros, de même que la gestation pour autrui, la prostitution ou le mercenariat, révélerait-elle des inégalités que nous voudrions oublier (ce ne peut être toute l’explication cependant, car nous n’avons pas la même réaction pour le ramassage des ordures) ? Ou bien, dans ces exemples, voulons-nous protéger les gens contre l’exploitation de leur préférence excessive pour le présent qui leur fait accepter une somme disponible tout de suite contre des effets néfastes à long terme ?

Il s’agit aussi de bien réfléchir au contrefactuel, la possible migration des marchés vers d’autres marchés souterrains peu reluisants pour lesquels nous nous défaussons de notre responsabilité en disant qu’ils n’ont pas été sanctionnés par l’État.

Souvent, notre attitude vis-à-vis du marché relève du refus de comparer l’argent avec d’autres objectifs. Par exemple, l’introduction de considérations financières heurte nos vues sur le caractère sacré de la vie humaine. La vie « n’a pas de valeur ». Les choix budgétaires en matière de santé (au sein d’un hôpital ou entre différentes recherches) peuvent pourtant faire baisser ou monter la mortalité. Mais jamais nous ne voudrons admettre que nous faisons ces arbitrages, qui nous mettent presque aussi mal à l’aise que Sophie contrainte de choisir lequel de ses deux enfants survivra, sous la menace que les deux soient gazés si elle refuse ce choix. Ces répugnances sont-elles provoquées par la peur de perte de dignité qui s’ensuivrait, même si l’on ne faisait que contempler de tels choix ? Ou par la peur que la société s’engage sur une pente glissante ?

Pour avancer, il faut identifier en profondeur les ressorts de la moralité et des comportements, pour comprendre comment différentes institutions, marchés ou systèmes plus administrés affectent nos valeurs et nos comportements. Une analyse en profondeur des défaillances du marché semble plus fructueuse pour la conception des politiques publiques qu’une simple indignation ou répugnance, dont la justification ne fait pas l’objet d’une analyse, et qui s’est montré dans le passé un pauvre guide des valeurs morales.

Vous devez être abonné au moniteur pour lire la suite de ce contenu
PAS ENCORE ABONNÉ

1)  » How to Unlock Private Investment in Support of Green Growth », Issue note, Green Growth and Substainable Development Forum, OCDE, 2013. 2) cf. rapport du CEDD, « Le financement de la croissance verte », 2010.

Le Moniteur Boutique
Accéder à la boutique
En poursuivant votre navigation sur ce site, vous acceptez l'utilisation de cookies pour vous proposer des services et offres adaptés à vos centres d'intérêt. OK En savoir plus X