En direct

La performance énergétique des bâtiments Comment moduler la règle pour mieux atteindre les objectifs ?

le 23/07/2010  |  Performance énergétiqueCommande publiqueRéglementation techniqueDéveloppement durableEnvironnement

Ma newsletter personnalisée

Ajouter ce(s) thème(s) à ma newsletter personnalisée

Performance énergétique
Commande publique
Réglementation technique
Développement durable
Environnement
Energies renouvelables
Bois
Architecture
France
Europe
Rhône
Charente-Maritime
Bas-Rhin
Isère
International
Loiret
Paris
Maine-et-Loire
Finistère
Alpes-Maritimes
Hygiène
Santé
Pyrénées-Orientales
Energie
Technique
Marchés privés
Réglementation
Immobilier
Pyrénées-Atlantiques
Gironde
Loire-Atlantique
Ille-et-Vilaine
Yvelines
Valider

Sommaire

INTRODUCTION4

I. Une triple révolution culturelle5

A. Concevoir mieux pour économiser l’énergie5

B. Réaliser en s’astreignant au zéro défaut6

C. Poursuivre un objectif de performance6

1. La part du comportement des utilisateurs6

2. Les limites du « calcul réglementaire »7

3. Le risque du contournement7

II. Les marges possibles de modulation8

A. Le refus de la facilité8

1. Maintenir la contrainte sur l’ensemble des cinq usages8

2. Conserver le coefficient de conversion de l’électricité9

3. Compter les énergies renouvelables utilisées sur place10

B. L’adaptation selon la localisation11

1. Généraliser le modèle retenu par « Effinergie »11

2. Intégrer le besoin spécifique du confort d’été12

C. L’adaptation selon la taille et la destination12

1. Ajuster la contrainte pour les petits logements12

2. Interpréter la contrainte pour les bâtiments tertiaires14

III. Le défi de la mise en œuvre16

A. Le passage à une diffusion de masse16

1. L’effet d’illusion des expériences pilotes16

2. Les contraintes du contexte institutionnel17

3. La formation des professionnels18

4. L’implication des industriels19

B. L’adhésion du plus grand nombre20

1. La sensibilisation20

2. L’accompagnement21

3. Le financement23

IV. L’impact économique26

A. Le débat sur le surcoût26

B. La consommation d’énergie27

C. Les effets d’entraînement28

1. La connexion avec la rénovation28

2. Les pistes pour la recherche28

3. L’ouverture de marchés extérieurs30

V. Les faux débats théologiques31

A. La « guerre des trois »31

B. Le bilan carbone32

C. Le contenu en CO2 de l’électricité33

1. Les éléments de bon sens33

2. La saisonnalité de la demande d’électricité34

3. Le concept d’émission « marginale »34

4. Les termes du quiproquo35

5. Un raisonnement par l’absurde36

6. Le concept d’émission « moyenne marginale »37

7. Le lien avec la taxe sur le carbone37

8. Le besoin d’un plafond d’émission de CO238

9. Un cadre clair pour des choix optimisés3

9Conclusion39

La performance énergétique des bâtiments Comment moduler la règle pour mieux atteindre les objectifs ?

INTRODUCTION

Ce rapport conclut une mission quelque peu exceptionnelle pour l’OPECST dont la vocation est traditionnellement d’étudier à froid des questions scientifiques ou technologiques dans une logique prospective. Cette fois, il s’est agi de travailler à chaud sur un domaine d’application pratique directe, où la dimension scientifique ou technologique n’entre pas nécessairement en jeu de manière déterminante.

En dépit de ce contexte d’urgence, vos rapporteurs se sont néanmoins attachés à poursuivre la démarche d’investigation la plus complète possible, en veillant à préserver dans leurs analyses la part revenant au développement technologique et scientifique. Une quarantaine d’auditions ont pu être organisées, et six visites sur place, moitié en France, moitié à l’étranger, ont permis de recueillir une précieuse expérience de terrain.

C’est le législateur qui a saisi l’OPECST pour cette étude, dont le principe a été inscrit à l’article 4 de la loi du 3 août 2009 par un amendement adopté au Sénat le 28 janvier 2009. Une saisine de l’OPECST par la commission des affaires économiques de l’Assemblée nationale, en mars 2009, a permis de désigner vos rapporteurs le 6 mai 2009, et d’engager les travaux à partir du 18 juin 2009, en anticipant l’adoption définitive du projet de loi et sa promulgation. A quelques jours près, puisque à ce jour, 2 décembre, ils ont tenu l’objectif de rendre leurs conclusions en novembre.

La mission confiée à l’OPECST concerne la mise en œuvre de la nouvelle réglementation thermique des bâtiments fixée par le même article 4 de la loi du 3 août 2009. Celle-ci fixe un plafond global de 50 kWh par mètres carrés et par an, en énergie primaire, pour la consommation d’énergie sur cinq usages : le chauffage, l’eau chaude, la ventilation, la climatisation, l’éclairage. Il s’agit pour l’OPECST de « proposer un niveau pertinent de modulation » pour cette norme.

La loi mentionne que cette modulation doit se faire « en fonction de la localisation, des caractéristiques et de l’usage des bâtiments », mais aussi en vue « d’encourager la diminution des émissions de gaz à effet de serre générées par l’énergie utilisée ». Par ailleurs, en visant l’alinéa introductif de l’article, elle indique que la modulation doit intégrer l’objectif de « susciter une évolution technologique et industrielle significative dans le domaine de la conception et de l’isolation des bâtiments et pour chacune des filières énergétiques ».

La mission confiée à l’OPECST comporte en outre deux aspects complémentaires. L’un concerne un élément d’analyse préalable, à savoir l’examen des « questions liées aux facteurs de conversion d’énergie finale en énergie primaire » ; l’autre relève du besoin d’une évaluation globale : « mesurer l’impact économique de l’ensemble du dispositif ».

Pour mener à bien cette tâche, vos rapporteurs se sont entourés d’un comité de pilotage comprenant pour moitié d’éminents spécialistes de la recherche sur l’énergie (MM. Claude Crampes, Pierre-René Bauquis, Jean-Paul Langlois, Christian Ngo) en compagnie desquels ils avaient déjà conduit une précédente mission, et pour moitié d’éminents spécialistes du bâtiment venus du PREBAT (MM. François Perdrizet et Jean-Paul Fideli), du CSTB (M. Jean Carassus) ou de l’Académie des technologies (MM. Yves Farge, Alain Mongon, Michel Frybourg). MM. Claude Crampes, professeur d’économie à l’Université de Toulouse, et Jean Carassus, ancien directeur du département de sciences humaines au CSTB, représentaient la dimension des sciences humaines au sein de ce conseil scientifique.

Leurs conseils et avis ont été précieux pour appréhender rapidement une matière complexe, jusque-là surtout maîtrisée par une petite communauté institutionnelle qui encadre l’évolution de la réglementation thermique depuis une vingtaine d’années. Mais les conclusions de vos rapporteurs n’engagent évidemment qu’eux-mêmes.

La formulation de celles-ci suppose au préalable la présentation du contexte d’analyse dans lequel s’opère ce resserrement drastique de la réglementation thermique voulu en 2007 par le « Grenelle de l’environnement », dont la modulation confiée à l’OPECST doit adoucir les effets par trop excessifs. Ce contexte d’analyse est maintenant largement partagé au sein du monde professionnel du bâtiment, ainsi que l’a illustré la convergence des démarches présentées lors du salon international de la construction « Batimat » du 2 au 9 novembre dernier. Il ne s’agira donc que d’en rappeler les axes principaux.

Quant aux conclusions de vos rapporteurs, proprement dites, elles s’organisent autour de deux refus et de trois convictions.

Les deux refus concernent d’une part, toute prise de position dans l’affrontement entre les filières énergétiques, et d’autre part, tout enfermement dans une approche partielle et partiale de la mesure des émissions de gaz à effet de serre.

Les trois convictions concernent :

 d’abord, l’absolue nécessité d’aller de l’avant dans la sobriété énergétique des bâtiments, au nom du bien-être des utilisateurs et de la lutte contre le changement climatique, ce qui suppose un saut qualitatif dans l’isolation et la ventilation ;

ensuite, l’opportunité qu’offre la construction, plus libre de contraintes que la rénovation, de pousser l’effort dans cette direction le plus loin possible, et le plus vite possible, sous réserve d’une nécessaire maîtrise des coûts ;

enfin, le rôle crucial dévolu au dynamisme industriel et à la formation professionnelle dans cette évolution.

I. Une triple révolution culturelle

En s’engageant dans cette étude, vos rapporteurs n’étaient pas familiers du secteur de la construction, et le premier apport des auditions et des visites qu’ils ont effectuées a été de leur permettre de mieux prendre conscience des enjeux d’un passage à la basse consommation.

Il était en effet évidemment essentiel d’apprécier pleinement la portée de ces enjeux pour mieux comprendre les limites éventuelles des modulations envisageables.

De fait, le mouvement vers la basse consommation leur a semblé prendre la dimension d’une véritable révolution culturelle à trois égards : d’abord, la nécessité de faire une place bien plus importante aux travaux initiaux de conception ; ensuite, le besoin d’amener les professionnels du bâtiment à intégrer la démarche, désormais courante dans le monde industriel, du zéro défaut ; enfin, le basculement de l’ensemble du secteur dans une logique de recherche de la performance, et non plus seulement de respect d’une obligation de moyens.

A. Concevoir mieux pour économiser l’énergie

Le premier réflexe qu’on peut avoir face à l’idée d’un abaissement drastique de la consommation énergétique des bâtiments consiste à craindre que cela ne soit pas possible, tant le nombre de paramètres à maîtriser pour atteindre cet objectif semble important.

Il faut évidemment renforcer l’isolation, ce qui consiste finalement à piéger de l’air immobile dans un maximum de couches indépendantes superposées dans le but de minimiser les transferts d’énergie par choc entre les molécules. L’isolation extérieure est considérée comme la plus efficace car elle élimine d’emblée presque tous les « ponts » thermiques en plaçant le bâtiment sous une sorte de cloche protectrice ; c’est une pratique encore peu développée en France, où l’on maîtrise plutôt l’isolation intérieure, alors qu’elle est courante en Suisse et en Allemagne.

Mais une isolation renforcée sur la base d’une construction classique ne saurait suffire. Elle se heurte du reste au phénomène physique qui veut que le surcroît d’isolation obtenu diminue avec le nombre de couches rajoutées : au-delà de 30 centimètres, la dizaine de centimètres d’épaisseur supplémentaire diminue la surface utile du bâtiment sans procurer un gain sensible pour l’isolation.

De fait, les visites des réalisations conduites par Effinergie à Lyon, Minergie à Fribourg en Suisse, ou par la ville de Fribourg-en-Brisgau en Allemagne, ont vite permis à vos rapporteurs de prendre conscience que la faisabilité des bâtiments à basse consommation d’énergie dépend d’une condition majeure : un très important effort de conception initiale.

Cet effort doit notamment porter sur trois points :

- d’abord, il faut adopter autant que possible une forme de bâtiment qui minimise les échanges thermiques avec l’extérieur : il s’agit d’obtenir le volume intérieur le plus grand possible pour la surface externe la plus réduite possible. L’idéal géométrique de ce point de vue est la sphère, dont la forme parallélépipédique la plus proche est le cube. Comme l’a expliqué M. Alain Liebard à vos rapporteurs, à partir d’une vue de dessus d’une construction en L, tous les retraits, toutes les ailes ne font qu’accroître beaucoup la surface d’exposition pour un faible gain en volume habitable. Les maisons performantes du point de vue énergétique ont fondamentalement un aspect un peu massif, sauf si l’invention des architectes parvient à compenser cet inconvénient par un effet d’optique ; ainsi, sur le site Minergie de Cormeilles-en-Parisis, les toits sont posés par-dessus l’habitacle isolé comme s’il s’agissait de structures extérieures décoratives ;

- ensuite, il est essentiel d’assurer une étanchéité à l’air la plus parfaite possible (on minimise la « perméabilité ») pour donner toute son efficacité à l’isolation. Cela suppose un effort de conception au niveau des méthodes de construction, pour atteindre la perfection de réalisation nécessaire, ce qui donne un intérêt nouveau à la préfabrication d’éléments, mais aussi à la qualité d’assemblage ; en outre, une coordination plus précise des corps de métiers (un esprit d’équipe) devient alors indispensable afin d’éviter que la finition du travail de l’un ne soit remise en cause par l’intervention de l’autre ;

- enfin, il s’agit de tirer le meilleur parti des apports naturels en énergie du site. Cela concerne l’exposition solaire, qui doit piloter le choix de l’orientation cardinale du bâtiment et l’inclinaison du toit, de façon à profiter du rayonnement solaire en hiver, et à s’en protéger en été. Cela concerne aussi l’orientation du bâtiment et de ses ouvertures par rapport aux vents dominants. Ainsi, on ne peut plus présupposer que l’entrée du bâtiment doive donner systématiquement sur la rue. Cela concerne enfin l’utilisation des ressources du sol, si la terre est suffisamment dense pour rendre possible un puits canadien, ou si la proximité d’une nappe d’eau souterraine permet d’y brancher la source d’approvisionnement en calories d’une pompe à chaleur géothermique.

De fait, la préoccupation des apports naturels est singulièrement absente du discours des professionnels qui manifestent un grand scepticisme vis-à-vis de la possibilité de réaliser des constructions à basse consommation à des prix raisonnables, notamment lorsqu’il s’agit de petites maisons individuelles. Vos rapporteurs ont, à cet égard, été frappés par les argumentaires du cabinet Bastide­ Bondoux, puis de l’entreprise Geoxia (propriétaire notamment de la marque « Maison Phénix »).

B. Réaliser en s’astreignant au zéro défaut

La construction en basse consommation implique une deuxième révolution culturelle, qui concerne la qualité de la mise en œuvre. A l’image de la perfection technique que suppose la réalisation de l’imperméabilité de l’enveloppe, les métiers du bâtiment vont devoir, selon une formule souvent reprise par Yves Farge, changer d’étalonnage de précision, le millimètre se substituant au centimètre. La même idée est formulée différemment par Bruno Comby lorsqu’il signale que le traditionnel fil à plomb utilisé pour l’élévation des parois devra maintenant faire place à un niveleur à laser.

Cette évolution correspond en fait à un alignement du secteur du bâtiment sur le monde industriel, qui a dû procéder à une métamorphose similaire de ses procédés techniques à partir des années 70, sous la pression de la concurrence internationale. Le secteur automobile lui aussi, en son temps, a connu la nécessité de s’adapter à un mode de production donnant une importance accrue à la précision.

Tout se passe comme si la globalisation avait connu une forme d’approfondissement avec la préoccupation de la lutte contre le changement climatique et la tension sur les prix des énergies fossiles, au point d’atteindre le bâtiment alors que celui-ci faisait figure jusqu’ici de secteur « abrité » du commerce international, c’est-à-dire préservé de la nécessité de réaliser des forts gains de productivité pour s’adapter à la montée en puissance des économies émergentes.

C’est une forme de rattrapage qui doit donc s’opérer, dont la charge va peser pour beaucoup sur les hommes du secteur, plus que sur les machines, car les activités du bâtiment mobilisent essentiellement du travail artisanal, qui s’appuie sur des outils peu capitalistiques plutôt qu’il ne les sert. Les qualités requises pour exercer les métiers du bâtiment vont s’aligner sur celles devenues nécessaires dans le monde industriel : maîtrise des technologies, soin dans la mise en œuvre, capacité à travailler avec d’autres corps de métiers.

Il s’agira de les mettre en œuvre dans le contexte plus difficile d’activités exercées principalement à l’extérieur, ou dans des espaces ouverts.

Un effort de sensibilisation aux enjeux de la basse consommation, et une formation complémentaire aux procédures et techniques permettant d’atteindre un certain niveau d’exigence dans la prestation fournie, deviennent dès lors cruciaux pour les professionnels du secteur. Il est déjà engagé, et tous les acteurs concernés se mobilisent en ce sens.

En même temps, l’exigence de technicité et de qualité va transformer la nature des métiers du bâtiment, qui apparaîtront moins comme des activités d’exécution et plus comme des activités d’expertise. Cette image nouvelle, associée à l’avantage de contribuer très directement à la mise en place d’un mode de vie plus écologique, devrait susciter des vocations parmi les jeunes gens, et les associations professionnelles (CAPEB, FFB) soutiennent fermement l’évolution vers la basse consommation avec cet espoir.

C. Poursuivre un objectif de performance

L’image de l’imperméabilité rend compte de la nécessité d’une autre forme de révolution culturelle pour le secteur du bâtiment, à savoir l’objectif d’obtenir un résultat, alors que la réglementation thermique a imposé jusque-là, de fait, une contrainte sur les moyens.

De ce point de vue, ainsi que les assureurs en ont fait la remarque à vos rapporteurs lors de l’audition du 4 novembre, la réglementation thermique va devoir suivre une évolution sur la voie de laquelle la réglementation acoustique l’a précédée. En effet, les écarts par rapport à la norme vont devenir aussi sensibles et mesurables que le sont les bruits dans le cas d’une isolation phonique non réglementaire. En l’occurrence, un dérapage de la facture énergétique, après une période initiale de fonctionnement satisfaisant, et en l’absence de toute évidente dérive dans le comportement de consommation, deviendra bien plus facilement repérable.

Cependant, la transition vers une réglementation axée sur la performance suppose une adaptation à trois niveaux :

- d’abord, il deviendra indispensable de mieux faire ressortir la différence entre la performance intrinsèque de l’enveloppe du bâtiment, et la performance atteinte en intégrant le comportement de consommation d’énergie des utilisateurs ;

- ensuite, le « calcul réglementaire », aujourd’hui instrument du respect conventionnel de la norme thermique, ne devra plus être considéré comme la seule manière de rendre compte de la performance intrinsèque de l’enveloppe ;

- enfin, il faudra parvenir à une véritable maîtrise du risque que la réglementation ne soit contournée.

Ces trois problématiques méritent une attention particulière de la part de vos rapporteurs, car elles relativisent la portée de toute forme de modulation de la norme énergétique.

1. La part du comportement des utilisateurs

Chauffage entièrement géothermique, éclairage à partir de combustibles renouvelables, recours très économe à l’eau chaude sanitaire, l’homme des cavernes était un modèle de sobriété énergétique. A l’inverse, un homo sapiens sapiens d’aujourd’hui qui entretiendrait une température intérieure de 25 °C, et prendrait trois bains par jour, dévoierait la performance énergétique de tout bâtiment construit à la norme de la basse consommation.

Ces cas extrêmes illustrent l’écart de consommation énergétique induit par un utilisateur sortant du comportement moyen à partir duquel toute norme thermique est établie.

Ce risque d’écart ne concerne pas a priori les normes de construction, qui visent exclusivement l’état technique du bâtiment au moment de sa livraison. Cependant la logique de maîtrise de la consommation d’énergie, et conjointement, de réduction des émissions de gaz carbonique, met en évidence le besoin de prendre en compte, au stade de la construction, le comportement des utilisateurs à deux niveaux :

d’une part, la livraison d’un bâtiment à basse consommation ne saurait se concevoir sans la fourniture d’un mode d’emploi, voire sans l’organisation d’un suivi de maintenance ; un contrat de suivi sur trois ans est ainsi prévu sur le site Minergie de Cormeilles-en-Parisis ;

d’autre part, dans les cas où le respect de la norme énergétique par la seule configuration technique intrinsèque du bâti s’avère critique en raison des particularités d’utilisation du bâtiment, un « contrôle actif » de la consommation d’énergie doit permettre d’opérer une compensation. Cela concerne particulièrement les bâtiments tertiaires faisant l’objet d’une occupation intense, comme les hôpitaux, ou ceux fonctionnant avec des fréquentes entrées ou sorties depuis l’extérieur, comme les magasins ou les plateformes de traitement du courrier de La Poste. Les potentialités d’économie réalisées par un « contrôle actif » sont au cœur du programme de recherche coopérative HOMES piloté par Schneider, qui a démontré que le gain obtenu par cette voie pouvait être du même ordre de grandeur que celui permis par un renforcement de l’isolation. Le « contrôle actif » implique une mobilisation particulière de l’exploitant du bâtiment, qui peut aller jusqu’à la création de la fonction spécifique de « gestionnaire de l’énergie » (Energy Manager).

En tout état de cause, la livraison d’un bâtiment à basse consommation devra comprendre la fourniture d’instruments de mesure et de suivi permettant au moins de suivre, au mieux de contrôler, la consommation d’énergie dans sa globalité et dans ses composantes.

2. Les limites du « calcul réglementaire »

Il est frappant pour des personnes non familières du secteur du bâtiment de découvrir que ce qu’on appelle le « calcul réglementaire », c’est-à-dire la mesure de la performance énergétique telle qu’elle ressort d’une évaluation conventionnelle, tient lieu de guide exclusif pour certains choix techniques. Ainsi en est-il de la « ventilation simple flux », qui est privilégiée dans certaines constructions, a indiqué un responsable de Geolia, du simple fait qu’elle consomme conventionnellement moins qu’une ventilation double flux, et cela en dehors de toute considération sur la performance globale en matière de consommation d’énergie, puisqu’une ventilation double flux, couplée avec un bâti fortement isolé en zone très froide, permet de réaliser une plus grande économie d’énergie.

A fortiori, le secteur des bâtiments tertiaires avec sa diversité, de l’hôpital au bureau, en passant par le hangar de réparation d’avions chez ADP, dépend entièrement pour sa mise en conformité de gabarits conçus a priori, dont il s’agit simplement, en l’état actuel de l’application du droit, de respecter les spécifications techniques pour assurer la conformité du bâtiment à la réglementation. L’audition des responsables du parc immobilier de La Poste a mis clairement en évidence l’écart qui existe entre le « calcul réglementaire » et la performance effective, notamment lorsque le bâtiment ne correspond à aucun des gabarits prévus.

Il paraît évident que le « calcul réglementaire », dans le meilleur des cas, c’est-à-dire lorsqu’il permet effectivement de prendre en compte le bâtiment tel qu’il est, ne peut au mieux assurer que le respect des conditions nécessaires à la performance à atteindre. Il ne garantit en rien que ces conditions soient suffisantes, et une réflexion toute simple en rend compte : le respect des préconisations de mise en œuvre des matériaux n’exclut nullement une imperfection dans la masse, ou la déformation d’un joint, qui vont affaiblir ponctuellement une couche d’isolation qui remplit parfaitement sa fonction protectrice sur la feuille de calcul.

Seul le résultat mesuré in fine compte véritablement dans une logique de performance, et le « calcul réglementaire » ne peut être qu’un instrument pour s’en rapprocher le plus possible.

3. Le risque du contournement

Il convient de souligner combien toute fixation d’un objectif exigeant de performance thermique reste théorique, si son contournement est conséquent. Le contournement, c’est-à-dire le dépassement frauduleux de la norme énergétique, est une forme de modulation qui n’a nul besoin des conclusions d’une mission de l’OPECST pour s’organiser, et qui vide de son sens toute forme officielle de modulation.

Les questions posées par vos rapporteurs aux différents professionnels rencontrés ont fait ressortir, d’ores et déjà dans le cadre actuel, des estimations de contournement très importantes, notamment pour le domaine de la construction des maisons individuelles : de l’ordre de 50 % à 60 %.

Le contrôle du respect de la norme thermique pour les maisons individuelles est certainement plus complexe que pour les opérations immobilières de taille plus importante, en raison de leur très grand nombre, quelque 150 000 chaque année, et de l’inexpérience de leurs maîtres d’ouvrage, qui sont le plus souvent des particuliers pour qui la construction représente un événement exceptionnel dans leur vie.

Le projet de loi « Grenelle 2 » prévoit que c’est au maître d’ouvrage d’apporter la preuve que son bâtiment respecte la norme thermique. Il faut craindre que celui-ci, même si cette preuve est techniquement établie par un tiers, n’ait dans certains cas qu’un pouvoir de négociation limité face à ses prestataires pour obtenir une rectification de la construction, si un écart est constaté. La collectivité locale ou l’industriel faisant construire un bâtiment tertiaire peut bénéficier du désir des prestataires de préserver leur réputation face à un client qui pourrait être conduit plus tard à faire de nouveau appel à eux. Mais le particulier qui s’est endetté pour acquérir son terrain, puis construire sa maison, et qui n’a pas la chance d’avoir affaire à des professionnels consciencieux, se trouve quelque peu désarmé pour faire rechercher et réparer les défauts de conception, une fois que l’ouvrage est livré. La visite effectuée par vos rapporteurs, à Fribourg-en­Brisgau, en Allemagne, leur a appris le rôle déterminant qu’ont joué les services municipaux pour soutenir le particulier dans ce cas de figure.

Si le respect de la norme repose sur le maître d’ouvrage, il faut qu’il dispose lui-même du pouvoir de la faire respecter

II. Les marges possibles de modulation

Ces observations préliminaires déterminent le cadre d’analyse dans lequel se sont situés vos rapporteurs pour élaborer leurs recommandations relatives à la modulation de la future norme des 50 kWh par mètre carré et par an.

Ces recommandations s’organisent autour de trois idées : tout d’abord le refus de toute facilité pouvant encourager un certain immobilisme au regard du nécessaire progrès technologique ; ensuite, la prise en compte des situations objectivement différentes créées par les différences climatiques à travers le pays ; enfin, la nécessité d’introduire une certaine souplesse dans certains cas présentant une difficulté particulière à raison de la taille ou de la destination du bâtiment.

A. Le refus de la facilité

Vos rapporteurs ont recueilli deux suggestions de modulation qui leur ont semblé peu opportunes, en raison de l’impact négatif qu’elles pourraient avoir sur les développements technologiques indispensables. Elles consistent à jouer sur le nombre d’usages pris en compte ou sur le coefficient de conversion.

Par ailleurs, ils considèrent que la production d’électricité à destination du réseau ne doit pas être prise en compte, à ce stade, par la réglementation thermique.

1. Maintenir la contrainte sur l’ensemble des cinq usages

Les cinq usages pris en compte ont été rapidement rappelés en introduction : le chauffage, l’eau chaude, la ventilation, la climatisation, l’éclairage. Pour être complet, il faut ajouter ce qu’on appelle les auxiliaires, c’est-à-dire les systèmes de commande qui complètent ces cinq fonctions, qui gèrent par exemple les mises en route programmées, et qui consomment de l’électricité. Les auxiliaires sont la plupart du temps comptés avec la ventilation.

C’est l’Ademe qui a suggéré de réduire de cinq à trois, durant une période transitoire de quelques années, les usages pris en compte pour tenir le plafond des 50 kWh. Il se serait agi des trois usages thermiques (chauffage, eau chaude, climatisation) en écartant donc temporairement l’éclairage et la ventilation ; cela aurait desserré la contrainte à hauteur de 10 kWh.

Cependant il est clair que la réduction du nombre d’usages irait par trop à l’encontre de l’objectif d’une optimisation globale de la consommation d’énergie dans le bâtiment, qui est indispensable, car la lutte contre l’effet de serre concerne l’accumulation du gaz carbonique dans l’atmosphère, sans différencier sa source d’émission. C’est un souci de faisabilité qui a empêché jusque-là de considérer d’emblée toutes les sources d’émission possibles.

Comme le CSTB l’a indiqué à vos rapporteurs, c’est une tendance lourde de l’évolution de la réglementation de prendre en compte un nombre croissant d’usages : en 1988, elle ne prenait en compte que le chauffage, l’eau chaude et les auxiliaires ; en 2000, elle a intégré l’éclairage ; en 2005, la climatisation. Elle devra inévitablement poursuivre l’extension de son champ à tous les appareils électroniques, comme c’est le cas déjà dans le cadre du label allemand Passivhauss, ne serait-ce que pour inciter à un meilleur contrôle des consommations liées à la mise en veille.

Une réduction du nombre des usages aurait pour effet d’atténuer l’incitation à l’évolution technologique souhaitable sur ceux des usages inclus dans l’enveloppe, et notamment le développement des pompes à chaleur en remplacement du chauffage électrique par convection. Il biaiserait symétriquement l’évolution des consommations en faveur des usages exclus de l’enveloppe considérée, en encourageant notamment les systèmes de ventilation gourmands en énergie ; cela inciterait par exemple à utiliser une ventilation double flux dans le sud de la France, où pourtant le besoin de chauffage se trouve déjà naturellement très réduit ; le gain sur le chauffage serait donc loin de compenser, dans ce cas, le supplément important de consommation dû à la ventilation, ce qui rendrait le bilan énergétique global moins intéressant que celui obtenu avec une ventilation simple flux, pour un confort équivalent.

Enfin, la réduction du nombre d’usages aurait pour conséquence de limiter l’incitation technologique à développer des équipements intégrés assurant directement une coordination entre les fonctions, minimisant la consommation des auxiliaires et permettant de faire jouer le parasitisme énergétique, c’est-à-dire la récupération de calories déjà produites sur place : l’échangeur d’un système de ventilation à double flux, qui chauffe l’air entrant grâce à la chaleur récupérée sur l’air sortant, fournit une illustration emblématique de l’avantage de ce parasitisme pour les zones climatiques froides.

En tout état de cause, au-delà de la volonté de maintenir un cadre favorable au progrès technologique, un obstacle juridique fort empêche de réduire le nombre d’usages considérés, à savoir le droit européen. La directive 2002/91/CE prévoit explicitement la ventilation et l’éclairage dans l’annexe fixant les éléments devant obligatoirement être pris en compte dans « la méthode de calcul de la performance énergétique des bâtiments ».

2. Conserver le coefficient de conversion de l’électricité

Le coefficient de conversion de l’électricité, qui rend compte de la quantité d’énergie primaire utilisée en amont pour produire un kilowatt heure d’électricité consommée par son utilisateur final, joue un rôle crucial dans les choix d’équipement pour les bâtiments, dès lors que la norme thermique, évaluée en énergie primaire, n’est plus différenciée en fonction des filières, comme c’était le cas jusqu’à ce que l’article 4 de la loi du 3 août 2009 en décide autrement.

En effet, le coefficient de conversion de l’électricité retenu par la réglementation1 s’élève à 2,58 tandis que les énergies alternatives consommées directement sur place, principalement dans des chaudières ou des chauffe-eau, puisque l’éclairage, la ventilation et la climatisation fonctionnent essentiellement à l’électricité, bénéficient d’un coefficient de conversion égal à 1. Le bois de chauffage est affecté quant à lui, dans le cadre du label « Effinergie », d’un coefficient de conversion spécialement avantageux de 0,6 pour inciter à son utilisation2.

Or, on admet conventionnellement qu’une famille de taille moyenne (quatre personnes) occupant un logement de taille moyenne (d’une surface SHON de 116 mètres carrés) consomme une énergie finale en eau chaude de 23 kWh par mètre carré et par an, ce qui correspond à une consommation de 23 kWh d’énergie primaire par mètre carré et par an pour un chauffe-eau à gaz, mais une consommation de 55 kWh d’énergie primaire par mètre carré et par an pour un chauffe-eau électrique.

La seule consommation d’énergie électrique pour l’eau chaude dépasse donc en ce cas la nouvelle norme thermique en énergie primaire, ce qui remet radicalement en cause le mode de chauffage par effet Joule.

Selon EDF, l’électricité n’assure en stock qu’un dixième des besoins d’énergie du chauffage domestique en France, et n’équipe qu’environ 30 % des logements. Mais, en flux, la part des logements neufs choisissant le chauffage électrique n’a fait que croître depuis 2000, les deux tiers des logements collectifs optant pour un système à effet Joule, de même que la moitié des maisons individuelles ; c’est le cas aussi pour près de la moitié des bureaux. Cette évolution s’explique par un avantage de prix sensible par rapport aux systèmes à énergie fossile, au niveau de l’investissement, mais aussi au niveau des charges courantes, car les énergies fossiles sont devenues très chères.

La filière de l’électricité fait donc valoir le choc économique que représenterait pour elle l’éviction brutale des systèmes de chauffage à effet Joule dans les nouvelles constructions. Pour permettre une transition progressive en faveur des systèmes électriques technologiquement plus avancés, EDF a proposé d’appliquer temporairement un coefficient de conversion égal à 1 (au lieu de 2,58), pour la consommation électrique de chauffage de l’eau lorsque celle-ci fonctionne avec un ballon d’accumulation, système qui équipe onze millions de foyers en France actuellement, et qui présente l’avantage d’opérer une certaine forme de stockage d’énergie.

Cette solution est conforme au droit européen, et nos voisins allemands ont du reste ajusté à plusieurs reprises leurs coefficients de conversion au cours des dernières années. Elle permettrait à l’électricité utilisée à travers l’effet Joule, d’après EDF, de respecter la norme d’énergie primaire avec un écart ne dépassant pas 30 % (65 kWh au lieu de 50 kWh).

Cependant, s’il est exact que le coefficient de conversion des sources d’énergie demeure un instrument de politique énergétique entièrement à la disposition des États, et que sa valeur peut être déterminée de manière discrétionnaire, il apparaît peu importun d’en manipuler la valeur. Car celle-ci influence non seulement les investissements des consommateurs d’énergie, mais aussi ceux des producteurs de systèmes de chauffage.

Le coefficient de conversion de l’électricité renvoie à une réalité physique : la majeure partie de l’électricité est produite à partir de centrales thermiques, à combustible nucléaire ou fossile, et le procédé lui-même implique qu’environ les deux tiers de l’énergie mobilisée soient dissipés en chaleur ; en outre, la distribution jusqu’à l’utilisateur final occasionne des pertes en ligne. Il est économiquement sain que la contrainte imposée au niveau de la consommation finale rende compte de cette réalité physique, qui constitue un levier pour une optimisation de l’allocation des facteurs, sinon à l’amont, du moins à l’aval, pour un renforcement de l’efficacité d’utilisation finale de l’électricité.

Du reste, deux éléments objectifs confirment que le chiffre retenu par la réglementation n’est pas aberrant :

- d’une part, le calcul du coefficient de conversion comme valeur moyenne des ratios de conversion des différentes sources d’électricité pondérés par leur poids dans la consommation finale (80 % d’électricité nucléaire au rendement conventionnel d’un tiers, 10 % d’hydroélectricité au rendement de 1, et 10 % d’électricité fournie par des centrales thermiques à flammes avec un ratio de conversion constaté de 1,9) aboutit à un chiffre très voisin :

3*0,8  1*0,1  1,9*0,1 = 2,7

- d’autre part, le tableau des coefficients de conversion retenus dans les autres pays d’Europe montre une convergence vers une valeur comprise entre 2 et 3, la valeur retenue par la France étant en position moyenne : TABLEAU

En tout état de cause, il ne faudrait pas qu’une souplesse temporaire au bénéfice des producteurs de systèmes à effet Joule puisse être interprétée comme un encouragement à freiner les efforts de développement des systèmes de chauffage électrique plus efficaces. Comme l’a mentionné fort justement le CSTB, les équipements à effet Joule ne peuvent trouver leur marché que dans des pays à électricité peu chère, et cette caractéristique isole quelque peu la France en Europe, si l’on excepte le cas de la Suède, abondamment pourvue de ressources hydroélectriques. Le développement de systèmes plus efficaces ouvre au contraire des perspectives d’implantation large sur les marchés européens.

Deux voies technologiques sont d’ores et déjà opérationnelles pour ce gain d’efficacité : les pompes à chaleur, et les systèmes à énergie solaire thermique.

L’atout essentiel des pompes à chaleur réside dans leur coefficient de performance (COP), qui peut compenser, et au-delà le coefficient de conversion : un COP de 3 suffit pour rattraper le handicap de l’électricité en énergie primaire. D’un point de vue technologique, les pompes à chaleur qui utilisent l’air extérieur comme source de calories fonctionnent encore mal lorsque la température tombe en dessous de -10 °C ; mais outre que des progrès sont en cours dans ce domaine, notamment en vue de récupérer les calories en abondance dans les eaux usées, il est possible d’installer un système branché sur une nappe phréatique à quelques mètres de profondeur. Les pompes à chaleur thermodynamiques, qui fournissent de l’eau chaude à partir d’un ballon d’accumulation, commencent par ailleurs à se diffuser pour l’équipement des maisons individuelles, bien qu’elles restent encore relativement coûteuses. Vos rapporteurs reviendront sur le problème de leur adaptation dans le cas des logements collectifs.

Les systèmes de chauffage à énergie solaire thermique fonctionnent comme une source complémentaire à l’électricité, mais aussi au gaz ou au bois. Si les conditions d’exposition sont favorables, ils peuvent permettre une économie pouvant atteindre jusqu’à 50 % de l’énergie finale nécessaire. Selon les modèles, ils sont susceptibles d’alimenter aussi bien un circuit de radiateurs qu’un ballon à accumulation. Vos rapporteurs ont logé à Fribourg-en-Brisgau dans l’hôtel Victoria, où l’eau chaude est produite par un équipement solaire thermique couplé avec une chaudière à bois (pellets) ; ils ont pu y prendre des douches tout à fait agréables.

Les coûts d’investissement dans ces systèmes sont aujourd’hui sensiblement plus élevés que ceux de leurs concurrents à effet Joule, mais outre que les industriels peuvent anticiper des volumes de marché importants, puisque la direction prise par la réglementation thermique est irréversible, l’échelonnement de la mise en œuvre de la nouvelle norme thermique va concerner d’abord des clients susceptibles d’entrer plus spontanément dans une logique de rentabilité à moyen terme : les collectivités publiques et les entreprises, soumises à la nouvelle réglementation thermique dès le 1er janvier 2011, entrent en effet plus facilement dans la logique d’un investissement initial plus important contrebalancé ensuite par une minoration des frais d’exploitation.

Vos rapporteurs soutiennent donc que le coefficient de conversion de l’électricité, quelque arbitraire et imparfait qu’il soit, ne doit nullement être modifié, afin que ne soit pas relâchée la pression pour l’adaptation technologique des systèmes de chauffage électrique.

Néanmoins, pour l’avenir, ils souhaitent que chaque nouvelle programmation pluriannuelle des investissements de production (PPI), prévue par l’article 6 de la loi du 10 février 2000 (dite « Bataille »), et qui s’appuie sur un bilan préalable de l’ensemble des moyens de production de l’électricité, mette à jour le calcul des ratios de conversion pondérés, tel qu’évoqué précédemment. Il convient de rappeler que la PPI fait l’objet d’un rapport présenté au Parlement par le ministre chargé de l’énergie dans l’année suivant tout renouvellement de l’Assemblée nationale, c’est-à-dire tous les cinq ans.

Lorsque les progrès des énergies renouvelables auront permis, d’ici plusieurs dizaines d’années probablement, d’obtenir un résultat inférieur à 2,58, alors ce résultat devra devenir le nouveau coefficient de conversion de l’électricité consommée en énergie primaire.

Le coefficient de conversion particulier attaché au bois ne vaut quant à lui, que dans le cadre du label « Effinergie ». L’arrêté du 3 mai 2007 dit bien « Exclusivement pour ce label ». Dans la mesure où la réglementation thermique s’inscrit dans un cadre plus général, fixé en premier lieu par la loi du 3 août 2009, cette particularité ne la concerne pas, et ne doit pas la concerner ; par souci de cohérence, le coefficient de conversion du bois doit donc rester à 1.

3. Compter les énergies renouvelables utilisées sur place

L’installation de panneaux photovoltaïques sur un toit, même lorsque ceux-ci sont directement raccordés au réseau électrique, est considérée comme une contribution au développement des énergies renouvelables. Certes, du point de vue des statistiques nationales mesurant les progrès de l’électricité solaire photovoltaïque en France, c’est le cas.

Du point de vue des flux monétaires, c’est en réalité un placement. C’est une sorte de produit financier dont l’achat est subventionné, et dont le revenu est garanti par l’Etat, à travers le rachat de l’électricité produite par EDF.

Mais tout cela n’a que peu de chose à voir avec la performance thermique du bâtiment qui sert de support aux panneaux photovoltaïques. De ce point de vue, les seules énergies renouvelables qui comptent, ce sont celles qui contribuent à la production de chauffage ou d’eau chaude sanitaire.

Sinon, il suffirait de construire une épave thermique en la couvrant de panneaux photovoltaïques pour la mettre à la norme RT 2012 ; ce ne serait qu’une affaire financière.

L’avènement de la maison à énergie positive doit respecter des étapes. Et la première étape, c’est l’atteinte d’une performance énergétique intrinsèque, obtenue par la qualité de l’isolation et l’efficacité des équipements.

Vos rapporteurs souhaitent donc qu’on ne mélange pas les genres, et que seules les énergies renouvelables consommées sur place, y compris la part éventuelle d’électricité photovoltaïque utilisée pour alimenter les équipements du bâtiment, puissent, par leur apport direct, réduire la quantité d’énergie primaire prise en compte dans la réglementation thermique.

B. L’adaptation selon la localisation

Si vos rapporteurs rejettent toute facilité risquant de freiner le développement d’équipements plus efficaces, en revanche ils considèrent comme indispensable la prise en compte des différences objectives de situation créées par les variations climatiques d’un bout à l’autre de notre pays. En l’occurrence, vos rapporteurs préconisent de reprendre les coefficients de correction définis par le label « Effinergie ». Mais la mise en place d’une réglementation thermique de basse consommation doit être aussi l’occasion de définir de façon plus spécifique les conditions du confort d’été.

1. Généraliser le modèle retenu par « Effinergie »

Le besoin de distinguer différentes zones climatiques (H1, H2, H3) pour l’application de la réglementation thermique était déjà pris en compte par l’arrêté du 5 avril 1988 définissant la RT 1988. Il s’est affiné à la faveur des versions suivantes de la même réglementation, puisque la RT 2005 prévoit huit zones climatiques. La zone H1 correspond aux départements les plus froids, la zone H3 aux départements du sud méditerranéen.

L’association « Effinergie » qui s’est constituée en mars 2006 dans le but de promouvoir, en France, la construction à basse consommation, et de développer un référentiel de performance énergétique des bâtiments, est à l’origine d’un label, défini par l’arrêté du 3 mai 2007, qui sert de référence pour la réglementation thermique à venir. Ce label reprend la division de notre pays en zones climatiques en le simplifiant, puisque seulement six coefficients correcteurs (a) de la valeur pivot des 50 kWh sont prévus.

CARTE

Le label « Effinergie » ajoute un autre coefficient correcteur (b), tenant compte de l’altitude, dont le principe avait déjà été introduit par la RT 1988. Il distingue trois niveaux, et ce coefficient (b) reste à zéro en dessous de 400 mètres d’altitude, vaut 0,1 de 400 à 800 mètres, et 0,2 au dessus de 800 mètres.

La valeur plafond de consommation d’énergie primaire s’appliquant localement devient alors :

Cmax = 50 (a  b) kWh/m2/an

Vos rapporteurs ne peuvent qu’apporter leur appui à ce dispositif de modulation géographique et climatique qui s’appuie sur une expérience pratique de longue date. Les auditions ont du reste permis d’en confirmer la pertinence globale.

Des besoins d’ajustement ponctuel ont néanmoins été signalés à vos rapporteurs :

le cabinet Bastide-Bondoux a signalé une distorsion de la RT 2005 dans la prise en compte de l’eau chaude sanitaire, qui induirait l’obligation un peu aberrante d’installer une isolation plus forte à La Rochelle qu’à Strasbourg ;

l’association « Energie et Avenir » a fait état d’une difficulté à tenir la norme corrigée des 65 kWh en Alsace-Lorraine (H1b). La correction pour cette zone a été alignée sur celle du Nord (H1a), bien que l’Alsace-Lorraine ne bénéficie pas de la modération climatique liée à la proximité de la mer.

L’analyse du cas de l’Alsace-Lorraine peut s’appuyer sur un élément de référence : la mise en œuvre de la basse consommation à Fribourg-en-Brisgau, qui se trouve tout juste de l’autre côté de la frontière. C’est une norme de 65 kWh qui y a été mise en œuvre, mais sur des bases de calcul peut-être un peu différentes.

En tous cas, vos rapporteurs souhaitent que les services techniques de la DHUP étudient de près ces deux cas, et prévoient les ajustements nécessaires, peut-être en redécoupant à la marge les zones climatiques du Nord-Est de la France, et en créant une zone limitrophe sur le Rhin à 70 kWh (a = 1,4).

2. Intégrer le besoin spécifique du confort d’été

Sous nos latitudes, la période des mois ensoleillés est vécue de prime abord comme un moment agréable, comme le prouve vocabulaire usuel à cet égard, puisqu’on parle du « beau temps », des « belles saisons ».

Il paraît donc naturel que la réglementation thermique se soit surtout focalisée jusque-là sur la protection contre le froid, et que le confort d’été n’ait été considéré que comme une question annexe, pouvant être résolue à la marge, en adaptant des moyens principalement conçus pour le confort d’hiver.

De fait, la RT 2005 garantit le confort d’été du bâtiment à deux niveaux :

1°) En limitant les apports solaires par un plafonnement de la surface utile des baies vitrées ;

2°) En organisant le rafraîchissement de l’ambiance intérieur par deux moyens simples :

d’une part, une ventilation puissante pour récupérer l’air frais extérieur produit par la baisse de température de la nuit ;

d’autre part, une inertie thermique du bâti suffisante pour conserver cette fraîcheur le plus longtemps possible.

Cependant l’épisode de la canicule de 2003, qui a récidivé en Europe orientale et méridionale en 2007, montre qu’une telle approche ne peut plus être satisfaisante dans le cadre du changement climatique en cours. Comme l’a fait observer M. Denis Clodic, il n’est plus possible de fonder toute la stratégie du confort d’été sur un rafraîchissement nocturne de la température extérieure. Une gestion active de ce confort d’été doit être prise en compte dans la nouvelle réglementation thermique.

Elle peut reposer en pratique sur trois principes :

- soit le branchement de l’aération sur un puits canadien ;

- soit le recours à une pompe à chaleur fonctionnant aussi en réfrigérateur ;

- soit la mise en route d’un équipement spécifique de climatisation.

La nouvelle réglementation thermique doit prévoir l’existence obligatoire de l’un ou l’autre de ces systèmes de climatisation active, dans tous les bâtiments effectivement occupés au cœur de l’été.

Les bâtiments tertiaires qui, en raison de la nature de leur utilisation, sont fermés ou fonctionnent à effectif très réduit en juillet et août, peuvent évidemment être dispensés de cette obligation.

La question se pose du supplément d’énergie primaire nécessaire au fonctionnement de la climatisation active, et de la nécessité pour la norme thermique d’en tenir compte. A ce stade, il semble à vos rapporteurs que les épisodes de canicule, au cours desquels la température de la nuit finit par rattraper celle du jour, sont encore suffisamment rares pour que leur impact en termes de consommation moyenne annuelle demeure limité.

De surcroît, l’obligation de disposer d’un système de climatisation sous le maintien d’une contrainte de consommation d’énergie primaire devrait conduire à orienter les choix vers les solutions les plus efficaces. Le recours à un équipement spécifique de climatisation est relativement moins bien placé à cet égard, soit qu’il s’appuie sur une énergie fossile émettrice de CO2, soit qu’il contribue, au moment des canicules, à une congestion du réseau électrique (et aux éventuelles émissions

de CO2 qui en résultent) ; le branchement sur un réseau de froid, solution collective plus intéressante, doit évidemment être privilégiée si elle est disponible.

C. L’adaptation selon la taille et la destination

En plus des différences objectives de situation liées à la géographie du climat, vos rapporteurs ont été amenés à prendre en considération les différences objectives créées par la taille et la destination des bâtiments. La taille du bâtiment constitue en effet un paramètre de différentiation forte de la consommation d’énergie au sein du secteur résidentiel, tandis que la destination du bâtiment, c’est-à-dire l’activité qu’il héberge et pour lequel il a été spécialement adapté, crée des besoins énergétiques extrêmement variables au sein du secteur tertiaire.

1. Ajuster la contrainte pour les petits logements

Les auditions ont permis de constater un consensus sur les difficultés particulières qu’auront les logements de petite surface à respecter une réglementation thermique plus contraignante. Ces difficultés sont indépendantes des sources d’énergie retenues, et ne tiennent qu’à des considérations géométriques.

Trois arguments peuvent être avancés à cet égard :

- d’abord, une famille qui se serre sur une surface plus étroite n’en conserve pas moins les mêmes besoins en termes d’eau chaude et de ventilation, car elle se lave et respire tout autant ; par conséquent, la consommation d’énergie au mètre carré croît lorsque le logement devient plus exigu ;

- ensuite, le rapport entre la surface de l’enveloppe extérieure d’un bâtiment et son volume intérieur croît lorsque sa taille se réduit 3 ; l’efficacité d’une même épaisseur d’isolation diminue donc avec la taille du bâtiment, et par conséquent le besoin de chauffage nécessaire pour atteindre un même niveau de confort croît relativement lorsque la taille du logement se réduit ;

- enfin, la place prise par une certaine épaisseur d’isolation devient relativement plus importante lorsque la taille du bâtiment diminue ; ainsi, pour une surface construite au sol de 100 mètres carrés, qui correspond à un périmètre de l’ordre de 40 mètres, une couche de 25 cm d’isolant retire environ 10 mètres carrés à la surface habitable, c’est-à-dire l’équivalent d’une pièce. Pour une surface construite deux fois plus importante (200 mètres carrés), la même couche d’isolant ne retire à la surface habitable qu’un peu moins de 14 mètres carrées.

Les petites surfaces nécessitent donc un effort d’isolation relativement plus important, qui réduit relativement beaucoup plus la surface habitable ; cela signifie au total qu’une famille vivant déjà dans la promiscuité ne peut dès lors compenser le handicap involontaire de consommation énergétique trop élevée en eau chaude et ventilation qu’elle subit du fait d’une mesure de la performance au mètre carré, que par une exiguïté de son logement plus grande encore.

On conçoit qu’en ce cas la contrainte de la réglementation thermique doive être desserrée.

Au cours des auditions, la seule proposition concernant une méthode de modulation possible est venue de Geoxia, qui a suggéré de définir une valeur globale de consommation énergétique annuelle pour tous les logements, quelle que soit leur surface. Ce serait assurément là une méthode de correction très brutale, qui créerait d’autres inconvénients, en pénalisant notamment par trop les grandes surfaces.

Mais l’idée de définir une valeur pivot, centrée sur la surface moyenne des logements, autour de laquelle une correction symétrique serait opérée selon une pente « raisonnable », paraît judicieuse. On peut observer que ce principe est mis en œuvre par la réglementation thermique allemande (cf. tableau suivant). Il consiste en fait à opérer une correction sur une partie allant de 20 à 40 % de la valeur thermique cible.

En opérant une correction de même nature sur 40 % de la valeur plafond des 50 kWh, soit une part de 20 kWh, on obtiendrait, en prenant 100 mètres carrées comme surface moyenne, et en désignant par S la surface en mètres carrés du logement considérée, une formule du type :

C (S) = 30  Q (S) Avec : Q (S) = 4 000 / (100  S)

Les valeurs prises ici (100 m2 de surface moyenne, 4 000 kWh de valeur pivot correspondant à une correction sur 40 % de la valeur plafond) ne visent qu’à illustrer l’intérêt de cette approche. Elles seraient certainement à affiner, ne serait-­ce qu’en précisant la nature de la surface prise en compte.

Mais on obtient ainsi une solution de modulation relativement simple, qui respecte en moyenne la valeur plafond des 50 kWh, et desserre la contrainte sur les petites surfaces, tout en ne la renforçant pas excessivement sur les surfaces les plus grandes.

Cette contrainte supplémentaire sur les grandes surfaces fonctionne d’ailleurs comme un mécanisme de solidarité, justifié d’une part, par le fait que les bâtiments de grande taille, pour des raisons exactement inverses à celles évoquées précédemment, satisfont relativement plus facilement à une réglementation thermique exigeante, et d’autre part, par le fait que les logements plus grands sont acquis généralement par des ménages plus aisés, ayant donc les moyens de financer un effort supplémentaire d’investissement pour atteindre une meilleure performance énergétique.

Les modulations doivent bien sûr jouer de manière cumulative, et le plafond des 50 kWh doit être ajusté en fonction des considérations de climat et d’altitude précédemment évoquées. En ramenant tout sur une seule formule, on obtient :

Cmax = 50 (a  b) c (S) avec c (S) = 0,6  80 / (100  S)

La formule s’appliquerait aux logements, ce qui ne soulève aucune ambiguïté d’interprétation lorsque le bâtiment concerné est une maison individuelle, mais pose une difficulté lorsqu’il s’agit d’un immeuble collectif, car l’article 4 de la loi du 3 août 2009 mentionne les « constructions nouvelles », ce qui suggère que c’est à l’ensemble de l’immeuble que la réglementation s’applique alors.

Mais le même article indique que la nouvelle norme de consommation d’énergie primaire s’applique « en moyenne ».

De fait, au sein d’un grand immeuble, un appartement situé en façade nord, ou exposé aux vents dominants, sera toujours moins bien protégé du froid qu’un appartement donnant plein sud. Inversement, son confort d’été sera moins problématique.

Cela signifie que la nouvelle norme thermique s’applique d’abord et avant tout au bâtiment dans son ensemble ; et c’est à ce niveau-là que doivent évidemment être vérifiées les qualités d’imperméabilité et d’isolation indispensables à la réalisation « en moyenne » de la performance visée. Dans la mesure où c’est le volume délimité par l’ensemble des surfaces exposées qui forme l’espace à protéger des échanges thermiques avec l’extérieur, la même démarche devrait s’appliquer aux bâtiments contigus construits en bande.

La formule de modulation proposée précédemment pourra alors s’appliquer en prenant en compte la surface moyenne des logements dans le volume délimité par l’ensemble des surfaces exposées.

Et c’est dans un second temps que la modulation proposée précédemment viendrait imposer un plafond de consommation au niveau de chaque appartement, en fonction de sa taille, essentiellement, en ce cas, pour corriger le biais induit par la manière de compter l’énergie consacrée à l’eau chaude et à la ventilation.

Cette démarche en deux temps présente l’avantage de respecter la lettre de la loi, tout en résolvant la complexité liée à l’inégalité de positionnement relatif des appartements dans un logement collectif, ou des maisons individuelles dans une structure en bande. C’est une manière de compenser l’absence de coefficient de forme, tel qu’il est pris en compte par la réglementation allemande.

2. Interpréter la contrainte pour les bâtiments tertiaires

Les bâtiments tertiaires, entendus au sens fonctionnel, c’est-à-dire les bâtiments à vocation non résidentielle, construits par des personnes aussi bien publiques que privées, recouvrent, comme on l’a déjà observé, un ensemble très diversifié d’immeubles conçus pour des utilisations multiples, et nécessitant des quantités d’énergie très différentes pour fonctionner : ainsi un hangar peut être opérationnel avec un simple éclairage, tandis qu’un hôpital consomme en permanence, jour et nuit, toute l’année, du chauffage, de l’eau chaude et de la ventilation ; de leur côté, les bureaux recourent au chauffage et à la climatisation de manière plus intense que les logements.

La maîtrise de la consommation d’énergie de cet ensemble très diversifié est d’ores et déjà complexe, et cette complexité ne va que se renforcer avec la mise en œuvre de la nouvelle réglementation thermique.

Deux éléments principaux vont accentuer cette complexité :

- d’abord, l’article 4 de la loi du 3 août 2009 impose aux bâtiments tertiaires la même norme qu’aux logements. Renseignements pris auprès de certains participants aux discussions du Grenelle de l’environnement, dont le projet de loi, puis la loi n’ont fait que reprendre les conclusions, c’est une forte volonté commune de simplification qui a conduit à étendre le plafond des 50 kWh au secteur tertiaire. Or, comme l’a fait observer le CSTB, rien dans les expérimentations en cours ne préparait à cette généralisation, car le label « Effinergie » préconisait seulement, pour les bâtiments tertiaires, catégorie par catégorie, un gain de performance de 50 % par rapport au plafond de consommation énergétique prévu par la RT 2005, ce qui imposait déjà un effort d’ajustement conséquent ;

- ensuite, le calcul réglementaire appréhende moins bien la performance énergétique dans le secteur tertiaire que dans le secteur résidentiel, du fait de la fréquence plus élevée des entrées et sorties (magasin), de la taille des ouvertures sur l’extérieur (hangar d’avions), ou de l’intensité très variable d’occupation (bureau, ou à l’inverse, salle de réunion). En outre, l’activité qui se déploie dans un bâtiment tertiaire est souvent moins routinière que celle d’un bâtiment résidentiel, et détermine de fait une part très substantielle de la consommation effective d’énergie. Des gabarits réglementaires de consommation sont définis par catégorie d’utilisation des bâtiments, mais l’audition des responsables de La Poste a bien illustré la difficulté à couvrir tous les cas de figure, puisqu’en l’occurrence les plateformes de tri postal fonctionnent selon des rythmes hebdomadaires très particuliers, et ne peuvent être rattachées, dans le dispositif en vigueur, qu’au scénario « Locaux non compris dans une autre catégorie ». La même audition a souligné l’écart du simple au double pouvant exister entre la performance effective et la simulation réglementaire. A toutes ces imperfections, le resserrement de la norme thermique va rajouter l’imprécision supplémentaire induite par le fait que les modèles de simulation sont mal calibrés pour des valeurs d’énergie faibles, ainsi que l’a fait observer à vos rapporteurs, un de leurs interlocuteurs de Minergie à Fribourg.

Dans le secteur tertiaire, il va s’agir donc de mettre en œuvre une norme extrêmement plus exigeante dans un contexte où les procédures suivies aujourd’hui pour maîtriser a priori la consommation d’énergie au stade de la construction demeurent très approximatives. De plus, l’obligation de respecter la norme va arriver très vite, puisque la loi a fixé son entrée en vigueur au 1er janvier 2011.

Nombre de leurs interlocuteurs ont indiqué officieusement à vos rapporteurs, que toutes ces conditions créaient une situation impossible, car les nouveaux gabarits réglementaires notamment ne devraient jamais être prêts à temps.

Mais cela signifie peut-être qu’il convient de développer une autre approche pour aborder la mise en œuvre de la réglementation, en plaçant au cœur de la démarche la recherche d’une performance effective, et non plus d’une performance simulée.

Vos rapporteurs rejoignent en cela une suggestion du rapport Grzybowski, de fin juillet 2009, et proposent d’utiliser un mode d’emploi découlant des enseignements du programme de recherche coopérative HOMES, piloté par Schneider à Grenoble, dont ils ont pris connaissance lors d’une visite à Grenoble le 12 novembre 2009.

a) Une démarche axée sur La performance effective

Dans la mesure où la réglementation thermique est partie prenante de la lutte contre le changement climatique, on conçoit mal comment on pourrait se satisfaire d’une performance énergétique faciale, consistant simplement à respecter la norme au niveau du résultat d’un calcul réglementaire. En fait, la seule performance qui vaut, c’est celle qui est mesurée a posteriori. Les méthodes à retenir pour maîtriser l’énergie sont celles qui sont les plus appropriées parmi les différentes possibles : l’optimisation de la structure du bâti (sa forme, son orientation), l’isolation, la qualité des équipements, la gestion active de l’énergie. Et s’il n’est pas possible d’atteindre la performance dans un premier temps, il faut se donner les moyens de converger vers l’objectif le plus vite possible.

C’est cette philosophie que vos rapporteurs ont eu la satisfaction de voir formulée dans le rapport remis le 23 juillet 2009 par Serge Grzybowski, président d’ICADE, chargé par M. Philippe Pelletier, président du comité stratégique du Plan bâtiment Grenelle, d’animer un groupe de travail sur la mise en œuvre du plan bâtiment Grenelle dans le secteur tertiaire privé (bureaux, commerces, logistique, établissements de santé, hôtels).

Le groupe de M. Grzybowski souhaite que « la réglementation soit performancielle, c’est-à-dire avec le moins de contrainte sur les moyens », dans le but de « favoriser le choix de solutions efficientes, avec le meilleur rapport technico-économique ». Et vos rapporteurs ne peuvent qu’apporter leur soutien à cette conception, dont le mode opératoire fait d’une certaine façon la matière même du programme HOMES.

b) La fragmentation du bâtiment par fréquence d’occupation

Le programme HOMES, qui a pour objectif de promouvoir la gestion active de l’énergie dans les bâtiments, intègre intelligemment une analyse des conditions dans lesquelles cette gestion active contribue le plus à la maîtrise de l’énergie, par rapport aux approches d’amélioration du bâti (forme, orientation, isolation) ou des équipements.

Cette approche conduit à décomposer tout bâtiment en zones homogènes du point de vue de la fréquence d’occupation, pour chacune desquelles la solution optimisée de maîtrise de la consommation d’énergie est spécifique : les zones occupées de manière continue (les bureaux, par exemple) doivent prioritairement être optimisées du point de la qualité de leur bâti, car elles ont relativement moins à gagner à une action exclusive sur la gestion active de l’énergie ; à l’inverse, pour des zones peu fréquentées (les hangars), la gestion de l’énergie est d’un intérêt bien plus grand que l’amélioration du bâti, car le confort des visiteurs occasionnels n’y est généralement pas une priorité.

Ainsi, dès le stade de la conception, la recherche de la performance énergétique doit s’inscrire dans une démarche d’utilisation optimisée des ressources, ce qui permet d’assurer une maîtrise au plus juste des coûts de construction.

c) La vérification des critères objectifs de qualité du bâti

Dans les zones où un effort sur le bâti est requis, la performance énergétique dépend de deux caractéristiques vérifiables : l’imperméabilité et l’isolation. La première se mesure avec le test de la porte soufflante ; la seconde peut être estimée à travers la vitesse de décroissance de la température intérieure, après une phase de chauffage qui a été interrompue.

Il va de soi que cette double vérification doit être obligatoire.

En fait, l’application de la norme des 50 kWh dans le secteur tertiaire doit s’interpréter comme l’obligation de faire en sorte que, pour toutes les zones du bâtiment à fréquence élevée d’occupation, l’enveloppe du bâti atteigne une qualité au moins équivalente à celle qui serait nécessaire pour une utilisation en mode résidentiel dans le cadre de la nouvelle réglementation.

Vos rapporteurs suggèrent que l’extension de la norme du secteur résidentiel, telle quelle, à l’univers très diversifié du secteur tertiaire, ait en pratique la portée d’un « comme si, chaque fois que l’isolation est primordiale ».

d) La mise en place d’un suivi des consommations

Il est indispensable que la réglementation oblige à ce que toute livraison d’un bâtiment tertiaire s’accompagne de la mise à disposition d’instruments pour assurer le suivi des consommations énergétiques, ainsi que le pilotage des équipements de contrôle afférents.

Comme l’ont fait observer les interlocuteurs du programme HOMES, ce monitoring ne consiste pas à fournir des informations sur tout ce qu’il est facile de mesurer, mais sur tout ce qu’il est pertinent de mesurer au regard des objectifs poursuivis, le premier de ces objectifs étant de respecter la norme thermique, indépendamment d’autres formes d’optimisation répondant, selon le cas, aux préoccupations du propriétaire, de l’exploitant ou de l’occupant.

L’optimisation globale de la performance peut nécessiter d’ailleurs le recours à un système logiciel spécifique, car elle ne s’obtient pas nécessairement par l’optimisation séparée de chacun des systèmes énergétiques.

La surveillance des instruments de monitoring relève de la fonction plus générale de « gestion technique des bâtiments ». Comme partie d’une tâche plus large, ou à titre principal, suivant l’importance du bâtiment, elle doit être confiée en pleine responsabilité à une personne bien identifiée, qui peut être un prestataire extérieur, comme c’est le cas au siège de l’ADEME à Angers.

La réglementation doit rendre obligatoire la désignation de ce « responsable de l’énergie » dans chaque bâtiment tertiaire devant respecter la nouvelle norme thermique.

e) La publicité de la performance obtenue

Afin d’exercer une pression pour optimiser la consommation globale d’énergie, une publicité du résultat global devrait être organisée, aussi bien en ce qui concerne l’énergie primaire que les émissions de gaz carbonique. Cette publicité pourrait prendre différentes formes : affichage sur place, et sur un site Internet officiel.

Pour les bâtiments privés, notamment construits par des entreprises, cette publicité constituerait un indice visible d’engagement au service du développement durable, élément désormais essentiel de toute politique de communication ; pour les immeubles publics, une bonne performance énergétique serait perçue comme un indicateur de rigueur de gestion.

M. Jean Carassus, qui représente le CSTB au sein du Conseil international du bâtiment, a signalé à vos rapporteurs qu’un dispositif de ce type était prévu en Australie, dans le cadre du National Strategy on Energy Efficiency (NSEE, point 3.2.2, cf. annexe), à partir de 2010 : l’obligation devra s’étendre en trois phases, d’abord aux bâtiments tertiaires de plus 2 000 mètres carrés, ensuite à l’ensemble des bâtiments publics, enfin à tous les bâtiments tertiaires, y compris les hôtels, les magasins, les écoles et les hôpitaux.

Le programme « Energy Star » aux Etats-Unis prévoit un dispositif de nature complémentaire appelé « Portfolio Manager », par lequel les responsables des bâtiments tertiaires mentionnent volontairement, sur un site Internet, la performance énergétique atteinte, afin d’obtenir en retour une information sur la position relative de leur résultat au sein d’un groupe de référence formé de bâtiments similaires. Les meilleures performances sont rassemblées dans une liste d’honneur visible en ligne, voire sont récompensées par l’attribution d’un prix.

Ces mécanismes de publicité entretiennent une émulation qui permet de progresser vers la cible de performance énergétique, si elle n’est pas pleinement atteinte au stade de la construction. Les progrès potentiels vont alors résulter moins d’opérations de rénovation du bâti que d’un ajustement des équipements ou d’une exploitation des gains permis par une gestion active de l’énergie.

A cet égard, l’organisation d’échanges d’informations ne peut être que profitable.

f) La constitution en réseau des responsables de l’énergie

Notre visite au Japon, en novembre 2008, dans le cadre de notre précédent rapport sur la stratégie de recherche en énergie, a permis à vos rapporteurs de découvrir une forme d’organisation au service de la maîtrise d’énergie qui pourrait utilement être transposée en France.

Au Japon, toute entité occupant un bâtiment tertiaire (cela concerne particulièrement les usines) doit nommer un « Energy Manager », qui a un rôle de conseil auprès de la direction, et de formation auprès des employés. Sa qualification est sanctionnée par un diplôme national obtenu après une session de formation ou un stage de validation, selon son niveau d’expérience professionnelle. Son rôle est ainsi voisin de celui que joue, en Europe, le « correspondant informatique et Libertés » pour la protection des données personnelles : référant intérieur et relais extérieur (pour les relations avec l’autorité nationale de contrôle – CNIL en France). L’avantage d’une certification nationale est qu’elle transforme tous ces « Energy Manager » en un réseau de diffusion des « bonnes pratiques » en matière d’économie d’énergie, puisqu’un organisme central, l’Energy Conservation Center (ECCJ), organise mensuellement des sessions de présentation d’une dizaine de cas intéressants d’amélioration de l’efficacité énergétique.

La DHUP et le CSTB pourraient s’inspirer de cet exemple pour animer un réseau des « responsables de l’énergie » français, qui deviendraient ainsi autant de relais pour une diffusion des « bonnes pratiques » en matière d’économie d’énergie dans les bâtiments tertiaires.

En conclusion, la mise en œuvre de la norme des 50 kWh dans le secteur tertiaire devrait viser une performance effective, en intégrant l’apport de la gestion active de l’énergie, et un suivi du résultat global obtenu. La seule contrainte vérifiable a priori concernerait l’enveloppe des zones d’occupation permanente, qui devrait atteindre le degré de qualité des logements. Une dynamique d’effort permanent d’optimisation de la consommation devrait s’engager à travers non seulement un monitoring de chaque nouveau bâtiment, mais encore des échanges de « bonnes pratiques » au sein d’un réseau des « responsables de l’énergie ».

III. Le défi de la mise en œuvre

Dans la mesure où l’OPECST se trouve aussi chargé par l’article 4 de la loi du 3 août 2009 de : « mesurer l’impact économique de l’ensemble du dispositif », vos rapporteurs ont été amenés à s’intéresser d’une façon plus large aux conditions de la mise en œuvre de la nouvelle réglementation technique.

Leurs réflexions à cet égard visent à identifier les freins qui pourraient gêner la transposition à tout le pays, dans le cas général, de quelques expériences pilotes singulièrement réussies. Ces freins potentiels tiennent d’une part à différents éléments du contexte juridique, professionnel, industriel. Ils tiennent aussi à la nécessité d’obtenir l’adhésion du plus grand nombre à la révolution de la basse consommation d’énergie.

A. Le passage à une diffusion de masse

Il convient d’avoir bien conscience des raisons qui expliquent le succès des quelques expériences pilotes en matière de construction à basse consommation pour mieux analyser les conditions du succès d’une généralisation.

1. L’effet d’illusion des expériences pilotes

Vos rapporteurs sont intimement persuadés de l’intérêt de construire des bâtiments beaucoup plus économes en énergie. Et leurs visites en France et à l’étranger leur ont confirmé que cet objectif était réalisable.

Cependant ils ont aussi constaté que toutes les opérations immobilières qui leur ont été présentées étaient le fait d’un groupe de personnes extrêmement motivées, qui ont pu le plus souvent bénéficier d’un contexte particulièrement favorable :

- la possibilité de choisir un terrain approprié, permettant de tirer le meilleur profit des apports naturels ; ainsi les quartiers Vauban et Rieselfeld sont situés, en zone ouverte, à la périphérie de la ville de Fribourg-en-Brisgau ; de même, le quartier BedZed ne se situe pas par hasard à l’extrême bordure sud de la ville de Londres, dans une zone peu dense ;

- un soutien appuyé des autorités locales, qui ont pu apporter non seulement un soutien financier particulier comme dans le cas des opérations Effinergie à Lyon, mais encore ont contribué à la visibilité publicitaire des projets, ce qui a eu pour conséquence de susciter un engagement spécifique de la part des prestataires ; sans parler de la pression que ces autorités étaient en mesure d’exercer pour débloquer les situations contractuellement délicates, comme cela est arrivé à Fribourg-en-Brisgau ;

- un engagement intéressé des professionnels, reposant sur une logique de pur investissement à moyen terme : le temps consacré au-delà des pratiques habituelles, l’effort mis à trouver des solutions bien adaptées à tous les problèmes techniques rencontrés, ont été autant de contraintes exceptionnelles acceptées pour valoriser ensuite l’expérience acquise sur une référence incontestable.

Toutes ces conditions favorables ne se retrouveront plus nécessairement lorsque la généralisation de la construction à basse consommation mettra en lice des milliers de particuliers anonymes face à des prestataires aguerris, pour des opérations sans relief publicitaire, gérées au plus juste, avec le souci de minimiser les dépenses pour maximiser la marge dégagée.

2. Les contraintes du contexte institutionnel

Comme cela a été souligné, la réalisation d’un bâtiment à basse consommation suppose de reconsidérer la démarche de la construction, pour passer à une approche de conception globale, qui tire avantage de tous les atouts disponibles de l’environnement. Or le contexte institutionnel de la construction impose des contraintes parfois assez critiques pour la viabilité du projet ; il s’agit des règles locales d’urbanisme, pour les maisons individuelles surtout, et de celles encadrant les marchés publics, pour les bâtiments administratifs.

 Les règles d’urbanisme

Les anciens « plans d’occupation des sols » progressivement remplacés par les « plans locaux d’urbanisme » en application de la loi n° 2000-1208 du 13 décembre 2000 relative à la solidarité et au renouvellement urbains ont pour objet de « déterminer des règles concernant l’aspect extérieur des constructions, leurs dimensions et l’aménagement de leurs abords, afin de contribuer à la qualité architecturale et à l’insertion harmonieuse des constructions dans le milieu environnant » (article L. 123-1 du code de l’urbanisme).

Elaborés, puis approuvés dans le cadre d’une démarche large de consultation, ils sont l’expression d’un consensus local, démocratique.

Il peut arriver cependant que leurs prescriptions entrent en contradiction avec l’objectif de performance énergétique. Au cours des auditions conduites par vos rapporteurs, un architecte, M. Yorrick Mahé, a mentionné notamment l’obligation fréquemment mentionnée, pratiquement en tout point de France, de couvrir la maison par une toiture à double pente de 35° à 45°, et d’avoir des fenêtres moins larges que hautes ; ce qui renvoie au modèle finalement assez standardisé de la construction dite « traditionnelle ».

Or, l’obligation d’un toit à double pente interdit le recours à une toiture végétale, qui outre des avantages écologiques, présente un intérêt du point de vue de l’inertie thermique et de l’isolation phonique. Surtout, elle permet de réaliser une économie de plusieurs milliers d’euros sur la construction, ce qui, en libérant la contrainte financière pour le recours à des équipements énergétiques performants, rend la maison à basse consommation plus accessible pour les ménages à faible revenu.

De même, la prescription concernant des fenêtres moins larges que hautes empêche la mise en place de grandes baies vitrées permettant de maximiser la récupération des apports solaires.

Deux formes de souplesses ont d’ores et déjà été introduites pour mieux concilier les règles locales d’urbanisme avec la construction à basse consommation :

- d’une part, l’article 30 de la loi n° 2005-781 du 13 juillet 2005 de programme fixant les orientations de la politique énergétique a prévu les conditions dans lesquelles le plan local d’urbanisme peut autoriser, dans la limite de 20 %, un dépassement du coefficient d’occupation des sols, « pour les constructions remplissant des critères de performance énergétique ou comportant des équipements de production d’énergie renouvelable ». L’arrêté du 3 mai 2007 a défini les critères permettant d’autoriser ce dépassement. Ce « bonus de COS » est en vigueur, par exemple, à Castelnau-de-Médoc, en Gironde4 ;

- d’autre part, la ville de Paris a fourni, dans son plan local d’urbanisme de 2006, l’exemple du recours à des règles simplement morphologiques, concernant la hauteur, le volume, le retrait, ou encore les caractéristiques constructives (composition de façade, proportions des rez-de-chaussée) pour encadrer l’aspect des bâtiments neufs, qui devront s’intégrer au tissu existant en prenant en compte les particularités typologiques des quartiers, « sans conduire à un mimétisme architectural souvent qualifié de pastiche ».

Sans aller plus avant dans l’évocation de cette question complexe, vos rapporteurs appellent l’attention sur l’intérêt de ces dispositifs d’assouplissement pour la réussite d’un développement de masse de la construction à basse consommation.

 Les marchés publics

C’est au cours de l’audition du président de l’Association des Industries des Produits de Constructions (AIMCC), M. Jean-Marie Vaissaire, que vos rapporteurs ont identifié une difficulté posée par les règles de marché public en ce qui concerne les appels d’offres pour la réalisation de bâtiments à basse consommation.

La construction d’un bâti dépourvu de défaut suppose en effet une bonne coordination entre les différents corps de métiers mobilisés, afin d’éviter que les travaux de finition des uns ne soient remis en cause par l’intervention des autres. De là, l’intérêt que des petites entreprises qui ont l’habitude de travailler ensemble puissent répondre par une offre commune à un marché de construction d’un immeuble administratif.

L’obligation d’une division par lots de l’ouvrage à réaliser fait cependant obstacle à cette démarche de coordination, pourtant potentiellement gage d’une prestation de meilleure qualité.

Vos rapporteurs ont évoqué la difficulté lors de leur visite du siège de l’ADEME à Angers, et M. Xavier Lefort, secrétaire général, a expliqué que l’ADEME avait procédé, pour la construction de la partie nouvelle de son bâtiment, qui atteint la performance du label « Effinergie », par un appel d’offres sur performance.

Cette procédure consiste à organiser la consultation à partir d’une définition des besoins exprimée sous forme d’exigences à satisfaire. Elle est dérogatoire au principe de l’intangibilité de l’offre qui régit les appels d’offres classiques, mais elle est autorisée si l’opération présente un caractère innovant. L’entreprise titulaire se trouve, en ce cas, en charge de la réalisation de l’ensemble du projet, et mobilise à cette fin les ressources qu’elle a présentées dans son offre. La bonne coordination des intervenants fait donc partie des critères de sélection.

L’expérience de l’ADEME conduit à observer que ce sont surtout des grandes entreprises de maîtrise d’œuvre qui répondent à ce type d’appel d’offres. Cependant l’outil juridique semble en ce cas bien adapté au besoin.

On peut s’interroger néanmoins sur la pérennité d’une solution reposant sur l’identification du caractère innovant du projet, dans la perspective d’une généralisation de la construction à basse consommation. A partir de 2013, il deviendra plus délicat d’invoquer ce caractère innovant pour des constructions qui n’auront comme particularité que de mettre en œuvre la réglementation thermique courante.

Une réflexion sur l’adéquation des règles de marché public à la généralisation de la basse consommation dans les constructions publiques sera donc, en tout état de cause, utile.

3. La formation des professionnels

Vos rapporteurs n’ont pas manqué de souligner, dans leur précédent rapport sur la stratégie de recherche en énergie, combien la formation était une composante indispensable à la diffusion des avancées technologiques, et la révolution culturelle de la construction à basse consommation fournit une illustration emblématique de cette analyse, car il ne sera pas possible de généraliser cette nouvelle approche de la construction sans son appropriation massive par les professionnels concernés.

Le besoin d’une intensification de l’effort de formation a du reste été identifié comme indispensable lors des tables rondes conclusives du Grenelle de l’environnement en octobre 2007 (engagement n° 11). La loi du 3 août 2009 l’a traduit dans son article 6 qui concerne : « un programme pluriannuel de qualification et de formation des professionnels du bâtiment et de l’efficacité énergétique dans le but d’encourager l’activité de rénovation du bâtiment, dans ses dimensions de performance thermique et énergétique, acoustique et de qualité de l’air intérieur ».

Les auditions tenues par vos rapporteurs ont permis de constater que les différents acteurs du secteur avaient pleinement conscience de ce besoin, et que des efforts étaient déjà engagés en ce sens. La cible à viser en ce domaine, autant que faire se peut, doit être un système de double certification, celle des entreprises et celle des personnes, mis en œuvre depuis longtemps dans l’industrie, et particulièrement dans l’industrie nucléaire.

 La multiplicité des initiatives en cours

Le bilan des informations recueillies au cours des auditions montre que les initiatives en cours pour renforcer la formation des professionnels du bâtiment sont d’ores et déjà assez nombreuses :

- l’association « Effinergie » a signé une convention avec le ministère de l’Education nationale, qui a conduit à labelliser une douzaine de modules de formation spécifique sur la méthodologie de la « basse consommation » dans le cadre de BTS et de BAC professionnels ;

- certaines structures de l’enseignement supérieur se sont déjà adaptées : l’Ecole des Mines d’Alès offre la possibilité d’obtenir un diplôme d’ingénieur par l’apprentissage sur le thème : « Conception et management de la construction » ; l’IUT de Marne la Vallée a créé une licence professionnelle « Bâtiment à basse consommation » ;

- le dispositif du FEEBAT (Formation aux Economies d’Energie dans le BATiment), mis en place en partenariat avec l’ADEME, prend son essor, et devrait accueillir 50 000 stagiaires au cours de l’année 2009. Il est financé par le mécanisme des certificats d’économie d’énergie, et s’appuie sur des centres de formation professionnelle habilités ;

- il convient également de mentionner la mission confiée à M. Yves Farge, président du comité d’animation stratégique du Prebat, et membre de notre comité de pilotage, pour étudier la manière dont le système éducatif pourrait réorienter ses efforts dans ce domaine, notamment en participant à des plateformes technologiques associant formation, démonstration, R&D et accueil d’entreprises5 ;

Un effort supplémentaire de l’Education Nationale serait certainement utile, car la demande pour la formation aux métiers du bâtiment augmente. D’après les informations parvenues à vos rapporteurs, le recrutement de professeurs pour les lycées professionnels ou techniques se tarirait, et certaines classes fermeraient dans ces lycées. Si c’est le cas, une mise en cohérence s’impose, peut-être sur le mode d’une amplification des partenariats avec l’association « Effinergie », ou avec d’autres acteurs, comme la branche française de « Minergie ».

Le ralentissement d’activité liée à la crise économique paraît une période propice pour suivre des formations professionnelles, mais il ne faudrait pas que les employés des entreprises mieux loties en commandes soient exclus du dispositif. C’est pourquoi la loi n° 2009-1437 du 24 novembre 2009 relative à l’orientation et à la formation professionnelle tout au long de la vie, prévoit, à titre expérimental, jusqu’au 31 décembre 2011, dans les petites entreprises (moins de dix salariés), une prise en charge des rémunérations versées pour remplacer un collaborateur absent pour cause de formation.

 L’intérêt de la double certification

L’effort de formation s’accompagne logiquement d’un dispositif de certification, qui permet de valoriser commercialement la qualification acquise, en établissant un lien de confiance avec la clientèle. Lors des auditions, vos rapporteurs n’ont pas manqué de rappeler l’utilité de cet instrument de communication pour faciliter l’identification par le grand public des prestataires les plus performants.

Les deux principales organisations professionnelles du bâtiment se sont engagées résolument dans cette voie :

- la Confédération de l’Artisanat et des Petites Entreprises du Bâtiment (CAPEB) a mis en place, début 2009, le label « Eco­artisan », ouvert à l’ensemble des entreprises du bâtiment, qui habilite à fournir un conseil en matière d’efficacité énergétique, et reconnaît une aptitude à réaliser des travaux en contrôlant leur qualité ; en octobre 2009, la CAPEB a confié la gestion de ce label à l’association Qualibat ;

- la Fédération française du bâtiment (FFB) a annoncé, lors du salon Batimat de novembre 2009, le lancement du label « Pro de la performance énergetique » (FBF), qui sanctionne une qualification de métier certifiée par Qualibat ou Qualifelec, et l’engagement de respecter la charte « Bâtir avec l’environnement ». L’obtention de la mention “économie d’énergie” suppose que 10 % des équipes de l’entreprise aient suivi l’un au moins des trois modules Feebat et qu’à l’échelle de l’entreprise, les 3 modules Feebat aient été suivis.

Vos rapporteurs ne peuvent que se réjouir d’initiatives qui vont jusqu’au bout de la logique de garantie de la qualité des prestations, puisque dans les deux cas, un lien est fait entre la certification des entreprises et la certification des personnes ; ce lien est en effet implicite dans le cas des artisans qui travaillent souvent seuls, ou en équipes réduites.

La pratique de la « double certification », celle des entreprises et celle des personnes, permet d’éviter les procédés consistant à mettre en avant un label collectif de compétence pour décrocher un contrat, et faire ensuite exécuter celui-­ci par des ressources humaines inexpérimentées, voire employées en sous-­traitance.

Inversement, la qualification d’une personne peut être relativisée par un contexte d’entreprise qui en réduit la portée pratique, du fait d’une mauvaise organisation, ou d’une gestion trop étriquée des tâches annexes de logistique.

Le monde industriel recourt depuis longtemps à la double certification, et le domaine de la maintenance des centrales nucléaires en fournit un exemple.

Ainsi, le « Comité français de certification des Entreprises pour la Formation et le suivi du personnel travaillant sous Rayonnements Ionisants » (CEFRI), qui a été créé en 1990 par les professionnels de l’industrie nucléaire, délivre, après audit, une certification aux entreprises de travail temporaire et aux entreprises prestataires auxquelles les exploitants de centrales nucléaires sont susceptibles de faire appel. Elle atteste du bon suivi sur le plan médical, de la formation à la prévention des risques et du suivi dosimétrique des travailleurs.

La certification des entreprises par le CEFRI est conditionnée par une certification personnelle de chacun des employés : ceux-ci doivent obtenir un certificat de formation à la prévention des risques, en particulier en ce qui concerne les risques dus aux rayonnements ionisants. Ce certificat ne peut être délivré que par un organisme de formation certifié par le CEFRI.

On retrouve ce dispositif de la validation de compétence à deux niveaux, l’entreprise et les personnes, dans le domaine du contrôle des équipements sous pression, organisé par le décret du 13 décembre 1999. Celui-ci prévoit (article 21) que les habilitations des organismes d’inspection sont délivrées par le ministre chargé de l’industrie, sous réserve du respect de certains critères, dont l’obligation pour le personnel chargé des contrôles de posséder « une bonne formation technique et professionnelle. »

Déjà, les certifications de métiers accordés par Qualibat (décontamination amiante, traitement des bois en œuvre et des constructions, distribution de fluides médicaux, désenfumage naturel, métallerie feu, énergies renouvelables, travaux d’accès difficiles), et par Qualifelec (électrotechnique, électrothermie, antenne, éclairage public, courants faibles, maintenance installations électriques) reposent sur une vérification de la qualification du personnel, justificatifs ou diplômes à l’appui.

La pratique de la double certification ne manquera pas de s’étendre aux autres métiers du bâtiment. Ainsi, le syndicat de la menuiserie extérieure (UFME) a mis en place, en juin 2009, en partenariat avec le Bureau Veritas, une certification « Pose Portes & Fenêtres », qui sanctionne notamment l’engagement de l’entreprise bénéficiaire à assurer la transmission du savoir-faire et le suivi des compétences au sein de ses équipes de pose.

4. L’implication des industriels

Lors de leurs visites en Suisse, puis en Allemagne, vos rapporteurs n’ont pas manqué de demander à leurs interlocuteurs, qui bénéficiaient d’un recul d’une dizaine d’années au moins sur la mise en œuvre de bâtiments Minergie ou « Niedrigenergiehaus » (NEH), quel accueil les industriels de la filière de la construction avait réservé à ces initiatives.

Dans les deux cas, la réponse a été très claire : des protestations vigoureuses au départ, puis une adaptation technologique assez rapide, en quelques années. La visite d’une grande surface spécialisée dans les matériaux et équipements du bâtiment, à Fribourg-en-Brisgau, a permis de se rendre compte de l’abondance des solutions techniques à la disposition des constructeurs allemands aujourd’hui.

Ces éléments de comparaison européens ont permis à vos rapporteurs de prendre avec un peu de recul certaines récriminations très appuyées, qui heureusement, coexistent avec des attitudes beaucoup plus volontaristes.

 Le camp de la résistance

L’association Promotelec est une association créée en 1962 pour promouvoir les usages durables de l’électricité dans le secteur résidentiel. Elle regroupe l’ensemble des acteurs et représentants de la filière électricité, dont le groupe Atlantic, qui joue manifestement le rôle de fer de lance de l’association pour la discussion sur la future réglementation thermique.

Afin de préserver un espace pour le marché des systèmes à effet Joule, au moins à titre temporaire, jusqu’à ce que la pompe à chaleur thermodynamique soit opérationnelle pour les logements collectifs, Promotelec et Atlantic revendiquent une fixation à 1 du coefficient de conversion au bénéfice de l’eau chaude électrique, en plus d’une modulation selon la surface du bâtiment variant de 40 à 105 %. Mais ce dispositif reviendrait pratiquement à pérenniser la réglementation actuellement en vigueur (RT 2005), et à effacer la prescription de l’article 4 de la loi du 3 août 2009.

Lors de leur visite du site d’Atlantic à Orléans du 18 novembre 2009, vos rapporteurs ont été soumis à la pression d’un chantage à la destruction d’emplois : l’usine qui fabrique sur place des convecteurs à effet Joule, à savoir une chaîne d’assemblage où l’on emboutit et peint des tôles, puis on monte des modules électrotechniques conçus ailleurs, occupe 250 salariés. Ils étaient implicitement montrés comme autant d’otages prêts à être sacrifiés pour forcer la décision des pouvoirs publics.

Ce procédé quelque peu désespéré paraît d’autant plus surprenant que, par ailleurs, le groupe Atlantic semble bien positionné stratégiquement : il produit des équipements aussi bien pour le gaz que pour l’électricité ; cette dualité serait même gérée, dans certains cas, a-t-on déclaré à vos rapporteurs, au niveau des usines, ce qui permet de faire basculer le personnel d’une chaîne de production à l’autre, lorsque la demande se déplace. Le groupe fournit manifestement un véritable effort pour faire progresser la technologie des pompes à chaleur et des chauffe-eau solaires ; de surcroît, il participe à un effort de recherche coopérative, dont la meilleure illustration constitue le centre d’expérimentation « Castor et Pollux », géré en partenariat avec l’Ademe, le CETIAT, le CSTB, l’Ecole des mines de Paris, l’INES, le Bureau d’études thermiques. Surtout, il dispose d’une couverture internationale solide, axée sur l’Europe de l’Ouest, mais aussi l’Europe Orientale, le Proche et Moyen-Orient ; au total, son circuit de distribution s’étendrait sur une centaine de pays.

Il paraît donc peu probable qu’il lui soit difficile d’adopter la stratégie d’adaptation utilisée par les industriels en Suisse et en Allemagne, consistant à exporter, vers les pays moins exigeants du point de vue de la réglementation thermique, les produits devenus plus difficiles à écouler dans le contexte national. Apparemment, d’après les retours d’information des expériences de construction par l’association « Minergie » en France, qui ont buté sur la difficulté de trouver des composants de qualité suffisante dans nos frontières, notre pays lui-même aurait été utilisé jusqu’ici par nos voisins plus avancés dans la réglementation thermique comme un marché de déversement.

Les protestations quant à la brutalité du changement imposé semblent en outre fort exagérées, car, outre que la mise en œuvre de la nouvelle réglementation dans le secteur résidentiel, cible principal du groupe, laisse encore, jusque fin 2012, un délai de trois années pleines pour s’adapter, il faut ajouter qu’un management clairvoyant aurait déjà dû entreprendre des réajustements stratégiques à partir de la présentation des conclusions du Grenelle de l’environnement, en septembre 2007 ; ce qui porte le délai d’adaptation objectivement disponible à cinq ans. En outre, dans une entreprise bien dirigée comme semble l’être Atlantic, des travaux prospectifs ont dû certainement constater la montée en puissance, depuis le milieu des années 90, en Europe particulièrement, des efforts pour mieux maîtriser la consommation énergétique dans les bâtiments ; la révolution environnementale qui s’est produite avec le Grenelle de l’environnement pouvait donc être anticipée par des professionnels quelques années auparavant.

Au, total, le délai d’adaptation dont va disposer le groupe Atlantic, en lui supposant la capacité d’anticipation d’une entreprise raisonnablement bien gérée, atteint presque une dizaine d’années. Il est très étonnant qu’une unité de production aussi exposée que celle d’Orléans n’ait pas bénéficié, sur ce laps de temps, d’un programme de montée en gamme.

De fait, le principal problème en question semble être la remise en cause de ce que, dans le vocabulaire de la fameuse « matrice stratégique » du Boston Consulting Group, on appelle la « vache à lait », c’est-à-dire le segment de la production qui dégage énormément de profit. Toute concession des pouvoirs publics, à titre de dispositif transitoire, ne conduirait qu’à déclencher à nouveau la force de frappe de l’appareil de communication du groupe pour réclamer un autre assouplissement temporaire au terme du premier.

 Le parti pris du volontarisme

L’analyse plus particulière de la situation du groupe Atlantic, justifiée par la vigueur de sa revendication, permet de mettre à jour les différents aspects du processus d’adaptation à laquelle la filière industrielle va, de toute façon, devoir faire face. Mais toutes les entreprises ne gèrent pas ce processus d’adaptation de la même manière, ne serait-ce que parce qu’elles ne subissent pas la contrainte de la future réglementation de la même manière.

Il convient ainsi d’observer que le groupe Aldes, auditionné le 15 juillet 2009, qui présente nombre de caractéristiques communes avec Atlantic, en termes notamment de stratégie de produits, de couverture internationale, même s’il est de taille un peu moindre (1 400 salariés contre 4 000 pour Atlantic), s’est au contraire montré très ouvert à une accélération de ses efforts d’adaptation technologique pour assurer la réussite du passage à la construction en basse consommation en France.

Vos rapporteurs se sont demandé ce qu’il en était dans le domaine de l’industrie des matériaux. C’est pourquoi vos rapporteurs ont auditionné M. Didier Roux, directeur de la recherche de Saint-Gobain, le 15 juillet 2009, et M. Jean-Marie Vaissaire, président de l’AIMCC, l’association des industries des produits de conception.

Tous deux ont fait part de leur forte volonté de participer au mouvement en cours, en soulignant l’importance que va revêtir le contrôle du résultat obtenu.

M. Didier Roux a cependant souligné que l’attention de son groupe était attirée plus du côté de la rénovation que du côté de la construction, en raison de la différence de taille entre les deux marchés (qui atteint un facteur 100).

M. Jean-Marie Vaissaire a souligné la préoccupation de ses adhérents de mettre en valeur les qualités environnementales des produits, par exemple la capacité du plâtre à assainir la qualité de l’air intérieur, en absorbant les bactéries et les formaldéhydes. L’AIMCC s’est par ailleurs engagé à alimenter un système de base de données (INIES) contenant des fiches de déclaration environnementales et sanitaires (FDES) pour chacun des matériaux, avec l’objectif de les recenser en totalité d’ici la fin 2012. Le but à terme est de pouvoir interconnecter cette base avec des outils logiciels de conception des bâtiments, permettant d’en optimiser a priori la performance énergétique et le confort.

Vos rapporteurs ont soulevé la question du prix des matériaux de construction, qui serait particulièrement élevé en France, selon la CAPEB. M. Jean-Marie Vaissaire a signalé que toute distorsion de cet ordre relèverait du contrôle européen de la concurrence, puisqu’en l’occurrence ce sont les règles du marché unique qui s’appliquent.

Au total, les contacts pris avec les milieux industriels ont plutôt confirmé le schéma décrit à vos rapporteurs par leurs interlocuteurs de Suisse et d’Allemagne : il existe des protestations, mais même les entreprises qui manifestent le plus de récrimination à l’endroit de la future réglementation thermique poursuivent un effort de recherche bien orienté.

Le message essentiel qu’envoie le monde industriel, c’est qu’il a besoin d’un cap clair, et d’un cadre réglementaire stable, pour apporter pleinement sa contribution à la réussite de la construction à basse consommation.

B. L’adhésion du plus grand nombre

C’est une des réussites incontestables du « Grenelle de l’environnement » d’avoir mobilisé à la fois l’ensemble de la population sur les enjeux liés aux économies d’énergie et à la lutte contre l’effet de serre, et l’ensemble des professionnels du bâtiment sur l’objectif de la construction à basse consommation.

Cependant, pour que la nouvelle réglementation thermique s’applique avec succès, il faut que la population arrive au même degré de conscience des enjeux que les professionnels. Car la mise en œuvre supposera de sa part des choix éclairés, et une vigilance sur la qualité des prestations.

C’est pourquoi cette mise en œuvre suppose une intervention publique à trois niveaux : la sensibilisation, l’accompagnement, le financement.

1. La sensibilisation

La politique de communication constitue un aspect essentiel de l’effort pour développer la construction à basse consommation.

En Suisse, les responsables de l’association Minergie passent une partie de leur temps à donner des conférences dans les salles municipales, une autre partie à répondre à des demandes de conseil au téléphone ; M. Marc Tillmanns, le directeur de l’agence romande, a indiqué que l’assistance au téléphone prenait même une telle ampleur qu’il songeait à en faire une activité spécifique.

A Fribourg-en-Brisgau, Mme Beate Lorentz, responsable de la construction à la mairie, a expliqué que le déploiement du standard Passivhaus, qui allait bientôt devenir obligatoire dans la ville, puisque celle-ci se fait un honneur d’avoir toujours un niveau d’exigence supérieur à celui de la réglementation nationale, serait précédé d’une campagne de communication de plusieurs mois.

Reprenant cette même logique, l’association « Effinergie » s’est donnée comme mission de déployer une communication nationale sur ses projets, et manifestement elle a contribué à convaincre les Autorités publiques de la faisabilité d’une généralisation de la construction à basse consommation.

Mais il paraît nécessaire, maintenant que le pas est franchi, d’aller beaucoup plus loin dans la communication et l’information, afin de toucher l’ensemble de la population.

Vos rapporteurs constatent qu’il existe déjà des structures chargées de cette mission aux statuts très différents :

ainsi, les CAUE (Conseils d’Architecture, d’Urbanisme et d’Environnement), organismes départementaux d’information, de conseil, ouverts à tous, qui sont financés par une taxe sur les permis de construire. Ils assument une mission de conseil gratuit, au plus près de la demande, en assurant notamment des permanences en mairie ;

l’Agence locale de l’énergie du Grand Lyon, dont le directeur, M. Samir Boukhalfa, a accueilli vos rapporteurs pour une visite de bâtiments « Effinergie » le 10 juillet 2009, remplit également une mission de conseil, en assurant des permanences, sur rendez-vous, et par téléphone. L’ALE peut aussi réaliser gratuitement des analyses économiques et environnementales, en vue de réduire les consommations énergétiques par exemple.

L’ADEME a créé à partir de l’automne 2000, dans le cadre du Plan National de Lutte contre le Changement Climatique, un réseau d’information de proximité, les « Espaces Info Energie » (EIE), en partenariat avec les collectivités locales, les organisations professionnelles et les associations. Ces EIE ont une fonction de conseil (par correspondance, par téléphone ou par contact direct, ou en assurant des permanences), et d’animation (participation à des foires, salons, organisation de visites d’installations). On en compte 230 à travers la France, qui accueillent au total 450 conseillers « Info Energie » ; le nombre de ceux-ci doit être porté à 500 d’ici 2010.

Ces initiatives pertinentes correspondent à des structures ad hoc, manifestement très dynamiques si l’on se réfère à l’ALE, et vos rapporteurs pensent qu’il serait utile de s’appuyer sur leur expérience pour construire un maillage de relais d’information encore plus fin à l’échelle de l’ensemble du territoire national, en les fédérant, en les renforçant, en les complétant.

Si des ressources publiques doivent être mobilisées pour réussir la construction à basse consommation, c’est de ce côté-là qu’elles doivent prioritairement être orientées : dans les actions d’information et de conseil au bénéfice de nos concitoyens.

2. L’accompagnement

Même bien informé et bien conseillé, le particulier est confronté à une importante difficulté sur le chemin de la construction d’une maison à basse consommation, c’est-à-dire sur l’atteinte de la performance requise par la réglementation thermique : le choix du maître d’œuvre. M. Bruno Comby l’a rappelé implicitement à vos rapporteurs lors de la présentation de sa « maison écologique » à Houilles, puisqu’il a dit avoir pratiquement tout fait lui-même, jusqu’au puits canadien, en louant une pelleteuse pour quelques jours.

Mais tous les particuliers n’ont pas le talent de M. Comby, et doivent s’en remettre à un professionnel pour conduire la construction. S’ils n’ont pas eu la chance d’être aiguillés vers un maître d’œuvre consciencieux, ils risquent de se retrouver in fine avec une construction qui n’est pas à la norme, et que pourtant ils doivent occuper, car ils n’ont pas forcément les moyens de payer un logement d’attente. Ils se voient alors pénaliser deux fois : d’abord, parce qu’ils sont, bien malgré eux, en infraction ; ensuite, parce qu’ils ne bénéficient pas des économies d’énergie, et donc de la réduction des charges courantes, que procure la conformité à la réglementation.

Bien des réponses sont formulées face à ce schéma présenté parfois comme exagérément pessimiste, notamment : que la liberté suppose la responsabilité, et qu’il faut se renseigner avant de choisir son prestataire ; ou encore : qu’on peut toujours agir en justice en cas de clause contractuelle non satisfaite, voire en cas d’escroquerie.

Cependant ces considérations ne renvoient pas à la réalité d’un déséquilibre d’information6 extrême entre un particulier qui construit l’unique maison de sa vie, et un professionnel des chantiers ; elles ne tiennent pas non plus compte de la lourdeur des procédures judiciaires, qui demandent certaines disponibilités en temps et en argent, ce dont les personnes modestes déjà accaparées par la vie quotidienne ne disposent pas. Les plaideurs de Racine étaient des rentiers oisifs.

Surtout, dans la mesure où le projet de la loi Grenelle 2 prévoit que c’est au maître d’ouvrage de fournir à l’autorité qui a délivré l’autorisation de construire une attestation de conformité établie par un tiers, le particulier qui va se retrouver, au terme des travaux, avec une construction qui, une fois vérifiée, ne respecte pas la norme, se trouvera pris au piège si son maître d’œuvre n’est pas coopératif.

Il est à craindre alors qu’il ne s’établisse un marché noir des attestations techniques de complaisance pour sortir de l’embarras bien des maîtres d’ouvrage.

En réalité, si le problème du déséquilibre fondamental entre le particulier et son maître d’œuvre n’est pas traité, la réglementation thermique risque au final de se trouver vidée de son sens pour une bonne part des constructions individuelles. Car, évidemment, les maîtres d’ouvrage du secteur tertiaire et du logement collectif seront autrement armés pour obtenir de leur maître d’œuvre le respect du contrat de construction, en particulier la clause relative à la performance énergétique.

Vos rapporteurs ont examiné plusieurs pistes envisageables pour compenser ce déséquilibre fondamental entre le particulier et son maître d’œuvre, sans être allés néanmoins jusqu’à opter pour l’une d’elles. Il appartiendra peut-être au Parlement de trancher dans le cadre de la discussion du projet de loi « Grenelle 2 ».

Ces trois pistes sont le conseil, c’est-à-dire l’intervention de l’architecte, le contrôle, c’est-à-dire l’intervention de l’administration, ou la sanction, c’est-à-dire l’intervention du juge, mais dans des conditions rapides.

 Le conseil

La loi du 3 janvier 1977 sur l’architecture établit au bénéfice des architectes un monopole de la conception architecturale des ouvrages soumis à permis de construire. L’architecte engage sa responsabilité professionnelle sur le projet qu’il a conçu. Il répond des désordres matériels liés à un défaut de conception. Lorsqu’il établit le projet qui fait l’objet de la demande de permis de construire, l’architecte s’engage également à respecter les règles de la construction. Le maître d’ouvrage peut choisir une autre personne pour diriger ensuite les travaux. Mais, en ce cas, l’architecte doit vérifier la conformité des ouvrages au projet architectural.

Le recours à un architecte apparaît donc comme une garantie de bonne fin, notamment lorsqu’il s’agit de respecter une norme thermique exigeante, car c’est alors à l’architecte qu’il incombe la responsabilité de la mettre en œuvre.

A Fribourg-en-Brisgau, en Allemagne, nos interlocuteurs ont souligné le rôle clef joué par l’architecte dans le mouvement vers la construction à basse consommation, au niveau de la conception des bâtiments, comme au niveau de la surveillance des chantiers.

En France, le droit semble en apparence peu éloigné de ce modèle, sous réserve de deux différences majeures :

- d’abord, la dérogation du recours obligatoire à l’architecte pour les surfaces de moins de 170 mètres carrés ; ce qui met hors jeu pratiquement toutes les constructions des particuliers ;

- ensuite, la distance culturelle entre les architectes et les cabinets d’ingénieurs, qui confortent la vocation artistique pure des architectes, au détriment de leurs devoirs vis-à-vis de la sobriété énergétique.

A ce propos, on peut rappeler les premiers mots de la loi du 3 janvier 1977, qui fixe l’état d’esprit de la profession : « L’architecture est une expression de la culture. La création architecturale, la qualité des constructions, leur insertion harmonieuse dans le milieu environnant, le respect des paysages naturels ou urbains ainsi que du patrimoine sont d’intérêt public ». La sobriété énergétique n’est pas mentionnée, sauf peut-être à travers la « qualité des constructions ».

Vos rapporteurs se sont interrogés sur l’intérêt d’aménager la dérogation des 170 mètres carrés, fixée par décret, et ont auditionné à ce propos M. Alain Liébard, le 15 octobre 2009, et M. Yorrick Mahé, le 5 novembre 2009.

Vos rapporteurs ont ainsi pu vérifier que la profession n’est pas soumise à un « numerus clausus », et qu’en conséquence, il existerait une offre de services potentielle de la part de jeunes architectes, de surcroît véritablement motivés par la construction à basse consommation, si le marché des petites constructions s’ouvrait du fait de l’abaissement du plafond de dérogation. M. Alain Liébard a attiré notre attention sur le fait que cet abaissement devrait être coordonné avec le seuil de l’obligation de déclaration de travaux (20 mètres carrés), peut-être d’ailleurs en fixant les deux limites à 10 mètres carrés, afin de mieux couvrir le cas des verrières et vérandas, qui sont souvent très mal conçues d’un point de vue thermique.

Deux problèmes essentiels resteraient posés par cet abaissement du plafond de dérogation :

d’une part, le risque de générer un surcoût lié à la rémunération de l’architecte. A cet argument, M. Didier Roux, lors de son audition du 15 juillet 2009, a opposé l’avantage des multiples économies potentielles que procure l’intervention d’un professionnel de confiance, en rejetant les devis exagérés, en évitant des malfaçons qu’il faut ensuite corriger ;

d’autre part, le besoin d’une coordination avec l’offre, par nature complète, des « constructeurs de maison individuelle », qui se placent sous le régime de la loi du 19 décembre 1990. En ce cas, le rôle de l’architecte se limiterait à une assistance à la maîtrise d’ouvrage, avec un rôle de conseil sur le choix du constructeur, ne serait-ce que pour écarter ce que la Fédération française des constructeurs de maisons individuelles appelle des « faux » constructeurs, se cachant notamment derrière des imitations et des publicités mensongères7 ; l’architecte pourrait en outre apporter un concours technique à son client en cas de difficulté avec le constructeur.

Vos rapporteurs pensent que, dans ces conditions, l’implication des architectes constituerait plutôt un atout pour la réussite du déploiement de la construction à basse consommation.

 Le contrôle

A Fribourg-en-Brisgau, Mme Beate Lorentz, la responsable du service de la construction à la Mairie, s’est fortement impliquée dans le suivi des chantiers des quartiers Vauban et Rieselfeld, allant jusqu’à s’interposer en cas de conflit entre le maître d’ouvrage et son prestataire.

Tel est le modèle dont on pourrait s’inspirer en France, en réactivant la mission régalienne de contrôle dévolue aux directions départementales de l’équipement, qui semble, d’après des informations recueillies de première main auprès de fonctionnaires ayant assumé des responsabilités dans ces directions, remplit quelque peu à la marge aujourd’hui.

Cette mission de contrôle s’exerce par délégation d’une compétence reconnue au préfet en vertu de l’article L.151-1 du code de la construction et de l’habitation : « Le préfet et l’autorité compétente mentionnée aux articles L. 422-1 à L. 422-3 du code de l’urbanisme ou ses délégués, ainsi que les fonctionnaires et les agents commissionnés à cet effet par l’autorité administrative et assermentés peuvent visiter les constructions en cours, procéder aux vérifications qu’ils jugent utiles et se faire communiquer tous documents techniques se rapportant à la réalisation des bâtiments, en particulier ceux relatifs à l’accessibilité aux personnes handicapées quel que soit le type de handicap. Ce droit de visite et de communication peut aussi être exercé après l’achèvement des travaux pendant trois ans. »

Il s’agit en fait d’une compétence partagée avec le maire (autorité compétente visée par l’article L. 422-1 du code de l’urbanisme), mais les directions départementales de l’équipement seraient bien mieux placées pour relayer une action d’envergure nationale.

Ce réseau d’administrations déconcentrées pourrait en effet être investi d’une fonction globale de suivi de la mise en œuvre de la nouvelle réglementation thermique, amenant à effectuer des contrôles sur place, non seulement a posteriori, mais aussi durant les chantiers, et non plus sur un petit échantillon, mais presque systématiquement.

Cette implication beaucoup plus importante sur le terrain, orientée principalement vers le suivi des constructions de maisons individuelles, segment du marché le plus faible pour le respect de la réglementation thermique, irait de pair avec une mission évoquée précédemment, qui serait du reste confiée plus globalement à l’administration de l’équipement, et qui concernerait l’animation d’un réseau d’échanges de « bonnes pratiques » entre les responsables de l’énergie des bâtiments tertiaires, afin de les aider à converger vers la norme des 50 kWh, dans un contexte où beaucoup de ces bâtiments ne pourront atteindre cette performance du premier coup, au stade de la construction.

Il faudrait donc probablement que l’administration de l’équipement connaisse elle-même une véritable révolution culturelle, à l’échelle de celle que la nouvelle réglementation thermique impose à l’ensemble du secteur du bâtiment, et à l’ensemble des candidats à la construction.

 La sanction

La troisième piste explorée pour renforcer la position du particulier face aux professionnels, à côté du conseil de l’architecte et du contrôle de l’administration, consiste à prévoir une saisine simplifiée du juge sur des faits flagrants.

Dans cette perspective, il était indispensable d’étudier d’abord la solution que pourrait apporter la mise en jeu de la responsabilité décennale, et vos rapporteurs ont donc auditionné les représentants des assurances, sous l’égide de la Fédération française des sociétés d’assurances.

Vos rapporteurs ont été frappés par la qualité et la maturité des réflexions de ces interlocuteurs. Ceux-ci leur ont indiqué que le degré d’exigence de la future norme thermique, et en conséquence l’évidence avec laquelle un défaut de respect se manifesterait, puisque la baisse attendue sur les factures d’énergie devrait être substantielle, conduirait probablement le juge à considérer toute défaillance à cet égard comme un dommage rendant le bâtiment « impropre à sa destination », selon l’expression utilisée par l’article 1792 du code civil qui fonde la responsabilité décennale. Les défauts de performance thermique seraient ainsi probablement sanctionnés comme le sont déjà aujourd’hui les défauts de performance acoustique, car le niveau d’exigence est élevé dans ce domaine, et les résultats parfaitement mesurables.

Ils ont signalé du reste l’intérêt, pour les maîtres d’œuvre, d’assurer un suivi en maintenance des nouvelles constructions, afin d’éviter une mise en jeu de la responsabilité sur un défaut de la construction alors que c’est un défaut d’entretien qui serait en cause.

Cependant la mise en jeu de la responsabilité décennale présente l’inconvénient d’une certaine lourdeur, liée notamment à ce qu’elle utilise la voie d’une procédure civile. Or, l’actualité, avec la discussion du projet de loi dit « HADOPI 2 » a mis en avant une procédure pénale simplifiée, avec juge unique, en cas de faits flagrants : l’ordonnance pénale.

Dans la mesure où certains éléments objectifs permettent de vérifier la qualité d’une construction à sa livraison, on pourrait imaginer que le maître d’ouvrage puisse disposer du moyen de provoquer la sanction pénale du maître d’œuvre si ces éléments objectifs ne sont pas réunis au moment du contrôle technique effectué par un tiers. Ces éléments objectifs sont la perméabilité et l’isolation.

La perméabilité se mesure par le test de la porte soufflante, d’usage courant en Suisse et Allemagne. L’isolation s’évalue, d’après nos interlocuteurs de Schneider travaillant sur le projet « HOMES », en suivant la décroissance de la température après une surchauffe intérieure du bâtiment.

En tous cas, la menace d’une sanction pénale rééquilibrerait le rapport de force entre le particulier et son maître d’œuvre, lequel se trouverait plus enclin à effectuer les corrections nécessaires, à ses frais, si, après vérification par un tiers, la construction ne respecte pas la réglementation thermique. Ce dispositif permettrait au particulier de sortir du piège où l’enferme l’obligation d’attester lui-­même le respect de la réglementation.

Sans aller jusqu’à préconiser la mise en place de ce dispositif pénal, vos rapporteurs tiennent à en signaler la possibilité si les dérives qu’ils craignent se réalisent, et dévoient l’application de la réglementation thermique, rendant de ce fait vides de sens les modulations qu’ils sont chargés de proposer.

En revanche, un abaissement même partiel du plafond de la dérogation du recours à l’architecte, une implication beaucoup plus grande de l’administration de l’équipement dans le suivi et le contrôle, et l’obligation de vérifier la perméabilité et l’isolation de toute construction à sa livraison, ne serait-ce qu’afin de pouvoir mettre en jeu plus rapidement la responsabilité décennale, semblent à vos rapporteurs indispensables pour la réussite du déploiement effectif de la construction à basse consommation.

3. Le financement

Le but premier, objectif, vérifiable de la construction à basse consommation est de réduire la facture de consommation énergétique des occupants, et de la réduire dans des proportions très sensibles, d’au moins 60 % si on transpose simplement l’impact sur les consommations d’énergie primaire.

Le supplément de revenu correspondant va renforcer l’assise financière des particuliers qui s’endettent pour construire. A l’échelle de l’ensemble du mouvement de la construction, c’est-à-dire de plusieurs centaines de milliers d’opérations chaque année, voire de plusieurs millions si l’on considère le stock des prêts au logement, il en résultera un effet positif indirect (en théorie économique on dirait une « externalité »), à l’avantage du système bancaire : les défaillances de remboursement seront moindres, et les frais de gestion associés aux défaillances seront moindres aussi. En outre, le revenu supplémentaire dégagé suscitera une tentative de capture par les services commerciaux des banques, pour alimenter diverses formes de produits financiers : prêts à la consommation, plan d’épargne retraite, par exemple.

Ainsi, si l’on n’y prend garde, une partie des retombées positives de l’effort collectif pour développer la construction à basse consommation va se traduire par une amélioration des « produits nets bancaires », sans aucune contrepartie.

De là, l’idée d’impliquer les banques dans le dispositif, sous une forme toute simple : obtenir un relèvement du ratio habituellement retenu (1/3) entre le revenu et la mensualité de remboursement ; et par là, permettre la distribution de prêts plus importants.

Un calcul de « coin de table » fixe les ordres de grandeur : la facture annuelle d’énergie (sur les cinq usages) d’un ménage est, au bas mot, d’environ 1 000 euros ; l’économie annuelle réalisée dans un logement à basse consommation, en tenant compte d’un éventuel surcoût des frais d’entretien des équipements, est donc d’environ 500 euros ; cela représente une capacité de remboursement supplémentaire de 10 000 euros sur vingt ans, et une possibilité d’emprunt supplémentaire, au taux de 5 %, d’environ 3 000 euros.

C’est l’ordre de grandeurdu surcoût d’une pompe à chaleurthermodynamique par rapport à un chauffe-eau électrique à effet Joule.

Ce dispositif permettrait donc d’aider à débloquer la situation des ménages à revenu modeste souhaitant construire leur maison, sans rien coûter à l’Etat, car il serait la contrepartie du gain que les banques retireront globalement de la mise en place de la nouvelle réglementation thermique. Du reste, il n’aurait pas besoin d’être mobilisé dans tous les cas, puisque la construction des maisons individuelles de surface plus grande génère des surcoûts d’investissement moindres.

Pour les ménages concernés, la conséquence serait qu’ils seraient privés, le temps du remboursement de l’emprunt, de la totalité de l’économie réalisée sur la facture d’énergie. En contrepartie, leur accès à la propriété serait préservé, de même que leur choix d’utiliser des équipements électriques performants.

Tout le dispositif repose sur la crédibilité de la construction à basse consommation, c’est-à-dire sur le respect effectif, au niveau du résultat, de la réglementation thermique. Il est donc incontestable dans son principe, et vertueux dans sa mise en œuvre.

Celle-ci supposerait l’implication des autorités de l’Etat, de l’Ademe, et des opérateurs d’énergie, dans une négociation avec les banques, en vue de signer, avec celles qui comprendraient la démarche, une convention encadrant ce petit effort supplémentaire demandé au moment de l’examen du dossier d’emprunt.

Vos rapporteurs pensent que la Banque postale, dont l’article L. 518-25 du code monétaire et financier dit qu’elle « propose des produits et services au plus grand nombre », ne pourra qu’accueillir volontiers cette invitation à participer à l’accès des ménages modestes au confort de la construction à basse consommation.

Du côté de l’Etat, de l’Ademe et des opérateurs d’énergie, l’engagement porterait sur l’atteinte effective de la performance prévue par la réglementation thermique. Cela supposerait un accompagnement des ménages dans le choix du maître d’œuvre, puis dans le contrôle de la bonne fin des travaux. On peut imaginer que la banque elle-même trouve un intérêt à participer à cet accompagnement.

En conclusion, le dispositif décrit permet de valoriser, au stade du prêt au logement, l’économie d’énergie résultant de la construction à basse consommation. Il ouvre l’accès des ménages modestes à cette construction, notamment en leur donnant les moyens d’acquérir des pompes à chaleur thermodynamiques. Il n’induit aucune charge pour les finances publiques, puisqu’il est financé par les gains implicites que la nouvelle réglementation thermique va procurer au secteur bancaire. Il conduit simplement à la mise en place d’un mécanisme d’accompagnement des ménages bénéficiaires, notamment pour l’étape critique du contrôle de la bonne fin des travaux, ce qui répond à une préoccupation fondamentale concernant la réussite du passage à la basse consommation. Il existe un délai de trois ans d’ici fin 2012 pour le mettre en place.

IV. L’impact économique

Sur la base des remarques précédemment formulées, vos rapporteurs peuvent se risquer à une analyse de l’impact économique de la mise en œuvre de la nouvelle réglementation, en mettant en avant des considérations qualitatives, car il est difficile en la matière de réaliser des estimations quantitatives.

Il convient du reste d’observer combien il aurait été difficile de conduire un appel d’offres pour la conduite d’une étude économétrique dans le laps de temps imparti. Vos rapporteurs ont bien eu besoin des quatre mois d’auditions et de visites pour parvenir à se faire une opinion sur les recommandations à formuler pour la modulation, et ces données auraient été d’emblée indispensables pour définir le cadre de toute une simulation éventuelle. Cette tâche reste donc à achever pour autant qu’elle soit pertinente, compte tenu de l’incertitude à prévoir les réactions des agents économiques concernés.

En tout état de cause, trois questions essentielles se posent d’un point de vue économique : le surcoût induit par les nouvelles méthodes de construction, le frein effectif mis à la consommation d’énergie, les effets d’entraînement potentiels d’un effort sur la construction.

A. Le débat sur le surcoût

La question du surcoût induit par les méthodes de construction permettant d’atteindre la basse consommation était au cœur de toutes les auditions de vos rapporteurs, et les réponses recueillies se partageaient en deux groupes :

- tous les interlocuteurs déjà impliqués dans des réalisations pilotes ont mentionné une fourchette allant de 5 à 15 %, en soulignant le rôle de l’effet d’apprentissage dans la diminution prévisible de ces chiffres. De fait, il est certain que toute équipe ayant participé à un premier projet à basse consommation se mobilisera de manière plus efficace sur le deuxième projet, et ainsi de suite, l’expérience permettant effectivement une meilleure maîtrise des coûts ;

- certaines personnes (Bastide-Bondoux, Geoxia, Promotelec) ont mentionné un surcoût prohibitif, surtout pour les petites constructions.

Vos rapporteurs sont en définitive convaincus que le surcoût restera raisonnable dès lors que l’effort pour atteindre la basse consommation se fondera sur une approche véritablement nouvelle de la construction. Vos rapporteurs ont observé que les annonciateurs de prix prohibitifs raisonnaient toutes choses égales par ailleurs, en faisant comme s’il s’agissait simplement de renforcer un peu l’isolation, et en exagérant tous les obstacles à la prise en compte des apports naturels (contrainte sur l’orientation du bâtiment, masquage par les immeubles voisins).

De fait, la construction en basse consommation génère à la fois des dépenses supplémentaires et des économies qui tendent à les compenser. Ainsi, la visite de l’immeuble Vendôme a Lyon a montré, dans une situation de rénovation, que le renforcement de l’isolation permettait de raccourcir sensiblement le circuit de distribution du chauffage, et donc de réduire son coût d’installation, parce que les radiateurs pouvaient être places a l’entrée des pièces, et non plus obligatoirement sous les fenêtres ; en effet, dans un bâti à basse consommation, les fenêtres ne sont plus des points d’entrée du froid.

En tout état de cause, l’investissement dans la construction à basse consommation se veut fondamentalement rentable sur le moyen terme, en prenant en compte les économies réalisées sur les factures d’énergie. Cette économie est sensible, car l’ordre de grandeur du gain avoisine un facteur 10, avec une charge annuelle qui passe du millier d’euros à la centaine d’euros. Les ménages bénéficiant de ces nouvelles conditions de consommation énergétique se trouvent en outre prémunis contre les chocs de prix de l’énergie qui s’annoncent dans l’avenir, toutes énergies confondues, du fait de l’épuisement annoncé des ressources en hydrocarbures.

Cet avantage de moyen terme est contesté par les annonciateurs de surcoût prohibitif, mais en faisant des calculs partiels, qui ne se réfèrent qu’au prix des équipements, et non au prix global de la construction.

A l’inverse, les interlocuteurs allemands de Fribourg-en-Brisgau, qui s’appuient sur l’expérience de plus d’une décennie, ont signalé à vos rapporteurs que le raisonnement en termes de surcoût avait été abandonné après quelques années, le message sur le gain global à moyen terme l’ayant emporte, au point qu’il était désormais relayé par la publicité des constructeurs, qui se font désormais concurrence, a travers leurs annonces dans les journaux locaux, sur le terrain de la performance énergétique.

Vos rapporteurs pensent également que le surcoût initial, comme toute hausse du prix sur un marché, freinera un temps le mouvement de la construction, quelques années étant nécessaires avant de pouvoir profiter pleinement de l’effet d’apprentissage. L’approche performancielle dynamique qu’ils préconisent devrait minimiser cet effet de freinage pour le secteur tertiaire. Dans le secteur résidentiel, la construction des petites surfaces devrait être particulièrement handicapée, en raison des contraintes budgétaires des ménages présents sur ce segment de marche ; et c’est pourquoi ils ont spécialement tenu à compenser, dans ce cas, la distorsion produite par un calcul réglementaire de la consommation maximale rapportée à la surface.

Pour les petites surfaces, un mécanisme de contrainte de liquidité, signale par M. Mazoyet, directeur général de Bouygues immobilier, pourrait contribuer néanmoins à limiter le freinage des constructions : tous les acheteurs potentiels de petits terrains constructibles devant anticiper un surcoût sur la construction à suivre de leur maison, ils restreindront leur offre de prix, ce qui induira une baisse globale de la valeur foncière en proportion du surcoût moyen de construction. Un phénomène similaire aurait déjà joué sur le prix des terrains après l’introduction de l’obligation d’adapter tout nouveau bâtiment tertiaire aux règles d’accès pour les personnes handicapées.

Pour conclure, vos rapporteurs signalent que M. Alain Maugard, ancien président du CSTB, observe volontiers que la hausse très importante des prix de l’immobilier, au cours des dernières décennies, n’a pas eu d’effet sensible sur le rythme des constructions.

B. La consommation d’énergie

Les débats sur la construction en basse consommation occultent un fait assez important, qui n’a curieusement pas été relevé par les grands opérateurs de l’énergie (EDF, GDF-Suez) lors des auditions : la nouvelle réglementation thermique réduira globalement la demande qui leur sera adressée, indépendamment de la part de marché revenant à chacun. Et cette réduction sera substantielle, puisque la norme thermique sera diminuée d’un facteur 2,5, ce qui revient à ramener la demande globale d’énergie à moins de la moitié.

Il est vrai que cette rupture assez brutale n’impactera dans un premier temps que la construction, c’est-à-dire l’équivalent d’environ 1 % du parc immobilier. Mais quelles que soient in fine leurs parts de marché respectives, les filières énergétiques qui n’augmenteront pas leur part d’un facteur 2,5, tâche probablement hors d’atteinte en pratique, perdront du chiffre d’affaires sur ce segment.

Pour l’électricité, cette baisse de consommation intervient néanmoins au moment où se profile une nouvelle source importante de demande substituable, à savoir le développement prévisible du véhicule électrique.

Mais, à terme, un autre phénomène pourrait compenser partiellement la baisse de consommation d’énergie liée au confort intérieur des bâtiments : l’effet rebond, qui résulte de l’instauration, chez le consommateur, d’un certain laxisme permis par l’innocuité relative des dépenses de chauffage et de climatisation.

De fait, l’économie réalisée sur ces dépenses générera plus généralement un supplément de pouvoir d’achat, de l’ordre de 500 euros par an d’après nos calculs précédents, dont ce laxisme de consommation énergétique ne sera qu’une forme d’emploi parmi d’autres. En ordre de grandeur, le développement de la construction à basse consommation stimulera la consommation d’un millième de PIB après une dizaine d’années8.

Cependant cet effet rebond ne saurait remettre en cause l’ordre de grandeur de la baisse de la demande d’énergie pour l’ensemble des bâtiments construits aux normes de basse consommation : une chute de 60 %.

C. Les effets d’entraînement

Le Grenelle de l’environnement se présente comme l’occasion de fournir de nouveaux relais de croissance pour l’économie. La diffusion des procédés de construction à basse consommation pourrait en particulier avoir des retombées favorables sur l’investissement et l’emploi, si elle contribue à accélérer l’effort de rénovation, et débouche sur l’ouverture de marchés extérieurs.

1. La connexion avec la rénovation

La rénovation n’entre pas dans le champ de la mission confiée à l’OPECST par l’article 4 de la loi du 3 août 2009, puisqu’elle fait très spécifiquement l’objet d’un article différent de la même loi (l’article 5). Cependant, à de nombreuses reprises au cours des auditions de vos rapporteurs, la question s’est posée des conditions dans lesquelles les efforts de formation ou d’innovation conduits dans le cadre de la construction pourraient servir à la rénovation.

A cet égard, deux observations ont été faites :

- d’une part, M. Jean Carassus, lors de son audition du 25 juin 2009, a indiqué qu’a priori, peu d’entreprises s’impliquaient simultanément dans ces deux activités, la rénovation étant plutôt le fait des petites structures, la construction celui des plus grandes ; cependant, à la faveur de l’intense effort de formation à la basse consommation qui est en cours, les deux populations professionnelles devraient probablement partager leurs expériences ;

- d’autre part, les produits de construction peuvent être utilisés en rénovation. Ainsi, la mise au point d’isolants minces profiterait immédiatement aux deux activités. Par ailleurs, l’association suisse Minergie propose des « modules », éléments techniques dont elle certifie la qualité lorsqu’ils sont installés par des professionnels sous licence, qui sont conçus aussi bien pour la construction que pour la rénovation.

Ainsi un certain degré d’interdépendance existe entre la construction et la rénovation, et un lancement réussi de la construction en basse consommation, dans le cadre de la RT 2012, ne pourra qu’accélérer le programme de rénovation des bâtiments qui est prévu dans le cadre du Grenelle de l’environnement.

Ce programme très ambitieux prévoit de réduire la consommation moyenne d’énergie du parc des bâtiments existants d’au moins 38 % d’ici à 2020, ce qui revient à ramener le niveau de celle-ci de 240 à 150 kWh par mètre carré et par an en dix ans ; à compter de 2013, il s’agira de réaliser 400 000 rénovations de logements chaque année, ce qui revient à hausser le rythme de rénovation au niveau de celui de la construction.

Dans ces conditions, il est probable que toute percée technologique réalisée dans le cadre de la mise en œuvre de la nouvelle réglementation de la construction trouvera un débouché complémentaire important sur le marché de la rénovation.

2. Les pistes pour la recherche

Vos rapporteurs n’ont pas perdu de vue, tout au long des auditions, la vocation première de notre Office, à savoir l’évaluation des choix scientifiques et technologiques. Ils ont ainsi identifié quelques pistes particulièrement intéressantes pour la recherche, dans le cadre de l’effort pour améliorer la performance énergétique des bâtiments.

Il ne s’agit pas d’enjeux de court terme pour la réussite de la construction à basse consommation, qui est tout à fait possible avec la technologie déjà disponible ; mais plutôt d’avancées scientifiques potentielles, susceptibles de faciliter les prochaines étapes de l’évolution engagée avec la RT2012. Cinq thèmes de recherche semblent à vos rapporteurs mériter particulièrement l’attention.

a) Les isolants minces

La disponibilité commerciale d’isolants minces faciliterait considérablement l’atteinte de la performance de basse consommation dans le cas de la construction de petites surfaces, ou dans le cas des rénovations obligeant à une isolation intérieure (immeubles haussmanniens).

Certaines offres actuelles se plaçant sur ce créneau technologique, les isolants minces multicouches thermo-réflecteurs, qui se présentent comme des couches de feuilles d’aluminium et de feuilles de plastique à bulles, suscitent pour le moins un débat quant à leur performance réelle.

Sur le conseil de Pierre-René Bauquis, vos rapporteurs ont auditionné le 25 juin 2009 les représentants de la société Interpipe, qui ont décrit une solution basée sur un produit microporeux, mise en point pour calfeutrer un oléoduc de Total posé au fond de la mer du Nord.

Les microporeux piègent l’air dans des minuscules alvéoles, d’un diamètre de l’ordre du dix millionième de millimètre, formées par les enchevêtrements d’une laine de verre très fine. On obtient ainsi un matériau composé de très peu de matière, donc autorisant très peu de conduction, qui entrave aussi les transferts de chaleur entre les molécules gazeuses. Conditionné sous pression réduite, ce type de matériau permet un gain d’efficacité dans l’isolation de l’ordre d’un facteur 7 par rapport à la laine de verre classique ou le polystyrène.

La commercialisation de ce produit, manifestement efficace puisque Total était satisfait du résultat, nécessiterait d’affronter un marché composé de millions d’acheteurs potentiels, alors qu’Interpipe a construit sa réussite sur le créneau de la fourniture de services très spécialisés à des grands groupes pétroliers. Lorsque la protection intellectuelle du produit sera assurée, l’entreprise estime néanmoins que les ventes pourraient se développer à partir du créneau de l’isolation des chauffe-eau.

b) Les réseaux de chaleur

Ainsi que l’indiquait le rapport de M. Henri Prévot9 de mars 2006, les réseaux de chaleur permettent de chauffer plus de la moitié des logements au Danemark, en Finlande, en Suède. Pour avoir été gênés par des travaux de voirie à proximité de leur hôtel à Helsinki, lors de leur précédente mission sur la stratégie de recherche en énergie, vos rapporteurs peuvent ajouter qu’en ces pays de grand froid et de verglas, on utilise même ces réseaux pour « chauffer la rue ».

A l’inverse en France, les réseaux de chaleur restent encore peu développés, n’alimentant en calories qu’à peine 5 % des logements (1,2 million). C’est donc à juste titre que, dans le cadre de la mise en œuvre du Grenelle de l’environnement, un « Fonds Chaleur » a été mis en place, en août 2009. Il a pour objectif de financer les projets de production de chaleur à partir d’énergies renouvelables (biomasse, géothermie, solaire…), jusqu’à hauteur de 60 % des investissements nécessaires pour la partie réseau et sous-stations, tout en garantissant un prix inférieur à celui de la chaleur produite à partir d’énergies conventionnelles.

Cet effort bénéficie du soutien appuyé de l’association AMORCE, regroupant 360 collectivités territoriales particulièrement intéressées, dont vos rapporteurs ont auditionné le représentant le 2 juillet 2009.

Le parc des chaufferies représente une puissance installée de 18,5 GW. Cependant une dimension du développement possible des réseaux de chaleur reste peu évoquée, alors qu’elle est très fortement soutenue par Pierre-René Bauquis et Yves Farge. Elle résulte de l’observation qu’avec un parc de production d’électricité d’une puissance de l’ordre de 80 GW, la France dissipe chaque seconde l’équivalent de 140 GW de chaleur en pure perte10 ; il suffirait de convoyer cette chaleur sous forme d’eau chaude, ou mieux, plus tard, à travers des changements de phase de l’ammoniaque, pour la récupérer en milieu urbain.

CARTE Chauffage urbain à partir des centrales nucléaires

Les progrès technologiques déjà réalisés permettent d’estimer que la perte de température n’excéderait pas 1 °C par dizaine de kilomètres parcourus. Or beaucoup de grandes villes se trouvent à quelques dizaines de kilomètres de centrales électriques, nucléaires ou fossiles, et pourraient être raccordées ; seules Brest, Nice, Perpignan, Bayonne feraient exception.

La principale difficulté est de trouver, dans un contexte marqué par la réduction des consommations énergétiques, l’équation économique qui déclenchera les investissements nécessaires à la mise en place de ce qui permettrait d’augmenter d’un facteur 10 le potentiel d’offre de chaleur. Vos rapporteurs estiment que la question mérite néanmoins examen.

c) La qualité de l’air intérieur

Les progrès de l’isolation rendent les bâtiments très dépendants de leur système de ventilation, et l’étude des conditions permettant à l’atmosphère intérieure de rester parfaitement saine devient dès lors essentielle. C’est un champ nouveau d’investigation, alors que la qualité de l’air extérieur fait l’objet d’un suivi depuis l’émoi suscité par le smog très dense qui s’est abattu sur Londres de décembre 1952 à mars 1953. C’est pourtant de l’air intérieur que chacun respire pendant la majeure partie du temps. La qualité des ambiances intérieures, dont l’air est une composante, joue un rôle sur la productivité au travail.

Vos rapporteurs ont entendu à ce propos, le 9 juillet 2009, le professeur Francis Allard, chercheur au LEPTIAB, laboratoire universitaire situé à La Rochelle, qui s’occupe de la qualité des ambiances habitées, et étudie plus particulièrement le cas des micro-climats, des habitacles, et de l’habitat.

S’agissant des pistes de recherche principales, M. Francis Allard a mentionné la modélisation et le contrôle des flux aérauliques, en vue notamment d’accroître l’efficacité d’évacuation de l’air vicié ; l’optimisation des systèmes de commande des équipements de ventilation en les pilotant à partir de capteurs analysant l’air ; le perfectionnement des échangeurs, en mobilisant notamment la nouvelle technologie des microtubes ; la mise au point de systèmes de piégeage des polluants utilisant les processus d’adsorption et de désorption ; ou encore l’étude des techniques d’épuration de l’air sur la base de la photo-catalyse ou de la bio-catalyse.

Il est nécessaire que de tels efforts soient encouragés puisque l’exigence d’isolation des bâtiments ne pourra aller qu’en se renforçant.

d) Les pompes à chaleur

La fixation d’une norme thermique unique évaluée en énergie primaire crée l’urgence sur deux pistes de développement des pompes à chaleur : d’une part, il s’agit de garantir la possibilité d’un fonctionnement en puisant les calories dans un air vraiment froid, vers -10 °C, sans risque de givrage ; d’autre part, il s’agit de finaliser la mise au point des chauffe-eau thermodynamiques permettant d’équiper les logements collectifs, en veillant notamment à éliminer tout risque de prolifération de la légionelle.

Vos rapporteurs n’ont pas retenu l’idée d’établir un moratoire sur la réglementation, afin de maintenir entière la pression devant conduire à ce que tous les moyens soient mis en œuvre pour progresser rapidement sur ces sujets critiques, la réussite ouvrant ensuite la perspective de marchés à l’exportation.

Cependant l’audition de M. Denis Clodic, Directeur adjoint du Centre « Energétique et Procédés » de l’Ecole des mines de Paris, le 17 septembre 2009, a mis en évidence d’autres pistes de recherche potentiellement fructueuses : d’abord, la modularité de la puissance des pompes, devant leur permettre de fonctionner à divers régimes, notamment pour qu’elles s’adaptent à la faiblesse du besoin de chaleur dans les logements bien isolés ; ensuite, l’hybridation, qui doit permettre de recourir de manière optimisée à différentes sources d’énergie ; enfin, ce qu’il appelle le « parasitisme énergétique », consistant à récupérer les calories encore disponibles dans un système qui vient de fonctionner : typiquement, cela représenterait un gain important d’énergie de pouvoir brancher la source froide d’une pompe à chaleur sur un flux d’eaux usées.

Le renforcement de l’exigence de la réglementation thermique devrait conduire à un renforcement de la filière française des équipements du bâtiment, si comme nos divers contacts l’ont montré, les industriels se mobilisent pour adapter l’offre et perfectionner les produits.

e) Les plateformes technologiques

L’idée de mettre en place des plateformes technologiques, où tous les acteurs concernés par l’enjeu de la construction à basse consommation pourraient entrer en dialogue pour mieux coordonner leurs efforts, résulte de l’analyse du besoin d’une approche système pour la recherche dans ce domaine. A l’image de l’automobile, le bâtiment est en effet un « système de systèmes ».

Cette idée constitue l’un des apports du rapport de l’Académie des technologies de mars 2008 sur l’efficacité énergétique des bâtiments. Elle est portée par Yves Farge, son vice-président, et a été inscrite comme un objectif dans l’article 6 de la loi du 3 août 2009, dite « Grenelle 1 » : « La France concourt à la création d’une plate-forme européenne sur l’écoconstruction, pour développer les recherches et promouvoir les différentes filières de bâtiments faiblement consommateurs d’énergie. »

Ces plateformes auraient quatre missions principales : la formation des cadres (professeurs, ingénieurs, architectes, techniciens), la construction de démonstrateurs à vocation pédagogique, la validation des travaux de R&D, la création d’entreprises nourries des compétences rassemblées sur la plateforme.

Il est envisagé de créer cinq ou six de ces plateformes en France : l’INES, sur le site Technolac d’Aix les bains – Chambéry, pourrait en animer une, qui aurait pour spécialité « L’apport d’énergie par la voie solaire ». Des discussions préliminaires sont en cours pour d’autres plateformes, à Bordeaux d’abord, avec comme spécialité « Le bois dans le bâtiment », à Orléans ensuite, avec comme spécialité « Les apports d’énergie par la géothermie basse température ou profonde, et les réseaux de chaleur ». Il serait enfin utile de créer des plateformes dans le Grand Ouest (Nantes ou Rennes), dans le Nord, et dans l’Est, par exemple à Strasbourg où, d’ores et déjà, de nombreuses expériences sont en cours.

Chaque plateforme devrait constituer un attracteur fort sur l’ensemble du territoire pour ce qui concerne sa spécialité, à l’image des échanges qu’entretient l’INES avec l’ensemble des laboratoires qui travaillent sur l’énergie solaire en France. Elle serait prise en charge financièrement par les partenaires qui l’aurait créée (ministères, régions, collectivités territoriales, fédérations professionnelles, entreprises, organismes de recherche publique, universités, écoles, etc.). Le coût annuel en fonctionnement serait de l’ordre de 100 millions d’euros.

Vos rapporteurs ne peuvent qu’apporter leur soutien à cette démarche qui semble très pertinente, puisqu’elle favorisera notamment la différenciation géo­climatique des solutions expérimentées.

3. L’ouverture de marchés extérieurs

Les objectifs du Grenelle de l’environnement projettent la France au premier rang de la prouesse technologique dans le secteur du bâtiment, sinon au niveau de la performance énergétique, car les réglementations suisses et allemandes sont également très exigeantes, du moins au niveau de la masse immobilière concernée. Cet effort pour porter massivement toute la construction, et tout le parc existant, vers une consommation d’énergie moindre offre une perspective de demande considérable pour l’offre industrielle de matériaux et d’équipements technologiquement plus avancés.

Toutes les conditions sont réunies pour affiner la mise au point des produits sur une base nationale large, amortir les coûts de fabrication rapidement, et disposer donc des conditions les plus favorables pour s’ouvrir des marchés à l’exportation.

La conquête de marchés extérieurs n’est en effet jamais plus solide que lorsque l’assise nationale de la demande est importante. C’est une des clefs du succès de l’industrie allemande, ou encore du cinéma américain, d’appuyer l’exportation sur un marché intérieur fort.

De ce point de vue, l’incitation à sortir d’une spécialisation axée sur l’utilisation d’une électricité peu coûteuse, héritage du choix national fort fait au début des années soixante-dix d’une reconquête de l’indépendance énergétique grâce à l’énergie nucléaire, constitue une chance à saisir plus qu’un handicap.

La libéralisation du marché européen de l’énergie va en effet conduire inéluctablement à une disparition progressive de la spécificité française dans ce domaine, puisque la rente nucléaire historique, qu’elle que soit la voie choisie parmi les options ouvertes par le rapport Champsaur pour sa restitution aux consommateurs français, va se réduire au fur et à mesure du renouvellement des centrales aux conditions de marché11. D’une façon ou d’une autre, les prix français de l’électricité finiront nécessairement par s’aligner, d’ici quelques décennies, sur le niveau imposé par le marché unique européen.

C’est donc un intérêt d’ordre stratégique qui doit conduire les producteurs français d’équipements à réorienter leur offre vers des produits peu consommateurs d’électricité comme les pompes à chaleur, ou couplant ceux-ci avec des énergies renouvelables, comme les systèmes combinés à capteurs solaires thermiques. Le marché de tels produits s’étendra ainsi tout naturellement à tous les pays d’Europe ou du monde qui se lanceront à leur tour, après la France, dans des efforts de maîtrise de la consommation énergétique de leurs bâtiments.

Et la mondialisation de la lutte contre l’effet de serre, ainsi que la menace d’un regain durable de tension sur le prix des hydrocarbures fossiles, laissent augurer sans trop d’incertitude une généralisation progressive, sur la planète, de l’effort de maîtrise de l’énergie dans les bâtiments.

V. Les faux débats théologiques

L’expérience de vos rapporteurs, et leur assise intellectuelle, ont constitué des appuis utiles pour la conduite de cette étude, dont l’objet touche à des domaines très sensibles, propices à la confrontation des passions idéologiques. Il a fallu souvent à vos rapporteurs, à la suite des auditions ou des visites, reprendre un peu de recul pour ne pas perdre de vue l’objectif essentiel, à savoir la double réduction des consommations d’énergie et des émissions de gaz à effet de serre, en préservant à la fois le confort des utilisateurs et l’indépendance énergétique du pays.

Vos rapporteurs en effet identifié trois problématiques dans lesquels certains de leurs interlocuteurs ont essayé de les enfermer, souhaitant les faire entrer dans leur jeu d’intérêts : la concurrence entre les filières énergétiques, qui apparaît en fait comme une « guerre des Trois » ; l’urgence de faire prévaloir l’analyse de la construction à basse consommation en termes de « bilan carbone » ; et surtout, l’incidence des congestions du réseau électrique sur le contenu en carbone de l’électricité.

A. La « guerre des trois »

Il est frappant de constater combien la réglementation thermique est un champ d’affrontement des filières énergétiques : EDF et l’électricité, d’un côté, GDF-Suez et le gaz de l’autre. Ces deux champions disposent d’aides de camp à visage découvert : « Promotelec » pour l’électricité, « Energie et Avenir » ou l’AFG (Association française du gaz) pour le gaz ; mais aussi d’auxiliaires qui se sont manifestés pour être auditionnés, tout en conservant leur étendard dans leur poche.

Tous ces acteurs sont rôdés aux pratiques du lobbying, payent des cabinets spécialisés pour les assister, ont eu soin de placer à leur tête des dirigeants venus des arcanes du pouvoir, et connaissant bien les relais clefs et les arguments efficaces : cette situation est presque un cas d’école pour la théorie économique de la « recherche de rente », qui met en évidence l’intérêt objectif, pour les entreprises, dans certains cas, d’investir dans une action de communication visant à obtenir une situation réglementaire favorable, plutôt que de faire jouer uniquement leurs atouts sur le marché.

En l’occurrence, la saisine de l’OPECST fournit en elle-même un indice du niveau atteint par l’intensité des pressions exercées. Les deux commissions des Affaires économiques du Parlement, celle du Sénat, à l’origine de l’amendement définissant la mission de l’OPECST, et celle de l’Assemblée nationale, qui a demandé une saisine anticipée, ont jugé plus sage de confier la réflexion sur la modulation de la réglementation thermique à un troisième organe parlementaire pouvant reprendre l’analyse à froid, car la complexité de la question méritait une sérénité des débats qui avait fini par faire défaut.

Chaque acteur proteste de sa bonne foi en mettant en avant sa dimension multi-énergies ; chacun présente des tableaux de calcul réglementaire qui appuient sa thèse, pour ou contre telle ou telle forme de modulation, de manière imparable : il était vraiment indispensable de prendre le temps de resituer la question dans son contexte global, d’aller rencontrer des professionnels sur place, de visiter les principaux sites de référence à l’étranger, pour se constituer une opinion sereine au bénéfice de l’intérêt général.

Néanmoins, il convient d’observer que ce jeu d’affrontement ne met pas face à face seulement deux camps, mais trois ; il s’agit bien en effet d’une « guerre des Trois », car certains courants écologistes s’introduisent dans le débat pour manifester indirectement leur hostilité à l’énergie nucléaire, en souhaitant que la nouvelle réglementation thermique bride la part de l’électricité dans la consommation énergétique des bâtiments, quitte à ce que l’espace ainsi libéré pour d’autres énergies soit approprié par le gaz, et non pas nécessairement par des énergies renouvelables. Le paradoxe d’une posture qui favorise ainsi une énergie qui est manifestement, en France, plus émettrice de gaz à effet de serre que l’électricité, est résolu en poussant la thèse du contenu marginal en carbone de l’électricité, thèse qui renvoie à un autre débat théologique, analysé ci-après.

Tous les courants écologistes ne sont pas sur cette ligne, puisque les rapporteurs sont allés visiter, à Houilles, dans les Yvelines, le 7 juillet 2009, la « maison écologique » de M. Bruno Comby, qui a créé « l’Association des écologistes pour le nucléaire ». M. Bruno Comby a construit un bâtiment maximisant les économies d’énergie et les apports naturels, et utilisant un faible complément d’électricité pour la pompe à chaleur et l’échangeur double flux. Sa maison atteint ainsi une performance de 13 kWh par mètre carré et par an, en deçà des exigences fixées pour les Passivhaus. Par rapport à une maison standard chauffée au gaz et conforme à la norme RT 2005, la consommation d’énergie est réduite d’un facteur 20 et les émissions de CO2 d’un facteur environ 200.

Pour ce qui les concerne, les rapporteurs sont convaincus de la nécessité d’aller de l’avant, autant que faire se peut, dans les économies d’énergie et le recours aux énergies renouvelables, et souhaitent que le choix de l’utilisation des énergies classiques (électricité, gaz, voire fioul) soit piloté exclusivement par une logique d’optimisation de la solution en fonction de la situation particulière du bâtiment, notamment au regard de la disponibilité de l’accès aux circuits de distribution.

Ainsi, en dépit de sa contribution indiscutable à l’effet de serre, le recours au gaz, en France, présente un véritable intérêt sous trois aspects :

- d’abord, le réseau de distribution du gaz, qui couvre environ 75 % de la population, soit 45 millions d’habitants, 11 millions de ménages, et moins de 10 000 communes, est le résultat d’un effort de plusieurs décennies après la création de Gaz de France en 1946 ; Gaz de France a en outre construit les deux terminaux méthaniers de Fos-sur-Mer et Montoir-de-­Bretagne amenant le gaz naturel liquéfié (GNL) ; l’accès au gaz a été ainsi une conquête nationale, c’est un investissement historique de la collectivité qu’il serait dommage de ne pas utiliser pleinement aujourd’hui ;

- ensuite, le gaz est une source d’énergie qui se stocke, procurant une sécurité d’approvisionnement, surtout pour l’hiver ; la France dispose ainsi d’une capacité de stockage souterrain équivalente à 28 % de sa consommation annuelle, alors que celle de l’Allemagne ne représente que 22 % et l’Italie 18 % ; l’accès au GNL contribue également à la sécurité d’approvisionnement, et GDF-Suez en est le premier importateur en Europe avec une flotte de 15 méthaniers en exploitation, et 3 en construction ;

- enfin, le réseau de transport et de distribution du gaz conservera son importance stratégique au-delà de la disparition inéluctable du gaz fossile, puisque celui-ci pourra être relayé par le biogaz, ou par un mélange comportant de l’hydrogène. Le biogaz, énergie renouvelable sans contribution à l’effet de serre, peut s’obtenir par méthanisation des déchets ou par gazéification de la biomasse. En Allemagne, depuis décembre 2006, des opérateurs alimentent le réseau de distribution en biogaz. En France, l’AFSSET a rendu, en octobre 2008, un avis favorable pour l’injection de biogaz dans le réseau de gaz naturel.

GDF-Suez s’intéresse au gaz renouvelable, puisqu’il contribue notamment au projet Gaya de gazéification de la biomasse, qui vise à produire du « méthane vert ». Vos rapporteurs ont néanmoins été surpris de constater que l’argument de ce relais potentiel assuré par le biogaz, pourtant très convaincant pour toute personne consciente des contraintes de l’avenir, n’a pas été mis en avant par les responsables de GDF-Suez auditionnés. C’est peut-être le sentiment qu’il s’agit, en France, d’un dossier au trop long cours, qui incite à ne pas trop y mettre le nez.

B. Le bilan carbone

La lutte contre l’effet de serre n’a de sens qu’au niveau global, car c’est l’accumulation de gaz carbonique dans l’enveloppe atmosphérique terrestre qui provoque l’effet de serre. C’est ce constat qui donne toute sa pertinence au concept de « bilan carbone » ou « carbone gris », et à l’inverse, c’est ce qui rend si étrangement décalé, comme on le verra ci-après, le concept d’émission « marginale » de CO2.

Le calcul d’un « bilan carbone » répond véritablement au besoin d’une approche globale, car il s’efforce de prendre en compte toutes les émissions de gaz carbonique associées à une activité, que ces émissions soient directes ou très indirectes.

Dans la mesure où la lutte contre l’effet de serre est une justification importante du basculement souhaité vers les bâtiments à basse consommation, le sigle BBC pouvant signifier aussi « bâtiments à bas carbone », il paraît assez logique que cette manière de raisonner en termes de « bilan carbone » s’applique assez rapidement à toutes les opérations pratiques de construction : on se demande alors quelles quantités d’émissions de gaz carbonique ont généré la fabrication de tels matériaux utilisés ; quelles émissions additionnelles ont été provoquées par leur transport jusqu’au site de construction, puis par leur mise en œuvre sur place.

Cette préoccupation du contenu en « carbone gris » de tout élément ou de tout processus a marqué fortement la construction du quartier BedZed au Sud de Londres, qui s’est effectuée sous la bannière de l’organisation écologiste WWF (World Wildlife Fund), laquelle s’applique à promouvoir, de par le monde, le calcul de « l’empreinte écologique ». En pratique, des choix de conception ont été effectués en fonction de la disponibilité d’une offre locale, dans un rayon de quelques kilomètres autour du site, afin de minimiser les transports.

Une telle démarche poussée jusqu’à l’extrême risquerait de conduire au rejet des techniques de construction à basse consommation, voire au rejet de la construction elle-même, puisque après tout, une vie au grand air, sans toit et sans chauffage, permet d’éliminer bien des sources parasites d’émissions de gaz à effet de serre. L’homme des cavernes l’avait bien compris, puisqu’il veillait à minimiser son empreinte écologique en s’abstenant délibérément de faire appel aux services de santé, sachant trop bien tout le « carbone gris » que ceux-ci contiennent, du fait de la construction et du fonctionnement des hôpitaux, des cabinets médicaux, des usines de produits pharmaceutiques. Évidemment, dans ces conditions, il ne pouvait pas « faire de vieux os » autrement qu’au sens donné par l’archéologie à cette expression.

M. Bruno Comby s’est penché sur cette question du « bilan carbone » avant de se lancer dans la construction de sa « maison écologique ». Son calcul de « coin de table » lui a montré que les ordres de grandeur ne mettaient pas en péril, loin s’en faut, son projet.

Lors de la visite de vos rapporteurs à Fribourg, en Suisse, leurs interlocuteurs leur ont fait part d’études sur le contenu en carbone gris des matériaux utilisés, par rapport à l’économie d’émission de CO2 réalisée en fonctionnement grâce à un effort d’isolation ; certaines concluraient que le bilan reste très positif tant que la couche d’isolant demeure en deçà d’une certaine épaisseur, de l’ordre de 60 centimètres, ce qui correspond à la plupart des cas. Pour ce qui concerne le bâtiment « Green Offices », où ils étaient accueillis, la mobilisation de matériaux à faible empreinte de carbone a permis un gain du simple au double, par rapport à une construction de type classique, ce gain équivalent aux émissions produites par un siècle de chauffage du bâtiment (un million de kWh).

En tout état de cause, il est évident que les difficultés à surmonter pour avancer sur la voie d’une généralisation de la construction à basse consommation sont déjà si nombreuses, qu’il paraît raisonnable de ne pas y ajouter la complexité des approches en termes de « bilan carbone », même si celles-ci méritent attention. A ce stade, il s’agit simplement d’éviter de faire des choix manifestement aberrants, en prenant en compte déjà les émissions de gaz à effet de serre dues au transport. Ainsi, il faut veiller à ne pas faire venir de trop loin les matériaux utilisés, sauf s’ils ont vraiment des propriétés exceptionnelles, ou si leur production de masse rentabilise un transport maritime.

Le dispositif public des « fiches de déclaration environnementale et sanitaire » (FDES), qui communique une information centralisée grâce à la base de données INIES, fournit d’ores et déjà des indicateurs d’énergie grise (exprimés en énergie primaire totale) et de carbone gris (en kilogramme équivalent CO2) pour un millier de matériaux et produits de construction. Par ailleurs, les fabricants des produits et équipements électriques produisent depuis plusieurs années des profils environnementaux produits (PEP).

Ces initiatives vont dans le bon sens, car, à terme, avec la baisse sensible de la consommation énergétique des bâtiments, il est clair que la minimisation du « carbone gris » incorporé, lié à l’énergie utilisée pour produire les matériaux de construction, les transporter, les mettre en œuvre, les recycler, revêtira nécessairement plus d’importance.

Vos rapporteurs estiment néanmoins qu’en ce domaine il convient d’avancer pas après pas, et que tous les efforts doivent converger d’abord vers la réussite de la généralisation de la construction BBC.

C. Le contenu en CO2 de l’électricité

L’article 4 de la loi n° 2009-967 du 3 août 2009 de programmation relative à la mise en œuvre du Grenelle de l’environnement, qui a confié la présente étude à l’OPECST, mentionne, à propos de la norme des 50 kWh : « ce seuil sera modulé afin d’encourager la diminution des émissions de gaz à effet de serre générées par l’énergie utilisée. »

L’analyse de l’impact, sur les émissions de gaz à effet de serre, des diverses solutions technologiques retenues pour l’équipement des bâtiments neufs, fait donc pleinement partie de la mission dévolue à MM. Christian Bataille et Claude Birraux.

1. Les éléments de bon sens

L’analyse de prime abord en ce domaine veut que l’électricité, qui est produite, en moyenne, en France, à 90 % grâce à des procédés n’induisant aucune émission de gaz carbonique, génère une émission de CO2 bien moindre que n’importe quel système direct de chauffage (une chaudière) utilisant des énergies fossiles : fioul, charbon, gaz, ce dernier émettant moins de gaz carbonique que les deux premiers.

En effet, la production d’une quantité d’électricité Q mobilise l’équivalent de trois fois sa valeur énergétique (3*Q), car on admet qu’une centrale thermique dissipe en chaleur les deux tiers de l’énergie mobilisée pour la production d’électricité, ce qui revient à considérer, pour simplifier le raisonnement, que le coefficient de conversion de l’électricité en énergie primaire est de 3.

Si la production d’électricité repose entièrement sur un combustible fossile, un chauffage par l’électricité émet l’équivalent de 3*Q de gaz carbonique, tandis qu’un chauffage sur place par chaudière avec le même combustible fossile n’émet que l’équivalent de Q. Autrement dit, un chauffage par l’électricité d’origine fossile dissipe trois fois plus de gaz à effet de serre qu’un chauffage par chaudière.

En revanche, si l’électricité n’est produite qu’à hauteur de 10 % avec du combustible fossile, cette part de production d’électricité émettrice de gaz carbonique se réduit à 10 %*3*Q, soit 30 %*Q, c’est-à-dire environ un tiers de l’énergie Q nécessaire au chauffage direct du bâtiment par une chaudière. Donc, un chauffage par l’électricité en France dissipe trois fois moins de gaz à effet de serre qu’un chauffage par chaudière utilisant de l’énergie fossile.

Ainsi, en France, contrairement à ce qui prévaut dans la plupart des autres pays membres de la Communauté européenne, l’usage de l’électricité dans les bâtiments permet de mieux assurer le respect du protocole de Kyoto. Il n’y a qu’un chauffage à partir d’énergies renouvelables qui soit plus efficace encore pour limiter les émissions de gaz carbonique.

Le raisonnement est rendu un peu plus complexe, mais non pas invalidé, en cas de prise en compte plus fine du rendement des équipements. Ainsi, avec une pompe à chaleur d’un coefficient de performance de 3, compensant le coefficient de conversion de l’électricité, l’émission de gaz carbonique par rapport à un chauffage direct par énergie fossile est réduite à 10 % *Q seulement, donc dix fois moindre, alors qu’elle est trois fois moindre avec des convecteurs à effet Joule.

2. La saisonnalité de la demande d’électricité

Cependant, l’analyse de bon sens qui précède, valable au niveau des données agrégées sur une période d’une année, rend mal compte des fluctuations de la demande d’électricité avec les saisons.

De fait, si certains besoins énergétiques sont à peu près réguliers au cours de l’année, comme ceux générés par les équipements ménagers (machine à laver) et les équipements de loisir (télévision), d’autres besoins énergétiques sont très concentrés sur la période d’hiver, et c’est le cas spécialement du chauffage. D’autres besoins énergétiques s’intensifient nettement en hiver comme le séchage du linge, à cause de l’absence d’alternative en plein air, ou l’éclairage, du fait du raccourcissement des jours jusqu’à Noël.

Or la mobilisation plus intense des capacités de production d’électricité qui en résulte, lorsque cette source d’énergie est utilisée, induit une concentration saisonnière du recours aux centrales thermiques à flammes, que ce soit sur le territoire national ou plus largement dans l’espace européen, si l’on inclut la fourniture d’un appoint d’électricité à partir d’importations. En effet, le parc français de production d’électricité sans émission de gaz à effet de serre est sous dimensionné par rapport à l’appel maximum de puissance en pointe de consommation.

Le rapport au Parlement sur la programmation pluriannuelle des investissements de production d’électricité pour la période 2009-2020 mentionne ainsi (p. 44) que le niveau maximal historique de consommation nationale instantanée a été atteint lors d’une vague de froid le 7 janvier 2009, et s’est élevé à 92,4 GW. Les informations fournies en ligne par RTE (« Données de production réalisée ») montrent que cette demande instantanée maximale a été satisfaite par une mobilisation à hauteur de 59,4 GW du parc nucléaire et de 13,5 GW du parc hydroélectrique ; le solde de 19,5 GW a été couvert par une production thermique à flammes, moitié sur le territoire français, moitié dans les pays voisins (part importée).

De là, l’intérêt d’établir un contenu en gaz carbonique de l’électricité consommée pour chacun des usages possibles, de manière à rendre compte d’une façon objective du fait que ces usages mobilisent, de manière plus ou moins importante, une production complémentaire d’électricité à partir de centrales thermiques à flammes.

L’évaluation de cette intensité relative du besoin d’appoint hivernal par usage a été effectuée dès 2005 par l’Ademe, et rappelée dans le cadre d’une note de synthèse rédigée conjointement en 2007 par l’Ademe et RTE, à partir d’un traitement des données historiques de la période 1998-2003. Les résultats, mesurés en grammes de CO2 par kWh, sont les suivants :

TABLEAU : Le contenu en CO2 de l’électricité selon les usages (en g/kWh)

Parmi les « autres usages », on décompte comme « intermittents » certains usages résidentiels comme la cuisson, le lavage et le fonctionnement des produits bruns, ainsi que les usages tertiaires et industriels autres que l’éclairage. Ils ont une consommation qui suit la courbe de charge globale et se voient donc attribuer un contenu en CO2 à peu près égal à la moyenne nationale, à savoir environ 60 g/kWh.

Les usages « autres » considérés comme « permanents » génèrent une consommation en phase avec la production « en base », et correspondent :

dans le contexte résidentiel à la production d’eau chaude, et de froid (réfrigérateurs) ;

dans le contexte tertiaire, à la climatisation ;

dans le contexte productif, aux consommations de l’agriculture, des transports, du secteur BTP et des armées.

3. Le concept d’émission « marginale »

Au cours des auditions, quatre interlocuteurs (Ademe, Energie et Avenir, GDF-Suez, DHUP) ont abordé la question des émissions de gaz à effet de serre d’une manière paradoxale, en soulignant l’existence d’émissions « marginales » très importantes qui seraient induites par l’électricité.

Leur démarche d’analyse s’organise en trois étapes imbriquées :

1°) le constat, au fur et à mesure que le parc électrique s’étend, du besoin accru de centrales thermiques à flammes pour faire face aux pointes de demande d’énergie ; ce point est incontestable, et GDF-Suez se limite à cette observation ;

2°) le calcul des émissions de CO2 dites « marginales » qui en résultent du fait de l’électricité ; la DHUP en reste à ce stade, et en déduit l’absence de pertinence, pour l’électricité, d’une modulation de la norme des 50 kWh en fonction des émissions de gaz à effet de serre, ce qui revient en quelque sorte à neutraliser ce paramètre du dispositif législatif, sauf pour le « bois énergie » et les réseaux de chaleur et de froid ;

3°) la préconisation d’une prise en compte de ces émissions de CO2 dites « marginales » pour orienter l’achat d’équipements de chauffage dans les constructions nouvelles, associée à la proposition de créer un observatoire d’évaluation du « contenu marginal » en CO2 des énergies par type d’usages, pour renforcer l’assise de cette préconisation. C’est la position de l’Ademe et de l’association « Energie et Avenir », laquelle représente les installateurs de chauffage utilisant l’eau comme vecteur.

Ces tenants de l’approche « marginale » évoquent volontiers les travaux réalisés par l’Ademe et RTE sur le contenu en CO2 de l’électricité dans un document conjoint d’octobre 2007 intitulé : « Le contenu en CO2 du kWh électrique : Avantages comparés du contenu marginal et du contenu par usages sur la base de l’historique ». La Direction de RTE a rappelé que cette note, rédigée à la demande des pouvoirs publics, visait à offrir des éléments de comparaison des deux méthodologies, chacune d’entre elles répondant à des objectifs distincts.

Il est indispensable de rappeler les termes précis utilisés dans cette note pour cerner le sens du concept de « contenu marginal » :

« L’approche marginale cherche en priorité à évaluer les conséquences de décisions qui peuvent être prises au cours des années à venir. Les enjeux à l’échelle de la France portent sur les usages de l’électricité (orientations en terme de chauffage, renforcement des mesures de maîtrise de la demande d’électricité, évolutions des modes d’éclairage…) et sur l’offre de production (mise en chantier d’EPR supplémentaires, développement des énergies renouvelables, évolution du parc de cogénération). Leur ampleur, de l’ordre de quelques dizaines de TWh par an, n’est pas de nature à bouleverser de fond en comble le système énergétique français. »

On voit qu’il s’agit de fournir un indicateur en vue d’affiner le pilotage de la politique énergétique du pays, du point de vue global de la tension entre l’offre et la demande d’électricité, dont le contenu marginal en CO2 constitue effectivement un reflet judicieux, et non pas d’orienter directement les investissements des agents économiques pour la lutte contre l’effet de serre.

Or, l’article 4 de la loi du 3 août 2009 mentionne l’obligation d’une modulation visant à « encourager la diminution des émissions de gaz à effet de serre ». La perspective du législateur est bien celle du Protocole de Kyoto, et concerne la nécessité de modifier le comportement des agents économiques.

4. Les termes du quiproquo

La proposition de retenir le « contenu marginal en CO2 » pour introduire une modulation dans la réglementation thermique aboutirait donc à poursuivre l’objectif de la lutte contre l’effet de serre avec un instrument inapproprié, non qu’il soit mal conçu en lui-même, mais parce qu’il vise une autre fin.

Cet indicateur rend en effet compte d’une tension instantanée, survenant au plus délicat moment de l’année pour ce qui concerne l’ajustement de l’offre et de la demande d’électricité.

Et il est vrai qu’un investissement nouveau dans un équipement de chauffage électrique, quel que soit le moment de l’année où il est effectué, s’interprète comme une unité marginale supplémentaire du parc des appareils électriques, qui va accroître d’autant les tensions sur la demande d’électricité en hiver, et donc contribuer au recours aux centrales thermiques à flammes ou à des importations d’électricité produites par ce procédé fortement émetteur de gaz à effet de serre.

Mais, du point de vue de l’effet de serre, ce n’est pas l’émission marginale supplémentaire de CO2, que cette unité supplémentaire de chauffage va induire lors des pointes de consommation d’hiver, qui est significative : c’est l’émission totale supplémentaire de gaz carbonique produite tout au long de l’année.

Car l’effet de serre, phénomène à l’origine du changement climatique selon les analyses du GIEC, est produit par l’accumulation progressive de gaz carbonique dans l’enveloppe atmosphérique, et non pas par les poussées instantanées d’émission de gaz carbonique constatées ici ou là à la surface de la terre : une poussée exceptionnelle d’émission forte suivie d’une longue période d’émission réduite peut être, de ce point de vue, bien préférable à une émission régulière plus soutenue, si, au total, c’est-à-dire en moyenne sur la période considérée, l’enveloppe atmosphérique voit ainsi s’accumuler en son sein moins de gaz carbonique.

C’est donc le critère de l’émission moyenne de CO2, rendant compte de la somme cumulée des émissions instantanées12, qui mesure adéquatement la contribution d’une source à l’effet de serre, et non pas l’émission marginale calculée à un moment donné.

Il existe pourtant une configuration théorique particulière où l’effet de serre serait sensible à une émission instantanée : elle correspondrait au cas où cette émission surviendrait alors que toutes les autres sources potentielles d’émission de CO2 sur la terre auraient disparu. En ce cas, cette émission isolée instantanée causerait un dommage planétaire ; un dommage marginal, au sens où il résulterait lui-même d’un petit changement, mais qui risquerait néanmoins, à lui tout seul, de faire basculer le système climatique vers un autre équilibre source de bouleversement majeur, si ce système était justement parvenu à un état critique.

Cependant, aujourd’hui, les émissions de CO2 des équipements de chauffage sont loin d’intervenir dans un monde débarrassé de toutes les sources de gaz à effet de serre : le quasi milliard de véhicules automobiles 13 continuent toujours à dégager des gaz d’échappement chargés de carbone, et 85 % de l’électricité mondiale est produite à partir de centrales thermiques à flammes sans aucun dispositif de capture du gaz carbonique.

Par conséquent, c’est bien l’émission moyenne d’une source de CO2, quelle qu’elle soit, qui mesure aujourd’hui le mieux sa contribution à l’effet de serre.

5. Un raisonnement par l’absurde

Diverses situations mettent en évidence les conséquences assez paradoxales du raisonnement en termes d’émission « marginale », s’il fallait effectivement le mettre en œuvre pour réduire les sources de gaz carbonique.

Ainsi, aucune centrale de production d’électricité à l’arrêt n’émet de gaz carbonique, que sa source d’énergie soit renouvelable, fossile ou nucléaire. En revanche, sitôt qu’elle fonctionne, une centrale thermique à flammes émet du gaz carbonique tandis qu’une centrale à énergie renouvelable ou une centrale nucléaire continue à ne pas en émettre.

Il existe donc une émission « marginale » de gaz carbonique, c’est-à-dire une contribution supplémentaire instantanée à l’effet de serre, qui est liée à la mise en service d’une centrale thermique à flammes tandis que cette émission « marginale » reste nulle lors du lancement d’une centrale à énergie renouvelable ou d’une centrale nucléaire. Le raisonnement en termes d’émission « marginale » de gaz carbonique conduit donc, s’il est poussé jusqu’au bout, à prôner la disparition des centrales thermiques à flammes.

L’extension de cette analyse à la réalité du fonctionnement des centrales à énergie renouvelable intermittente plaide pareillement pour la disparition de celles-ci. Cela concerne les centrales éoliennes et solaires, à l’inverse des centrales hydrauliques, hydroliennes, marémotrices ou géothermiques, qui bénéficient d’une certaine régularité de fonctionnement.

En effet, l’arrêt des centrales éoliennes ou solaires du fait des variations du vent ou de l’éclairage diurne crée un besoin de production électrique de substitution, pour assurer la continuité de fourniture de l’électricité ; les centrales thermiques à flammes, lancées dans le pays même ou à l’étranger via un circuit d’importation, sont parfois le seul moyen pour apporter cette électricité de substitution. En ce cas, les centrales éoliennes ou solaires sont à l’origine d’une émission « marginale » de gaz carbonique, celle justement due aux centrales thermiques à flammes mises en route pour prendre leur relais.

Une note d’information du 15 février 2008, publiée conjointement par le MEDAD et l’ADEME, intitulée « L’éolien contribue à la diminution des émissions de CO2 » indique : « Une analyse de l’ADEME des données du RTE montre que les émissions de CO2 évitées par l’éolien sont de 300 g/kWh ». Cela signifie inversement que, lorsque la production éolienne s’arrête, l’ensemble du parc compense cette défaillance par une augmentation de production qui génère une émission de 300 g/kWh. C’est là une estimation de l’émission « marginale » causée par l’intermittence des éoliennes.

Un raisonnement exclusivement en termes d’émission « marginale » de gaz carbonique conduit donc au bannissement aussi bien des centrales thermiques à flammes que des centrales éoliennes ou solaires dont les intermittences ne peuvent être compensées sans recours à une production thermique de substitution.

De fait, un parc de production d’électricité éliminant tout risque d’émission « marginale » de gaz carbonique devrait en toute logique se constituer uniquement de centrales nucléaires et de centrales à énergie renouvelable régulière (hydrauliques, hydroliennes, marémotrices ou géothermiques), pour une capacité de production totale calée sur la pointe maximale de consommation annuelle.

D’après les données mentionnées précédemment, un effort d’investissement pour l’installation d’une capacité supplémentaire de l’ordre de 20 GW serait nécessaire pour placer la France dans cette situation, en étendant le parc nucléaire, ou en relançant le programme d’usines marémotrices interrompu après l’expérience pourtant réussie de La Rance, car les autres formes d’énergie renouvelable ne pourraient fournir, en l’espèce, qu’une contribution limitée.

La thèse d’un relèvement de la capacité de production d’électricité peu émettrice de carbone au niveau de la pointe de consommation a été défendue par M. Bernard Bigot, lorsqu’il était encore Haut Commissaire à l’énergie atomique, lors de son audition par vos rapporteurs dans le cadre de leur précédent rapport au nom de l’OPECST14. Cette thèse met en valeur la possibilité du stockage des excédents d’énergie qui en résulteraient, à travers une production massive d’hydrogène par électrolyse.

Le raisonnement en termes d’émission « marginale » du gaz carbonique invite donc logiquement au soutien de tout projet d’extension du parc nucléaire, solution qui élimine à la source l’intensité de la congestion provoquée par la pointe de consommation d’électricité en hiver.

Cette conséquence est certainement paradoxale pour ceux qui souhaitent créer un organisme dédié au suivi du contenu « marginal » en CO2 de l’électricité, pour mieux faire oublier qu’un parc nucléaire constitue un atout dans la lutte contre le changement climatique.

6. Le concept d’émission « moyenne marginale »

L’incrimination de l’émission moyenne au lieu de l’émission marginale, si elle fournit une base plus solide pour introduire une modulation de la réglementation thermique, ne suffit néanmoins pas pour faire complètement justice du raisonnement marginaliste qui se trouve implicitement derrière le souhait d’orienter les choix d’investissement des agents économiques : il s’agit bien de trouver un indicateur qui rende compte de l’impact « marginal », sur les émissions de CO2, de l’installation d’un équipement de chauffage supplémentaire, en comparant les cas où il fonctionne avec l’électricité ou avec une énergie fossile.

Pour identifier cet indicateur, il est commode de se donner quelques points de repère chiffrés, en simulant, par exemple, le cas d’un achat d’équipement de chauffage.

Les calculs sur les données historiques, rappelés dans la note précédemment mentionnée, aboutissent à une émission moyenne de CO2 de 180 g/kWh pour un chauffage électrique. Ce chiffre intègre l’effet de congestion du système de production d’électricité qui se produit en hiver, et qui conduit au lancement de centrales thermiques à flammes.

La consommation finale d’électricité dans le secteur du bâtiment est de 289 TWh en 2008 selon le bilan électrique de 2008. L’équipement en électricité de 100 000 nouveaux bâtiments résidentiels à la norme BBC d’une surface moyenne de 100 mètres carrés induit une consommation supplémentaire d’environ 200 GWh d’électricité finale, soit de l’ordre du millième.

L’installation de ces unités supplémentaires de chauffage électrique ne modifie pas la contrainte sur la production de base d’électricité, qui n’émet pas de CO2 ; mais la congestion causée par la pointe de demande d’hiver est accrue. L’appel à une production par le moyen de centrales thermiques à flammes augmente alors d’un millième, et l’électricité produite à ce moment-là émet donc un millième de CO2 en plus.

Cette même note précédemment mentionnée estime à environ 600 g/kWh le contenu marginal en CO2 de l’électricité utilisé pour le chauffage. Ce chiffre passe alors à 600,6 du fait du millième de congestion supplémentaire.

Si l’émission moyenne de CO2 sur l’année est de 180 g/kWh, tout se passe comme si la période de congestion durait une fraction de l’année égale à 180/600. La nouvelle émission moyenne de CO2 augmente donc d’un millième, et passe à environ 180,2 g/kWh.

Ce chiffre représente l’émission moyenne marginale pour 100 000 constructions neuves.

Il s’agit de comparer cette valeur à la situation d’un équipement du même parc supplémentaire avec un système alternatif fonctionnant à l’énergie fossile.

La DHUP a confirmé que, pour les énergies combustibles, les approches moyenne et marginale donnent les mêmes résultats pour le calcul du contenu en CO2, dans la mesure où la technologie utilisée reste homogène dans le temps, à la différence de ce qui se passe dans la production d’électricité.

L’arrêté du 15 septembre 2006 relatif au diagnostic de performance énergétique fournit les chiffres suivants, nettement supérieurs à 200 g/kWh, sauf pour le bois : TABLEAU

Cette analyse montre donc que :

1°) Toute comparaison des différentes sources d’énergie pour ce qui concerne la performance en émission de CO2 doit se faire au niveau de l’émission moyenne marginale, et non au niveau de l’émission marginale, car celle-ci ne prend pas en compte la réalité mécanique de l’effet de serre ;

2°) L’émission moyenne de l’électricité, même lorsqu’elle intègre l’augmentation de l’émission marginale induite par un déploiement important d’appareils de chauffage électrique (100 000), demeure très en deçà de l’émission moyenne des systèmes utilisant les énergies fossiles.

7. Le lien avec la taxe sur le carbone

La conférence des experts sur la contribution Climat et Énergie, instance présidée par M. Michel Rocard, a rendu son rapport le 28 juillet 2009. La conclusion de ce rapport contient la phrase suivante :

« Un chauffage électrique classique n’émet aujourd’hui pas plus de CO2 qu’un chauffage au gaz. Mais cette performance devrait être accrue par une réforme tarifaire qui rende les utilisateurs d’électricité plus attentifs aux économies qu’ils peuvent faire en modulant leurs comportements aux heures de pointe de consommation. »

La formulation retenue prend clairement le contre-pied de l’approche en termes d’émissions marginales : c’est bien l’émission totale sur l’année qui est considérée, et si l’avantage de l’électricité à cet égard n’est pas fortement souligné, du moins l’impact relativement plus défavorable du chauffage au gaz est-il clairement rappelé.

La conférence des experts sur la contribution Climat et Énergie, dont la perspective était justement la lutte contre le changement climatique, s’est donc bien appuyée sur une analyse en termes d’émission moyenne, prenant en compte le fait que, même si le chauffage constitue un usage très saisonnalisé, le facteur de conversion se trouve compensé par la dimension fondamentalement complémentaire, en France, de la production d’électricité par le moyen de centrales thermiques à flammes.

La conférence des experts a par ailleurs formulé une conclusion cohérente avec cette observation, en rappelant que la taxe sur le carbone avait vocation à n’intervenir que dans un champ complémentaire à celui du mécanisme communautaire des quotas d’émission : or le secteur de la production d’électricité se trouve au premier chef concerné par ce mécanisme, et doit même être le premier, avant tous les autres secteurs, à expérimenter le dispositif de la vente aux enchères des quotas en 2020 14. Le rapport des experts préconise donc de ne pas inclure l’électricité dans le champ de la taxe sur le carbone, ce qui aurait eu pour effet de superposer deux mécanismes de contrôle ; à l’inverse, la consommation directe de combustibles fossiles pour le chauffage se trouve évidemment concernée.

Si ce schéma de mise en œuvre de la taxe sur le carbone est effectivement retenu, en excluant de son assiette les appareils électriques et en y incluant les équipements à énergies fossiles, alors le mécanisme de formation des prix devrait directement contribuer à la bonne orientation, au regard de l’objectif de lutte contre le changement climatique, des choix d’investissement en matière de système de chauffage.

Il convient du reste d’observer la puissance des effets de marché dans ce domaine, puisque l’indexation du prix du gaz et du fioul sur le pétrole explique très largement, selon toutes les analyses recueillies, le déséquilibre fort qui est apparu, depuis 2000, sur le marché des équipements de chauffage des bâtiments neufs, en faveur des systèmes électriques.

8. Le besoin d’un plafond d’émission de CO2

Cependant la régulation par les prix, avec sa dimension aléatoire, ne saurait suffire pour véritablement atteindre les objectifs de la réglementation thermique, qui recoupent en fait les trois axes pour 2020 du plan européen « Energie-Climat », à savoir : une réduction des émissions de gaz à effet de serre, une amélioration de l’efficacité énergétique et une augmentation de la part des énergies renouvelables dans la consommation d’énergie.

La fixation d’un plafond d’émission de gaz carbonique permet de mieux garantir le respect de ces trois objectifs dans le secteur du bâtiment.

A cet égard, il convient d’observer, en premier lieu, que la possibilité d’introduire dans la réglementation thermique une limitation des émissions de gaz carbonique est ouverte par la directive 2002/91/CE, puisque le dernier alinéa de l’article 3 précise : « La performance énergétique d’un bâtiment est exprimée clairement et peut contenir un indicateur d’émission de CO2. ». La proposition de nouvelle directive en discussion va encore plus loin dans ce sens, puisqu’un accord intervenu le 17 novembre 2009 entre le Parlement européen et le Conseil des ministres a conduit à y introduite un objectif de « zéro émission » à l’horizon 2021, même si l’exemple britannique, ainsi que vos rapporteurs l’ont compris lors de leur visite à BedZed, montre que ce concept de « zéro émission » est quelque peu problématique.

Deuxièmement, la fixation d’un plafond d’émission de gaz carbonique contribue à une véritable amélioration de l’efficacité énergétique, dans la mesure où elle interdit l’arithmétique trompeuse résultant du comptage en négatif, dans le bilan des consommations énergétiques, de l’électricité produite par le bâtiment. Ce comptage en négatif permet de considérer comme performantes de véritables épaves thermiques, simplement parce qu’elles disposent de larges surfaces d’accueil pour des capteurs photovoltaïques raccordés au réseau électrique. Comme ce comptage en négatif ne peut pas s’appliquer aux émissions de gaz carbonique, l’obligation de respecter un plafond d’émission garantit que les maisons dites « à énergie positive », respectent véritablement la réglementation thermique.

Troisièmement, un plafond d’émission de gaz carbonique contribue au développement des énergies renouvelables en faisant barrage aux solutions « tout gaz », de même que la fixation d’un plafond unique en énergie primaire pour l’ensemble des consommations énergétiques a fait barrage à une solution « tout électrique », car une pompe à chaleur mobilise de fait l’énergie renouvelable disponible sous forme de calories dans la source froide. Un tel plafond est donc l’équivalent d’une obligation d’utiliser sur place des énergies renouvelables pour alimenter les équipements du bâtiment, aucune énergie classique ne permettant ainsi de faire l’impasse sur cette contribution essentielle à la lutte contre le changement climatique.

Un calcul simple, basé sur un profil moyen des distributions de consommation indiqué par l’Ademe, montre qu’un plafond à 5 kilogrammes par mètre carré et par an contraint plus fortement les solutions « tout gaz ».

TABLEAU

A l’inverse, un équipement « tout électrique » intégrant un chauffe-eau solaire, et utilisant une pompe à chaleur qui compense le coefficient de conversion (COP de 2,58) dispose d’une marge confortable par rapport à ce plafond de 5 kg/m2/an.

TABLEAU

Vos rapporteurs préconisent donc la fixation d’un plafond d’émission de gaz carbonique de 5 kilogrammes par mètre carré et par an, sous deux conditions :

1°) appliquer à ce plafond toutes les modulations prévues pour la norme des 50 kWh, notamment en fonction du climat, de la taille, de la destination ;

2°) exclure du comptage des émissions toutes celles qui proviennent d’énergies renouvelables, ce qui concerne particulièrement le bois, et le biogaz, seul ou en mélange éventuel dans le gaz naturel. Le plafond devient ainsi un dispositif incitatif au développement du biogaz.

9. Un cadre clair pour des choix optimisés

En proposant d’imposer un plafond global annuel d’émission de CO2, vos rapporteurs visent à la définition d’un cadre équilibré, optimisé pour la lutte contre le changement climatique, et laissant aux agents économiques la possibilité de faire les meilleurs choix d’investissement en fonction des contraintes locales.

Les rapporteurs s’inscrivent en faux contre la démarche visant à introduire une prise en compte des émissions marginales de CO2 pour le pilotage des investissements en équipements de chauffage, préconisant que les études à venir s’efforcent à l’inverse de mesurer les émissions moyennes marginales impliquées par ces choix d’investissements.

Ils considèrent que la création d’un observatoire dédié à l’étude du contenu marginal en CO2 constituerait une mauvaise utilisation des ressources publiques compte tenu des autres priorités dictées par la mise en œuvre de la nouvelle réglementation thermique, notamment en termes d’information préalable et de contrôle, qui vont nécessiter des initiatives plus urgentes.

En revanche, ils considèrent que la programmation pluriannuelle des investissements de production (PPI), qui conduit à faire un bilan de l’ensemble des moyens de production de l’électricité, doit mettre à jour les calculs du contenu en gaz carbonique du kWh consommé, en opérant une distinction par usage, et en explicitant les valeurs « moyennes » et « marginales », afin notamment de rendre disponibles toutes les données nécessaires pour une évaluation en valeurs « moyennes marginales ». En vertu de l’article 6 de la loi du 10 février 2000 (dite « Bataille »), la PPI doit faire l’objet d’un rapport présenté au Parlement par le ministre chargé de l’énergie dans l’année suivant tout renouvellement de l’Assemblée nationale, c’est-à-dire tous les cinq ans.

La mise en place d’un cadre réglementaire exigeant au regard des émissions de CO2 est compatible, dans le contexte économique modifié par le marché des quotas d’émission et par la taxe sur le carbone, avec l’organisation d’une incitation forte à la diffusion du progrès technologique, préoccupation absolument essentielle, qui doit figurer au cœur de la mise en œuvre de la nouvelle réglementation thermique, en ce qui concerne tant l’isolation préalable des bâtiments, que l’efficacité énergétique des équipements.

Conclusion

Vos rapporteurs ont été saisis d’un dossier suscitant de fortes polémiques : ils se sont attachés, en utilisant les méthodes d’investigations habituelles de l’OPECST, à base d’auditions, de visites sur site en France, de déplacements dans les pays disposant d’une expérience intéressante, d’élargir leurs perspectives pour mieux saisir le sens des enjeux en cause.

C’est la raison pour laquelle, partant d’une question assez ciblée sur la modulation de la norme thermique en vigueur à partir de 2011 dans le secteur tertiaire, et 2013 dans le secteur résidentiel, ils ont été amenés à revisiter l’ensemble du processus d’introduction, puis de déploiement, de la construction à basse consommation.

Les recommandations de vos rapporteurs sont nourries de la conviction que ce processus est profondément souhaitable, et parfaitement réalisable sous réserve d’un immense effort collectif, que l’administration de l’Équipement devra accompagner jusque sur le terrain.

Elles sont tournées vers l’avenir, et s’organisent autour de deux préoccupations fondamentales :

 d’abord, tout le processus doit contribuer véritablement à la lutte contre l’effet de serre, ce qui justifie la fixation d’un plafond d’émission de CO2, et la préconisation, pour le secteur tertiaire, d’une démarche axée sur la performance mesurée ;

 ensuite, tout cet effort collectif constitue une formidable occasion de stimuler le progrès technologique, et la communauté professionnelle du bâtiment devrait pouvoir se féliciter, d’ici quelques années, de ce que sa forte mobilisation, tout au long de la filière, se traduise par la diffusion de ses produits et de ses procédés en Europe et dans le monde.

L’ambition de ce rapport est de demeurer le plus longtemps possible une référence pour ces deux objectifs essentiels.

1) Article 35 de l’arrêté du 24 mai 2006. 2) cf. Le 5 °C) de l’article 2 de l’arrêté du 3 mai 2007 définissant le label BBC 2005. 3) Si le bâtiment a la forme d’un cube d’arête A, son volume vaut A3 et la surface de son enveloppe extérieure vaut 6 A2. Donc le rapport entre la surface de l’enveloppe extérieure et le volume vaut : 6/A, et croît lorsque la valeur de A diminue. 4) cf. http://www.mairie-castelnau-medoc.fr/index.php?page=plu.php 5) Le projet des « plateformes technologiques » est présenté plus complètement un peu plus loin, dans la sous-partie C du IV intitulée « Les effets d’entraînement ». 6) En théorie économique, on dirait une « asymétrie d’information ». 7) cf. http://www.ffcmi.com/contrat.html 8) Cela suppose qu’environ 4 millions de logements BBC aient été construits à l’horizon d’une décennie. 9) cf. http://www.developpement-durable.gouv.fr/energie/publi/pdf/rapport-prevot.pdf 10) Ce chiffre s’obtient en retenant pour l’ensemble des centrales thermiques, car les centrales hydroélectriques ne dissipent pas de chaleur, un rendement approximatif d’un tiers. 11) « Le coût de la fourniture d’électricité en base converge, par construction, vers le coût de développement du nucléaire du fait de la diminution mécanique de la part régulée assise sur le parc historique au fur et à mesure de son érosion et de l’augmentation concomitante de la part issue du renouvellement du parc nucléaire. », Rapport de la commission sur l’organisation du marché de l’électricité, présidée par Paul Champsaur, avril 2009, p. 16. 12) Cette moyenne est calculée en fait à partir de l’intégrale (au sens mathématique) de la distribution des émissions instantanées sur une période de temps correspondant à un profil d’évolution complet, l’année paraissant en l’occurrence bien adaptée. 13) Ce chiffre sera atteint en 2011 selon l’Institut Polk : cf. Polk View, mars 2008, « Planning Beyond a Billion », http://www.polk.com/TL/PV_20080320_Issue002_GlobalVIO.pdf 14) « Quelle stratégie pour la recherche en matière d’énergie ? », mars 2009, p. 81, p. 87, p. 276 et suiv. 15) Sur ce point, voir la synthèse proposée (page 114 et suivantes) dans le rapport de MM. Birraux et Bataille de mars 2009 sur la stratégie de recherche en énergie.

Éditions du Moniteur Le Moniteur boutique

Diagnostic, entretien et réparation des ouvrages en béton armé en 44 fiches pratiques

Diagnostic, entretien et réparation des ouvrages en béton armé en 44 fiches pratiques

Date de parution : 03/2020

Voir

Valorisation de l’immobilier d’entreprise par l'externalisation des actifs et autres solutions

Valorisation de l’immobilier d’entreprise par l'externalisation des actifs et autres solutions

Date de parution : 02/2020

Voir

Contrats publics n° 206 - Février 2020

Contrats publics n° 206 - Février 2020

Date de parution : 02/2020

Voir

Accéder à la Boutique

Les bonnes raisons de s’abonnerAu Moniteur

  • La veille 24h/24 sur les marchés publics et privés
  • L’actualité nationale et régionale du secteur du BTP
  • La boite à outils réglementaire : marchés, urbanismes, environnement
  • Les services indices-index
Je m’abonne
Supports Moniteur