7 février 2023
Non classé

Retour sur un livre épuisé : La vérité sur l’effet de serre

Le prologue consistait en un florilège du commerce de fin du monde (un sous-titre) auquel s’adonnaient déjà à grande échelle les parties prenantes à l’alerte climatique. Il se concluait par une mise en cause de l’application mécanique du principe de précaution, faisant notamment remarquer que la dynamique d’un processus gouverné par le principe de précaution est forcément instable, toutes les rétro-actions intervenant positivement, pour plus de précautions, pour être sans cesse plus prudent dans les hypothèses, et plaidant donc pour un usage prudent du-dit principe.

Qu’on en appelle aujourd’hui intensivement et extensivement à ce principe révèle le statut dogmatique qu’il a acquis, même lorsque ce n’est qu’implicitement, comme concernant la doctrine de la guerre zéro mort, la judiciarisation de la pratique médicale, la prise en charge infantilisante de tous les actes de la vie quotidienne et des accidents de l’existence (intervention systématique des psychologues) etc. On est en train de fabriquer une génération de trouillards procéduriers, pire, une humanité terrifiée par l’exercice individuel de la liberté. Tout cela sent fort son bidouillage philosophique mais bien peu s’en offusquent.

Par exemple, comment rester calme quand une ministre de l’environnement de l’époque, aujourd’hui candidate déclarée, invitait les français à veiller à fermer le robinet pendant qu’ils se frottent les dents, au nom de la sauvegarde des ressources en eau, mais ne remettait pas en cause le développement de l’irrigation subventionnée, les usages de l’amiante, presque trente ans après leur interdiction totale en Allemagne et, six ans après l’arrêt-réflexe du nuage de Tchernobyl par le Pr P. Pellerin, laissait derrière elle un bilan vide dans le domaine des énergies renouvelables électrogènes et de la maîtrise de l’énergie ?

Revenons au livre. Il se divise en deux parties. La première constitue une sorte de dossier technique partiel et partial. La seconde, une marotte de l’auteur, s’acharne à démontrer l’absence de contrôle social sur la science appliquée, pointant le passage de relais du complexe scientifico-industriel de la physique atomique civilitaire à un lobby en partie constitué par des acteurs du premier.

Le climat connaît des fluctuations dont l’origine reste largement indéterminée. A l’époque, on était sur le point de découvrir, grâce aux archives météorologiques soviétiques et américaines déclassées, que le climat de la nuit polaire arctique s’était très sensiblement refroidi entre 1950 et 1990, évolution qui contredisait le modèle « effet de serre », lequel prédit un fort réchauffement hivernal sous les hautes latitudes. Cet élément intéressant constitua un des addenda à l’édition portugaise du livre, en 1994.

Par ailleurs, l’idée d’un couplage univoque entre gaz traces à effet de serre (hors vapeur d’eau donc) et température moyenne du globe ne résistait pas à un examen naïf des archives glaciaires de la dernière période glaciaire jusqu’à aujourd’hui (courbes dites de Vostok).

Le prétendu synchronisme entre les évolutions des concentrations en gaz carbonique et en méthane de l’atmosphère et de la température moyenne du globe était battu en brèche dès lors que l’on traçait des barres verticales pour analyser les graphes. On mettait alors en évidence les quatre configurations possibles : un signal varie (en plus ou en moins), soit l’autre reste stationnaire, soit il varie dans le même sens, ou dans l’autre… Comme il y a trois variables, gaz carbonique, méthane et température, pas facile de forger une doctrine inoxydable.
Pour simplifier, les données de l’époque montraient que les moins « désynchronisées » étaient les évolutions de la température et de la concentration en méthane, ce qui n’a rien d’étonnant quand on sait que le méthane est essentiellement produit par la décomposition anaérobie (en millieu humide) des matières organique et qu’un climat plus chaud entraîne une extension des zones humides et une augmentation de la production de biomasse primaire. Il apparaissait alors que l’évolution de la concentration du gaz carbonique dépendait avec retard de la température, plutôt que l’inverse, et, surtout, de processus massifs de stockage et de déstockage dans et hors des eaux océaniques profondes, provoqués par des changements importants de la circulation océanique.

Dans un autre ordre d’idée, plus actuel, les fortes contradictions entre les simulations produites par les différents modèles climatiques mis en œuvre à l’époque étaient en quelque sorte pain béni pour le critique et il n’est pas lieu d’y revenir ici, sauf à vouloir se justifier. Les choses ont évolué. On peut dire qu’aujourd’hui tous les modèles « effet de serre », c’est-à-dire ajustés pour tester l’influence des variations de concentration des gaz traces à effet de serre, s’accordent sur un schéma de réchauffement analogue pour chaque scenario standard retenu (sortes de benchmark pour les simulations climatiques).

En revanche il y a des désaccords profonds concernant le cycle de l’eau, non seulement touchant à l’ampleur des variations de la pluviométrie dans chaque zone climatique, mais même à leur signe. Comme ces incertitudes cruciales résistent à tous les traitements, on prédit en vrac, extension des déserts et des périodes de sécheresse, augmentation des inondations, bref, tout et son contraire. Exercice bien connu des analystes politiques mais difficile à tolérer venant d’instances qui se disent scientifiques…

Au tournant des années 90 un problème politique majeur se posait : constituer une échelle de culpabilité des gaz à effet de serre. Deux étapes à franchir : mesurer le forçage radiatif marginal de chaque gaz considéré (de la physique élémentaire si l’on suppose une dilution homogène sur toute la colonne d’air, ce qui n’est malheureusement pas le cas, notamment pour l’ozone (troposphérique et stratosphérique) ; évaluer le devenir des gaz introduits articiellement dans l’atmosphère (le plus difficile, et de loin). Il est évident qu’emporter l’adhésion des décideurs imposait de simplifier le tableau.

Par ailleurs, pour des raisons d’opportunité on avait décidé de cibler le gaz carbonique, d’en faire en quelque sorte le bouc-émissaire du conflit. De même qu’on avait symboliquement réduit la question de l’énergie à celle du pétrole en substituant la Tep à la Tec après le premier choc pétrolier (EDF inventa même la Tep électrique pour faire glisser à l’avantage de sa stratégie l’évaluation du taux d’indépendance énergétique du pays, un taux qui serait resté quasiment inchangé si l’on avait utilisé les conventions, purement physiques, de l’Agence Internationale de l’Energie), on forgea l’étalon gaz carbonique, à l’aune duquel on allait chiffrer toutes les contributions des émissions anthropiques par leur GWP (Global Warming Potential), une grandeur sensée rendre compte de l’effet de serre cumulé de toute quantité de gaz émise jusqu’à ce qu’elle ait été éliminée de l’atmosphère par les processus naturels. Ainsi on ne parlerait plus, sauf exception, que de gaz carbonique.

L’affaire n’allait pas de soi, pour de nombreuses raisons d’ordre physique et mathématique sur lesquelles je me suis largement étendu dans le livre.

On peut cependant s’en faire une idée en peu de mots :

– la dynamique d’élimination de chaque gaz diffère énormément d’un gaz à l’autre et les durées à considérer couvrent plusieurs ordres de grandeur ;
– les cycles du gaz carbonique sont extraordinairement complexes ; c’est le seul gaz à effet de serre qui échange avec toutes les composantes du milieu naturel lors de processus minéraux et biologiques ; de plus on connaît assez mal la part prise par chacun de ces processus (on parle toujours de « puits » manquant…).

Dans ces conditions il est en théorie strictement impossible d’affecter au gaz carbonique un chiffre qui représenterait sa vitesse d’élimination de l’atmosphère (on parle de constante de temps, de demie-vie ou de période), gênant pour le mètre-étalon des GWP.

C’est pourtant un bidouillage mathématique indigne auquel on s’est livré et qui a donné lieu à une publication de référence dans la revue Nature avant d’être adapté dans le premier rapport scientifique de l’IPCC. Les identifications directes au premier ordre à partir des courbes historiques d’émission et de concentration atmosphérique ne permettent en aucune façon de « confirmer » la « constante de temps » de 120 ans finalement retenue, quelle que soit la période servant pour le test (avant puis pendant les « trente glorieuses ») ; il s’en faut d’un facteur (diviseur) de 3 à 6 !

Enfin, pour couronner le tout, la pertinence du concept de GWP est pulvérisée par la première tentative de falsification qui vient à l’esprit. Comparons les effets de deux émissions maginales identiques de gaz de même GWP, des gaz équivalents dans l’échelle de culpabilité officielle.

L’un pour lequel le forçage marginal instantané est élevé mais la constante de temps courte, l’inverse pour l’autre, avec un forçage marginal instantané faible et une constante de temps longue. Le premier, du genre méthane, réaliserait donc rapidement une perturbation climatique de forte amplitude, alors que le second, qui serait plutôt le gaz carbonique dans la doctrine officielle, engendrerait une perturbation de faible amplitude durant un temps nettement plus long. Or le processus climatique comporte de multiples rétro-actions, de surcroît souvent non linéaires (effets non proportionnels aux causes) et riches d’hystérésis.

Donc l’évolution historique du climat ne sera certainement pas la même à long terme selon que c’est le premier ou le second gaz qui est émis. Ce n’est pas ce que postule l’égalité de leur GWP…

Bref, toute l’évaluation en équivalent CO2 des scenarios d’émissions anthropiques de gaz à effet de serre est entachée d’incohérence méthodologique. Cela n’a pas changé : en 2006 on cultive les sédiments de cette séquence «scientifico-politique ».

Le quatrième et dernier chapitre de la première partie rapporte en une dizaine de pages le procès du gaz carbonique. Les débats sont vifs, ce que permet cet artifice littéraire mais qui rend un résumé problématique, d’autant qu’ils mêlent les bons mots et effets de manche avec des informations scientifiques « pointues » sur le rôle bénéfique d’une augmentation de la concentration de l’accusé sur la photosynthèse et l’utilisation de l’eau par les végétaux et sur ses spectaculaires transferts entre l’océan et la végétation durant les grandes transitions entre phases glaciaires et interglaciaires, alors que sa concentration dans l’atmosphère restait, comparativement, très peu modifiée.

Citons le dernier paragraphe qui reflète assez bien l’état d’esprit réel sur la question : L’accusé se rassied. Le président consulte son greffier puis prend la parole : « Les débats sont clos. Le jugement est mis en délibéré jusqu’aux calendes grecques. D’ici-là le prévenu est laissé en liberté sous contrôle scientifique ! » (Brouhaha et remarques réprobatrices dans le prétoire qui se vide lentement.)

La seconde partie présente un parallèle paradoxal entre la première entreprise technocratique industrielle révolutionnaire conçue à l’échelle mondiale dans le cadre onusien — la promotion de l’énergie atomique — et l’immense, projet onusien lui aussi et encore plus révolutionnaire, de subordonner toutes les activités humaines aux contraintes dictées par le lobby climatique. La première a déçu les ambitions de ses promoteurs, l’énergie atomique n’occupant qu’une place marginale dans le bilan mondial. Les causes de cet échec relatif sont multiples mais on peut insister sur les risques de prolifération, l’acceptabilité sociale et, surtout, la faible rentabilité des investissements, un handicap en économie de marché. Le second a plus de chance de réussir : mis à part les programmes scientifiques justificatifs qui coûtent un peu d’argent, point besoin de colossaux investissements.

L’objectif n’est pas directement matériel mais plutôt que chaque acteur du haut en bas de l’échelle politique, économique et sociale fasse siennes les conditions restrictives et réglementaires d’un bon développement qui préserve la biosphère d’un désastre climatique. L’opération a été menée par d’excellents stratèges, selon un « timing » impeccable. Une dynamique collective de type explosif se développe tous azimuts, mêlant lutte contre l’effet de serre et actions pour le développement durable. L’innovation sera-t-elle soumise à un contrôle a priori ou préservera-ton ce fondement de la démocratie, le contrôle a posteriori ?

L’avertissement d’Alexis de Tocqueville, cité en exergue du chapitre 6, sonne plus que jamais d’actualité et me permet de conclure en laissant à chacun matière à réflexion : «Je pense qu’il est bien imprudent à l’homme de vouloir borner le possible et juger l’avenir, lui auquel le réel et le présent échappent tous les jours, et qui se trouve sans cesse surpris à l’improviste par les choses qu’il connaît le mieux. »

Première publication, 25 juillet 2006 sur resiliencetv.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *


%d blogueurs aiment cette page :