29 mars 2024

Climat :mythes et légendes

cloc13La science progresse mais les idées reçues demeurent et les polémiques font rage.

En bref : Les deux première parties de ce billet sont dans le prolongement du billet précédent.

La première partie
donne un aperçu significatif des résultats les plus récents de la recherche scientifique sur la question des tendances de l’intensité et de la fréquence des ouragans, typhons ou cyclones à l’échelle de divers bassins et du globe, dont certains nous répètent qu’elles sont en augmentation. Comme vous le verrez, il n’en est rien, contrairement à ce que certains ont pu affirmer dans le passé.

Dans la seconde partie, toujours en partant de sources scientifiques avérées, nous verrons que les affirmations contenues dans le rapport des experts de la Maison Blanche aux USA sont sévèrement démenties par les observations, notamment pour ce qui concerne les pluies et les sécheresses qui ont affecté récemment certaines régions des Etats-Unis d’Amérique.

Enfin, dans une troisième partie, comme il est d’usage en début d’année, nous examinerons, avec quelques détails, l’épineuse question des mesures de la température moyenne du globe pour l’année 2015, selon différentes institutions. Comme vous le verrez, les effets du très puissant El Niño 2015 sont très perceptibles et les différentes méthodes de mesure ne sont pas d’accord entre elles. Ce qui est beaucoup plus grave encore, c’est que l’écart entre les modélisations du climat et les observations, y compris au sein de l’atmosphère, diverge de plus en plus au cours des années qui passent.
La question est d’importance et les chercheurs impliqués le savent. Nous verrons qu’une vive polémique s’est instaurée sur ce sujet qu’il est tout à fait fondamental de trancher, dans un sens ou dans l’autre. De fait, le “consensus” en matière de climat tant vanté par le microcosme médiatico-politique est une idée tout à fait étrangère à la réalité.

Comme toujours et sauf spécification du contraire, les caractères engraissés figurant dans le encadrés des citations (de couleur différente du fond, ici, en jaune) le sont par PU.

1) Les ouragans/cyclones/typhons : Non, ils ne sont pas en augmentation !

source : Journal of Climate (publié en Octobre 2015)

Titre : ” Les ouragans extrêmement intenses : Révision de l’article de Webster et al (2005) dix ans plus tard.”

hurricanes1

Note : Outre Klotzbach, Christopher Landsea de la NOAA est un (sinon Le) spécialiste des plus renommés sur la question des ouragans/cyclones . Il est connu des lecteurs de ce site notamment pour avoir refusé de signer un rapport du GIEC (l’AR4 publié en 2007) auquel avait participé, comme auteur principal, son collègue Kevin Trenberth , lequel avait aussi présenté, en public, des conclusions que Landsea tenait pour erronées et contraires aux observations. Landsea avait, à cette occasion rédigé une lettre de démission (du GIEC) dans laquelle il déclarait (en 2005) :

landsea

” Pour ce qui me concerne, je ne peux pas, en toute honnêteté, continuer à contribuer à un processus que je considère comme motivé par des objectifs pré-conçus et qui sont scientifiquement infondés. Comme les responsables du GIEC n’ont rien trouvé de mal dans les actions du Dr. Trenberth et l’ont maintenu à son poste d’Auteur Principal pour l’AR4, j’ai décidé de ne plus participer à la préparation de l’AR4 du GIEC.”

Pour sa part, Kevin Trenberth est également connu des lecteurs de ce site pour avoir écrit, entre autres, à ses collègues, dans les échanges de courriels révélés lors de l’affaire dite du “Climategate” (2009) : Le fait est que nous ne savons pas expliquer l’absence de réchauffement actuel et c’est grotesque.
De nos jours, Trenberth soutient l’idée que la “chaleur manquante” s’est réfugiée au fond des océans

Voici une traduction du résumé de cet article du “Journal of Climate” qui n’est malheureusement pas en libre accès pour le public :

Résumé :
Il y a dix ans, Webster et al. ont documenté une augmentation importante et significative aussi bien dans le nombre que dans le pourcentage d’ouragans de catégories 4 et 5 pour tous les bassins de 1970 à 2004. Le présent manuscrit porte sur la question de savoir si ces tendances se sont poursuivies si l’on inclut 10 années de données supplémentaires. En opposition avec leur étude [NdT: de Webster et al] et ainsi que nous le démontrons dans cet article, la fréquence globale des ouragans de catégories 4 et 5 a subi une légère baisse, non significative
[NdT : du point de vue statistique], tandis que le pourcentage d’ouragans de catégories 4 et 5 a subi une légère hausse, non significative [NdT : du point de vue statistique], entre 1990 et 2014. L’énergie cyclonique accumulée à l’échelle du globe a subie une baisse importante et significative [NdT : du point de vue statistique] durant la même période. On conclut que la raison fondamentale de l’augmentation des ouragans de catégorie 4 et 5 notée dans les données observationnelles de 1970 à 2004 par Webster et al. est due aux progrès réalisés par les centres d’alertes aux différents types de cyclones tropicaux, essentiellement lors des deux premières décennies analysées par cette étude.

Dit plus simplement, les observations modernes ne montrent aucune tendance significative, ni dans la fréquence des ouragans/cyclones tropicaux les plus intenses à l’échelle de la planète, ni dans leur pourcentage relatif. De fait, l’énergie cyclonique accumulée pour le globe, elle, est en baisse significative durant les 25 dernières années. Les tendances positives rapportées antérieurement ont sans doute été biaisées par l’augmentation graduelle des moyens d’observations (notamment par la mise en orbite progressive de satellites géostationnaires au dessus des différents bassins laquelle est à présent terminée).

Voici deux figures typiques extraites de l’article de Klotzbach et Landsea :

hurricanes2hurricanes3

La figure de gauche est la FIG. 2. (a) “Nombre total sur cinq années consécutives des ouragans qui ont atteint une intensité maximale pour chaque catégorie déterminée par l’échelle de Saffir-Simpson”
La figure de droite est la FIG. 5. (a) Valeurs de l’Energie Cyclonique Accumulée (ACE ) par bassin de 1970 à 2014.”

Les auteurs font remarquer que la mise en place des satellites géostationnaires pour tous les bassins n’a été achevée que dans les années 1990 et concluent que les observations effectuées avant cette date sont douteuses. De fait, depuis cette époque, ont observe que les tendances du nombre des ouragans les plus violents et de l’ACE sont plutôt en baisse.

Cette étude, publiée au mois d’Octobre dernier révise, prolonge et prend le contre-pied d’une étude précédente. En réalité, et sauf découverte révolutionnaire, la science procède ainsi, par une suite d’erreurs et de corrections successives. Dans ces conditions, affirmer ou croire qu’à un moment donné “the science is settled”,que “la science est définitivement établie” relève, au mieux, de l’ignorance sur le fonctionnement réel de la recherche scientifique et a fortiori quand il s’agit d’un objet aussi complexe et “épineux” que le système climatique, comme le qualifie Judith Curry.

Une fois encore, les observations et les conclusions de cet article sont en totale contradiction avec les discours de nos responsables politiques ou religieux, entendus et lus dans la presse durant les mois écoulés, notamment à l’occasion de la préparation de la COP21, tels que ceux-ci

  • “Soyons prudents, mais il me semble assez manifeste que le changement climatique et les phénomènes climatiques extrêmes qui se multiplient jouent au minimum un facteur aggravant et parfois déclencheur de conflits”
  • “Mais ça n’est pas ça que ça fait, le changement climatique. Ça multiplie ce qu’on appelle “les événements climatiques extrêmes”, c’est-à-dire que là où il y a du désert ça va être toujours plus sec, et là où il y a des problèmes d’ouragan, il va y en avoir toujours plus... On ne peut pas lier un événement climatique extrême au changement climatique, mais on sait que la multiplication lui est liée.”
  • “Mais le fait que l’on ait des pluies, des typhons, des événements de plus en plus lourds et de plus en plus nombreux, ça, c’est en lien avec le dérèglement climatique.”
  • “Sous l’effet des gaz à effet de serre issus pour l’essentiel de la combustion d’énergies fossiles, la planète se réchauffe à une vitesse inédite, générant des événements météorologiques extrêmes, la fonte accélérée des glaciers ou encore la montée du niveau des océans.
  • ..”il est en outre difficile de ne pas le [NdT : le changement climatique] mettre en relation avec l’augmentation d’événements météorologiques extrêmes, indépendamment du fait qu’on ne peut pas attribuer une cause scientifiquement déterminable à chaque phénomène particulier.”


Les lectrices et lecteurs pourront s’amuser à essayer de deviner qui sont les auteurs de ces citations pour le moins péremptoires au vu de l’état de nos connaissances scientifiques. Pour aider les lecteurs, je précise qu’il s’agit d’affirmations proférées par un ministres,un anciens ministre, un ministres putatif, une autorité religieuse et une agence de presse officielle de la république française. Celles et ceux qui n’auraient pas deviné, pourront se reporter à un billet antérieur où elles/ils trouveront les références complètes et les noms de leurs auteurs.

2) Pluies et sécheresse aux USA : Des articles scientifiques réfutent les affirmations des experts de la Maison Blanche et des médias US.

Il n’y a pas qu’en France que les politiques (et les médias) “ignorent” les résultats des études scientifiques. En voici une, rédigée par des scientifiques reconnus du domaine, qui dément carrément les affirmations des experts de la Maison Blanche dont le rapport officiel, le “National Climate Assessment (NCA)”, soutenait que l’abondance des pluies et les inondations qui ont frappé les USA ces dernières années étaient la signature du réchauffement climatique anthropique. A noter, ce qui ne manque pas de sel, que les auteurs de l’article scientifique présenté ci-dessous (source) qui réfute les affirmations des experts de l’Administration Obama, sont tous affiliés à la NOAA (Laboratoire ESRL) qui est une éminente agence fédérale aux USA.

L’article ci-dessous, actuellement sous presse et qui doit être publié dans le principal journal de l’American Meteorological Society sur le climat, montre que les pluies abondantes aux USA sont étroitement corrélées (“intimement” dit l’article) avec la variabilité décennale océanique (d’origine parfaitement naturelle). Autrement dit, il s’agit encore, comme je l’ai souvent évoqué dans ce site, d’une nouvelle mise en évidence de l’un des facteurs naturels qui dominent les variations climatiques.

hoerling

Résumé :

Les données quotidiennes relatives aux précipitations les plus intenses (95e percentile) aux Etats-Unis ont été analysées afin de déterminer les facteurs responsables de la saisonnalité et de leur caractère régional dans les tendances de 1979 à 2013. Pour ce qui est de conditions annuelles, les tendances observées dans les Etats Contigus (NdT : c’est à dire sans Hawaï et l’Alaska) des USA, ont été caractérisées par un accroissement des précipitations associé à des événements intenses journaliers dans le Nord et par une décroissance dans le Sud. Les diagnostics des simulations climatiques (CCSM4 et CAM4) montrent que l’évolution des températures de surface des océans (SST) observées était un facteur plus important pour influer sur ces tendances que les variations des conditions aux limites liées au seul forçage radiatif externe.
Depuis 1979, ce dernier (NdT : Le forçage radiatif externe, sous-entendu anthropique) induit une augmentation de grande extension mais de faible intensité, dans les précipitations associés avec les événements intenses journaliers. Le premier (NdT : cad l’effet des température de surface des océans) résulte dans un accroissement au Nord des USA et un affaiblissement dans le Sud comme cela est observé et dont l’amplitude est parfaitement dans la ligne des variations observées, tout particulièrement dans le Sud et dans l’extrême Ouest (NdT : Le Far West) . L’analyse de la dispersion des ensembles des modèles révèle qu’une tendance appréciable de 3 à 5 ans dans les précipitations journalières intenses peut se produire en l’absence de forçage ce qui limite la détection d’une faible influence anthropique à des échelles régionales.

L’analyse de la saisonnalité des tendances des fortes précipitations journalières va dans le sens des arguments physiques indiquant que leurs variations durant la période 1979-2013 ont été intimement liées à la variabilité interne décennale des océans et moins avec le changement climatique anthropique. La plupart de la décroissance observée dans le Sud des USA s’est produite durant la saison froide qui a été pilotée de manière dynamique par la circulation atmosphérique qui est réminiscente des teléconnexions reliées à la température froide de surface (SST) de la zone du Pacifique tropical Est. La plupart de l’accroissement de la zone Nord-Est des USA s’st produit durant les saisons chaudes. Leur cause immédiate est encore inconnue.

Un autre article tout aussi récent, publié 1er Février 2016 dans la même revue, analyse les conséquences potentielles du “changement climatique” pour l’agriculture lors de la récente sécheresse éprouvée par la Californie dans le cadre du réchauffement climatique dit anthropique.

Cheng

Le résumé de cet article se termine sur la conclusion suivante :

C’est ainsi que nos résultats montrent que l’effet net du changement climatique a été de rendre les sécheresses pour l’agriculture moins probables et que les impacts sévères subis de nos jours n’ont pas été causés, de manière substantielle, par les changements climatiques à long terme.

…alors que la Maison Blanche et la quasi-totalité des médias US affirmaient très précisément le contraire.

Dans le même ordre d’idées, un étude récente qui vient de paraître dans le Journal of Earth Science, publié par des chercheurs de l’Université Washington de St Louis, explique que les récentes inondations records observées dans le Missouri, résultent d’une gestion déplorable des cours d’eau et non pas du “réchauffement climatique” comme cela avait été affirmé par la presse US. Voir le communiqué de presse de l’Université à ce sujet. Ce n’est certainement pas un cas isolé.

3) 2015, l’année “la plus chaude” ?

Un ou deux mois après la fin de l’année, lorsque toutes les données ont été publiées par les différents instituts, il est d’usage de situer la température moyenne du globe de l’année passée dans le cadre des années précédentes. Alors quid de l’année 2015 ?

Compte tenu des incertitudes (que beaucoup oublient de mentionner) il est probable que l’année 2015 a été, au plan global, une année parmi les plus”chaudes”, ce qui n’est guère étonnant au vu du très puissant El Niño qui a poussé les températures à la hausse depuis plusieurs mois. Par contre, le fait qu’il s’agisse d’une “année record” reste discutable car les différents instituts de mesure ne sont pas d’accord entre eux et que leurs évaluations divergent de plus en plus..
C’est ce que nous allons voir avec quelques détails.

A) En réalité, 2015 est surtout l’année d’un El Niño record, d’une intensité au moins égale, voire supérieure, à celui qui est survenu, il y a 18 ans, en 1998 :

Brefs rappels : Il apparaît fréquemment un réchauffement/refroidissement marqué de la zone équatoriale de l’océan pacifique située entre la zone Ouest des Philippines et l’Equateur (le pays). Il s’agit, en réalité d’une oscillation. D’où le nom d’ENSO (El Niño-Southern Oscillation) donné à ce phénomène aussi naturel que récurrent. Ces variations de températures, positives ou négatives, qui se reproduisent plus ou moins périodiquement, environ tous les deux à trois ans, sont naturelles et on est encore incapable de les modéliser correctement et, a fortiori, d’en prévoir le signe et l’intensité ne serait-ce qu’avec quelques années d’avance.
Voici deux images typiques de la situation du El Niño 2015. Celle de gauche provient de Unisys. Celle de droite de la NOAA. Je les ai simplement complétées en indiquant la situation du El Niño actuel.

nino2015-2nino2015

On sait que, sauf quelques rares exceptions mal comprises, il existe une corrélation nette entre l’indice ENSO (El Niño/La Niña) et le réchauffement/refroidissement transitoire global de la planète. Le mécanisme sous-jacent qui fait l’objet d’un grand nombre d’études fait appel aux “téléconnexions” entre les divers bassins océaniques. Voir, par exemple, ce billet sur la “Ola”, l’onde de stade. Autrement dit, les oscillations ENSO (El Niño et la Niña) font intervenir aussi bien le réchauffement local de la zone équatoriale du Pacifique que le régime des vents qui règnent dans la basse stratosphère. Tout cela se fait sentir sur une très grande partie du globe.

Rss-nino2

Le graphique ci-contre superpose l’évolution de l’anomalie de température de la basse atmosphère (TLT) donnée par le RSS-MSU, pour les années 1996-2015 avec celles de l’indice ENSO (Nino3-4) “normalisé”, c’est à dire décalé verticalement ( de +0,3°C) et remis à l’échelle (divisé par 5). Ce dernier est notamment fourni par le KNMI qui collationne une grande quantité de données observationnelles (et/ou résultant des modèles).
Comme on peut le constater et comme je l’avais déjà fait remarquer en 2010, la température de l’air à la surface de la planète suit assez fidèlement les variations de l’indice ENSO avec un retard d’environ 3 à 5 mois.

Sur la droite de ce graphique, on devine que le El Niño 2015 était proche de la saturation en Nov-Déc comme l’indiquent plus précisément les données détaillées à ce sujet. Depuis Janvier, cet El Niño semble avoir a entamé sa descente qui devrait ramener l’indice ENSO vers le neutre (c’est à dire avec une valeur comprise entre -0,5 et +0;5) vers la fin du printemps- début de l’été 2016, si on en croit les prévisions à ce sujet.

Nul ne sait avec certitude ce qu’il se passera par la suite (El Niño ou La Niña ?). Mais, ce que l’on sait c’est que, dans le passé, 11 des El Niño les plus intenses (sur 15) ont été suivis d’épisodes d’intenses La Niña, c’est à dire de périodes de refroidissement, comme pendant les années 1999-2001 qui ont succédé au très intense El Niño de 1998. Il est donc probable que la période de réchauffement relatif observé en fin d’année 2015 et, qui se poursuivra vraisemblablement au début de 2016, sera suivi d’un refroidissement à peu près équivalent mais de signe opposé.

B) Les températures moyennes globales selon les différents instituts. Les résultats divergent de plus en plus entre les mesures thermométriques et les mesures satellitaires.

Les sources des données qui ont servi à tracer les diagrammes suivants sont aisément accessibles.
Voici les liens utiles :
NOAA ; GISS (NASA) ; UAH V6 ; RSS-MSU.

noaa2015gistemp2015

Je rappelle que la NOAA, le GISS de la NASA ou le HadCRUT, utilisent les mêmes bases de données thermométriques (notamment le USHSN pour les USA). A noter que le nombre des stations de mesure, réparties sur la surface du globe, par ces différentes institutions a considérablement diminué au cours des années.
Plutôt que de prendre en compte des stations défectueuses ou peu entretenues, ces organismes préfèrent utiliser des algorithmes d’homogénéisation (dont je parlerai ci-dessous) à partir des résultats de stations “bien choisies”. Comme vous le verrez également ci-dessous, tout dépend, bien sûr, de ce que l’on entend par “des stations bien choisies” car différents choix sont possibles qui donnent des résultats sensiblement différents.

Je rappelle que les valeurs absolues des anomalies indiquées sur ces diagrammes en colonnes dépendant des périodes choisies pour “périodes de références”. En pratique, seul l’UAH (mesures satellitaires) se conforme aux stipulations de l’OMM qui prescrit que la base de référence choisie doit être celle de la moyenne des 3 décennies précédentes.
Voici les périodes de références choisies par les différents instituts pour lesquels j’ai tracé les graphiques.

Source Période de référence
GISS Jan 1951 – Dec 1980 (30 ans)
NOAA Jan 1901 – Dec 2000 (100 ans)
RSS Jan 1979 – Dec 1998 (20 ans)
UAH Jan 1981 – Dec 2010 (30 ans)

Compte tenu des incertitudes revendiquées par les différents organismes et qui sont indiquées sur ces diagrammes par des barres verticales noires, il est incorrect d’affirmer que selon ces instituts “2015 est l’année la plus chaude”. On peut simplement dire que, selon ces instituts, 2015 figure dans la liste des années les plus chaudes comme c’était d’ailleurs déjà le cas en 2014, toujours selon ces mêmes instituts.

Les mesures satellitaires, elles, donnent une toute autre vision des choses
.
A noter que, du fait de la différence des périodes de références choisies, les mesures RSS-MSU se trouvent décalées d’environ +0;1°C par rapport aux mesures UAH.

rss2015uah2015


De fait, comme vous le verrez ci-dessous, la cohérence entre les mesures satellitaires UAH (V6) et les mesures satellitaires (totalement indépendantes et même concurrentes) RSS-MSU est excellente. Les écarts entre ces deux dernières sont bien inférieures aux incertitudes revendiquées (0,09°C).

Donc, d’après les mesures satellitaires, la basse troposphère n’a absolument pas battu des records de chaleur en 2015. Cette année a été nettement surpassée par 1998 (année d’un autre El Niño très intense) et, aux erreurs près, l’année 2015 n’est guère plus chaude que plusieurs des années précédentes comme on le voit sur les graphiques.

Il apparaît que les tendances indiquées par les données thermométriques divergent de plus en plus de celles des données satellitaires. Il n’en allait pas ainsi dans les années précédentes et cette divergence problématique a suscité des polémiques acerbes entre les tenants des mesures thermométriques et les tenants des mesures satellitaires.

La divergence croissante entre la tendance des mesures satellitaires et la tendance des mesures thermométriques apparaît nettement sur le graphique suivant qui regroupe les variations des anomalies de température selon la NOAA et le RSS-MSU :

divnoaarss

Compte tenu du fait que la NOAA et le RSS-MSU utilisent des périodes de référence différentes, et de manière à pouvoir comparer les tendances, il a été nécessaire de translater verticalement les données RSS-MSU de +0,32°C de manière à minimiser les différences observées pour les années 1999 et 2000.
A l’évidence, la translation ne change pas les tendances.

Comme on peut le voir, alors que les mesures satellitaires persistent à indiquer que nous restons sur un “plateau de température
” pour lequel un grand nombre d’explications ont été proposées, il n’en est plus de même pour les mesures thermométriques de la NOAA qui ont, tout récemment, subi une assez profonde altération résultant de la remise en question des mesures thermométrique de la température des océans. Cette remise en question par la NOAA a été effectuée par l’équipe de Karl et al, 2015, d’où le nom de “Karlisation” utilisé pour désigner cette altération rétrospective très controversée des mesures des températures océaniques.
A noter que les organismes qui fournissent les données HadCRUT et GISTEMP ont immédiatement adopté le procédé de “Karlisation” lors de leurs dernières actualisations, tout en génèrant des divergences mesures satellitaires-mesures thermométriques de moindre amplitude que celle de la NOAA.

Dans l’état actuel des choses, les données de la NOAA, toutes corrections de la période de référence étant effectuées, indiquent une anomalie de la température moyenne globale d’environ 0,2 à 0,3°C supérieure à celle des mesures satellitaires (et des mesures par ballons sondes).

Ces divergences sont considérables à l’échelle du “réchauffement climatique” (estimé entre 0.7°C et 1°C) du globe depuis le début de l’ère industrielle n’ont pas laissé les scientifiques impliqués indifférents. Elles font l’objet d’un débat particulièrement virulent entre les tenants des mesures thermométriques et les tenants des mesures satellitaires.
C’est ainsi que les supporters des mesures thermométriques ont publié une vidéo produite par un think-tank supporter du “réchauffement climatique”, le “Yale Climate Connection”, visant à discréditer les mesures satellitaires. Les principaux intervenants dans cette vidéo sont bien connus des lecteurs de PU. il s’agit de Kevin Trenberth (cité plus haut), de Michael Mann (l’auteur du très célèbre article dit “crosse de hockey”), et de Ben Santer, tous protagonistes de l’affaire des courriels révélés au public, lors du Climategate en 2009.
La politique s’en est mêlé et le Sénat US, soutenu par une pétition de 300 scientifiques internationaux, a déposé une demande officielle exigeant, entre autres, la communication des données et la transparence dans le traitement des données de température par la NOAA.

De fait, comme vous allez le voir, les mesures thermométriques ne sont pas seulement sous le feu des critiques des défenseurs des mesures satellitaires.

C) Indépendamment des délicates mesures océaniques, la fiabilité des données thermométriques continentales pose des problèmes. Elle est sérieusement remise en question, notamment pour les USA, par deux climatologues et un météorologue lors d’une communication (texte complet et communiqué de presse) présentée à la dernière session de l’AGU. Les trois auteurs principaux de cette communication sont Anthony Watts, John Nielsen-Gammon et John Christy.

Voici une traduction du résumé de cette communication qui fait l’objet d’un article soumis à publication. A noter que la climatologue d’état, Nielsen-Gammon qui est très loin d’être un “sceptique”, a tenu à vérifier la totalité des observations et des calculs avec un de ses étudiants avant de cosigner cet article, ce qui l’engage vis à vis de ses collègues “mainstream”.

Les observations climatiques sont affectées par des variations de l’utilisation des sols et de la couverture arborée et ceci à toutes les échelles, y compris aux très petites échelles.
Un sous-ensemble de 4210 stations de mesure du Réseau Historique de la Climatologie US (version 2.5) a été identifié parce que n’ayant pas subit de modifications au cours du temps, ou de déplacement de stations durant la période 1979-2008.
Ces stations ont été classées en se basant sur leur proximité avec des surfaces artificielles, des bâtiments ou d’autres objets du même type qui présentent des masses thermiques non naturelles, en utilisant les principes élaborés par Leroy (2010).
Les stations, en nombre relativement limité, classées dans les catégories qui subissent un impact artificiel minimal, présentent des tendances brutes de température qui sont, en moyenne, d’environ les 2/3 de celles des stations dans les classes qui subissent un plus grand impact artificiel.
Les différences des tendances sont plus importantes pour les températures minimales et sont statistiquement significatives même à l’échelle régionale et pour différents types d’instrumentation et différents degrés d’urbanisation. Les techniques d’homogénéisation utilisées par les Centre National pour l’Information Environnementale (autrefois le NCDC) réduisent ces différences de manière importante mais produisent des tendances qui sont plus en accord avec celles des stations qui subissent un impact artificiel plus important. On ne trouve pas de différences de tendance entre le Cooperative Observer Network et le Climate Reference Network durant la sous-période 2005-2014 où la température est restée relativement stable, ce qui suggère que les différences observés résultent d’un mécanisme physique qui est directement ou indirectement impacté par les changements de température.

En bref, une grande majorité des stations de mesure des températures aux USA (il y en a 1298 dans les états contigus US. C’est le pays le mieux équipé) présente de nombreux défauts pour ce qui concerne l’analyse des tendances historiques tels que le changement de l’environnement ou de l’équipement (asphalte déposé, bâtiments construits, arbres à proximité coupés, stations déplacées et/ou substituées par de nouveaux équipements etc.) révélés par le “projet d’étude des stations de surface” mené par Watts assisté de très nombreux participants.

Les auteurs ont sélectionné 410 stations “sans défaut”, selon les critères couramment admis, c’est à dire, plutôt rurales, et qui n’avaient pas subi de modification durant la période historique considérée. Ces 410 stations sont régulièrement distribuées sur la carte des USA.
Le résultat est parlant. Les mesures enregistrées par ces stations montrent un réchauffement nettement inférieur à celui qui est donné par les 1298 stations prises en compte par la NOAA et les autres instituts faisant usage des thermomètres et des algorithmes d’homogénéisation standards.

Voici le graphique comparant les tendances des 410 stations conformes, de classe 1 et 2 (en bleu) sélectionnées avec, d’une part la tendance donnée par les stations non conformes (de classe 3/4 et 5) en couleur orange et;, d’autre part, avec les stations officielles utilisées et ajustées par la NOAA.watts

Le résultat est clair :

Comme on le voit, les stations conformes (classe 1 et 2) donnent une tendance de 0.204°C par décennie, les stations dégradées (classe 3/4 et 5) donnent 0.319°C par décennie. Les stations ajustées par la NOAA donnent 0.324°C par décennie..

En bref, les résultats officiels de la NOAA indiquent un réchauffement de 0.324/0.204 = 1.6 fois supérieur aux résultats donnés par les stations conformes de classe 1 et 2.

Les auteurs précisent que cette observation doit également probablement s’appliquer au reste de la planète où les stations sont, très fréquemment, en dessous des normes requises.


En résumé, la NOAA, comme les autres institutions, ne sélectionnent pas les stations suivant leurs qualités
à l’exception de celles qui sont éliminées parce qu’elles donnent des mesures trop déviantes. Elles se servent de la totalité des données thermométriques et mettent en oeuvre des algorithmes dits “d’homogénéisation” de l’ensemble de ces stations ce qui peut avoir pour effet d’aligner les stations de bonne qualité sur celles qui le sont moins mais qui sont majoritaires.

Ceci explique une phrase du communiqué de presse des auteurs de la communication citée ci-dessus : “Nous pensons que le processus d’homégénéisation de la NOAA/NCDC fait que des stations bien situées sont ajustées à la hausse pour se retrouver dans la masse des stations mal situées.

Ces critiques sur le traitement et l’utilisation des données thermométrique paraissent assez difficiles à réfuter. Néanmoins, il convient d’attendre les réponses des responsables des traitements des données de la NOAA et la parution de l’article soumis par les auteurs. Comme on le voit, si ces critiques sont justifiées, il est extrêmement probable que les marges d’incertitudes de la NOAA, du GISS et du HadCRUT sont, pour le moins, très largement sous estimées, avec une forte tendance à la hausse introduite artificiellement dans les données. Comme je l’ai indiqué ci-dessus et, a contrario, les mesures satellitaires font l’objet de sévères critiques de la part des tenants des mesures thermométriques.

D) Les mesures satellitaires :

Comme le savent les lectrices/teurs de PU, les mesures satellitaires de la température de la basse couche de l’atmosphère en contact avec la planète, émanent de deux institutions qui sont indépendantes et qui sont, de fait, en concurrence (parfois sévère) depuis des années. Il s’agit, d’un part, des mesures dites UAH parce qu’elles proviennent du centre dédié de l’Université de l’Alabama Huntsville (John Christy et Boy Spencer, tous deux inventeurs et initiateurs des méthodes de mesures, tous deux médaillées par la NASA pour “réussite exceptionnelle”) et, d’autre part, des mesures dites RSS-MSU, une autre émanation de la NASA.
Ces deux organismes utilisent des satellites différents, des détecteurs différents, des corrections différentes et des algorithmes de traitement des données différents. On pourrait donc s’attendre à ce que leurs résultats diffèrent quelque peu.

rssuah

Il n’en est rien et les mesures de l’UAH (Version 6) et du RSS-MSU sont remarquablement cohérentes entre elles ainsi que le montre ce graphique sur lequel j’ai tracé, en trait bleu épais, les données mensuelles de l’UAH-V6 et en trait jaune mince, celles du RSS-MSU.

En réalité, les mesures sont si proches l’une de l’autre que je n’ai pas trouvé d’autre moyen pour qu’on puisse les distinguer sur le même graphique. Bien entendu, j’ai translaté verticalement le graphe du RSS-MSU de -0,1°C pour tenir compte de la différence des périodes de références prises en compte par les deux organismes.

On voit que les rares différences entre les deux mesures sont bien inférieures à la somme des incertitudes revendiquées par les deux institutions (soit 0,18°C).
On perçoit nettement, à l’extrémité droite du graphe, la montée en puissance de l’El Niño 2015-2016 mais, de fait, l’année 2015 se classe en troisième position derrière 2010 et 1998.


John Christy, l’un des inventeurs/promoteurs des mesures satellitaires de températures de l’atmosphère à différentes altitudes, a profité d’une invitation à témoigner, le 2 Février 2016, devant les U.S. House Committee on Science, Space & Technology (Le comité de la Chambre US pour la Science, l’Espace et la Technologie) pour mettre les choses au point en ce qui concerne la fiabilité des mesures satellitaires. Voici quelques points clefs de sa présentation, mais les lecteurs intéressés pourront tirer profit de la lecture du texte écrit de sa présentation et de la vidéo prise à cette occasion. Le contenu de cette présentation réfute un par un les arguments présentés dans la vidéo des tenants de la thermométrie que j’ai citée plus haut.

En particulier, John Christy montre que les mesures satellitaires UAH V6 (et donc celles du RSS-MSU) sont très proches de celles relevées par les ballons sondes qui sont équipés de thermomètres traditionnels dont les données sont retransmises en permanence au sol par radio. Voici, ci-dessous, le graphe qu’il a présenté à ce sujet. Le mesures des ballons sont représentées en trait continu bleu et les mesures satellitaires en pointillés. (A noter, en passant, que la superposition est si parfaire que Christy aurait mieux fait d’utiliser mon mode de représentation avec des traits bleus épais et des traits minces jaunes). A noter que Christy utilise les moyennes des séries disponibles des mesures par ballons sondes (dites RATPAC, HadAT2, RICH, ROABCORE) christy-ballons


Christy ajoute que :

“Je trouve que c’est une stratégie d’une grande hardiesse que de promouvoir activement les résultats théoriques des modèles climatiques tout en attaquant les multiples évidences qui résultent des observations.

Notez qu’aucune des données observationnelles n’est parfaite et qu’un suivi permanent est salutaire mais quand des groupes multiples et indépendants génèrent des données et quand les résultats de deux systèmes totalement indépendants (ballons et satellites) sont très proches l’un de l’autre et sont en désaccord avec les sorties des modèles, on ne peut que se gratter la tête lorsque quelqu’un se décide à lancer une offensive contre les données de l’observation. Pour moi, ceci n’a aucun sens du point de vue scientifique.”



Au cours de son exposé, John Christy attire l’attention de ses auditeurs sur les différences significatives qui existent entre les sorties des modèles climatiques et les observations effectives.

Afin d’échapper à une critique (qu’il explique infondée) de la part des auteurs (Mann, Trenberth, Ben Santer) de la vidéo citée ci-dessus, Christy choisit d’illustrer la divergence évidente qui existe entre les modèles et les observations en situant ces dernières dans la moyenne troposphère, c’est à dire bien au dessus de la surface de la planète. Voici le graphique qu’il a présenté :

midtropo




Christy fait remarquer que le seul modèle qui semble être à peu près en accord avec les observations (le trait fin qui court à travers les valeurs expérimentales) est un modèle publié par les scientifiques Russes sous le nom de INM-CM4.






En guise d’illustration, Christy a tracé les droites de tendances de la hausse de température (de 1979 à 2105 pour les observations, plus loin pour les modèles) calculées par les modèles d’une part et, d’autre part, vue par les ballons-sondes (moyenne de 4 séries de données) et les satellites (moyenne de 3 séries de données), pour la totalité de la troposphère, c’est à dire la portion de l’atmosphère qui s’étend de la surface jusqu’à environ 15.000 mètres. Voici son graphique :

christy-trend

:

“En utilisant la période de 36 années pour la période 1979-2015, Christy trouve une tendance de

+0.079ºC/décennie pour les ballons sondes +0.091 ºC/décennie pour les données satellitaires.

La moyenne des 102 modèles climatiques ICCC CMIP-5, sur la même période donne une tendance de +0.214 ºC/décennie

De manière globale, les modèles surestiment le réchauffement de la masse de l’atmosphère ( de la surface à 50000 pieds) d’un facteur 2,5.

… ce qui devrait quand même poser un sérieux problème aux modélisateurs car comme disait Richard Feynman à ses étudiants à Cornell en 1964 : “Si ça ne colle pas avec les expériences, c’est faux. Et c’est ce simple constat qui est la clef de la science. Cela ne fait aucune différence que la supposition soit géniale ou que l’auteur soit très intelligent ou comment il s’appelle. Si ça ne colle pas avec les expériences, c’est faux. Il n’y a rien à ajouter.


seauah

Un peu plus loin au cours de sa déposition, Christy fait remarquer que les “corrections” (dites “Karlisation”) plutôt controversées, apportés par Karl et al de la NOAA aux données sur les températures de surface des océans qui ont pour résultat d’effacer “la pause”, sont démenties par les observations satellitaires.

Voici le graphique que Christy présente à ce sujet.

Il s’agit d’une représentation, sur différents segments de 10 à 20 ans, des tendances décennales de la température moyenne des océans. En rouge, les tendances vues par la NOAA, résultant de la “Karlisation”. En orange, les mêmes tendances vues par le HadCRUT4. En jaune, les tendances vues par les mesures satellitaires qui mesurent la température de l’air à la surface des océans et en bleu les tendances relevées pour la basse atmosphère.
Autant dire que les tendances diffèrent d’un bon facteur 3 à 10 et qu’elles ne sont, parfois, même pas du même signe.

Entre autres, Christy fait remarquer que la tendance quasi nulle du HadCRUT4 de 2001 à 2014 est en assez bon accord avec les mesures UAH et va dans le sens de la “pause” des températures, et se trouve en fort désaccord avec les données “Karlérisées” de la NOAA.

4) Conclusions :

Que les lectrices ou lecteurs me pardonnent de leur avoir infligé un billet que beaucoup trouveront sans doute un peu trop long et, parfois, un peu compliqué. Mais, au point où nous en sommes arrivés et au vu des lourdes conséquences économiques et sociétales envisagées par nos politiques, il est important de fournir quelques détails et de ne pas se contenter de superficiel comme nous l’avons vu lors de la COP21.

A la lecture attentive des articles qui paraissent dans la presse scientifique sous la plume d’auteurs renommés, on constate que la science climatique progresse. Les observations qui sont à la base de la démarche scientifique, s’enrichissent progressivement et, bien heureusement, beaucoup de chercheurs en tiennent compte, quitte à remettre en cause les (supposés) acquis du passé, même récent.
Malheureusement, on observe, en parallèle, que le microcosme médiatico-politique ne suit pas les progrès de la science et ne corrige pas ses discours en conséquence. Il en résulte un gap grandissant entre la réalité du contenu des publications scientifiques et les affirmations de plus en plus “décalées” de nos édiles et de nos médias qui influencent l’opinion.

Les deux premières parties de ce billet montrent que plusieurs idées reçues et répercutées ad infinitum dans les médias et dans les discours politiques, sont erronées ou, du moins sérieusement remises en cause, aussi bien pour ce qui concerne les ouragans/typhons/cyclones que pour les sécheresses et les pluies.

La troisième partie explique que les données résultant des mesures de la température moyenne du globe ne sont pas d’accord entre elles et qu‘une année El Nino surtout s’il est particulièrement intense comme celui de cette année 2015, est certainement le plus mauvais choix possible pour ceux qui cherchent à détecter et à se convaincre du caractère anthropique du changement climatique.
Bien plus grave encore, et quelques soient les effets passagers d’un El Niño ou d’une La Niña, on observe que la divergence entre les mesures et les modèles s’accroît à mesure que le temps passe. Comme vous l’avez vu, il existe une sérieuse polémique à ce sujet. De fait, il s’agit d’une question fondamentale à laquelle il faudra bien, un jour, apporter une réponse.
Soit les modèles sont gravement déficients et leurs prévisions sont sans valeur ce qui aurait de lourdes conséquences, soit les mesures des températures satellitaires (y compris du corps même de l’atmosphère) sont erronées ce qui semble peu probable du fait qu’elles sont d’accord entre elles et qu’elles sont confirmées par les multiples ballon-sondes lancés par plusieurs institutions indépendantes.

En écrivant ceci, je ne fais que reprendre les observations de Syukuro Manabe, l’un des pères fondateurs de la théorie de l’effet de serre, qui avait déjà remarqué, en 2011, la divergence entre les mesures satellitaires et les modèles, (pour la haute troposphère tropicale), laquelle s’est aggravée. Il s’en inquiétait déjà en écrivant dans un article publié en 2011 :

“Au vu de l’importance de l’évaluation de l’augmentation du réchauffement de la haute troposphère tropicale vis à vis de la sensibilité climatique et de l’évolution des circulations atmosphériques, il est d’une importance cruciale de comprendre les causes possibles du désaccord entre les modèles et les observations.

En bref, la science progresse comme elle l’a toujours fait – sauf dans le cas d’une rupture fondamentale – par une suite d’erreurs et de corrections. Rien n’est définitivement gravé dans le marbre et l’idée même de “consensus” est étrangère à la démarche scientifique. Par exemple, des expériences en cours cherchent encore de nos jours, à confirmer ou à infirmer la théorie de la relativité générale d’Einstein.

Le Nobel de Physique, Richard Feynman, ne disait-il pas ?

“Nous avons observé qu’il est d’une importance cruciale que, de manière à progresser, nous devons reconnaître notre ignorance et laisser la place au doute. La connaissance scientifique est constituée d’une série de déclarations qui possèdent différents degrés de certitude – certaines ne sont pas sûres, certaines sont presque sûres mais aucune n’est absolument certaine.”

Enfin, ceux qui s’alarment de l’hiver doux qui règne actuellement en France devraient prendre connaissance de cette rétrospective historique sur les hivers doux qu’a connus notre pays depuis le 6e siècle (recensés par le CNUM, le Conservatoire Numériques des Arts et Métiers). (h/t Skyfall.fr).
Rien de nouveau sur le soleil, comme vous le verrez.
A noter que, dans le passé, plusieurs “hivers doux” se sont plutôt mal terminés.

Stay tuned !

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *