25 septembre 2020

De la divergence entre les modèles et les observations

On constate que la '"sensibilité climatique" au CO2, évaluée dans les publications successives, s'amenuise, année après année, ceci en contradiction flagrante avec l'alarmisme actuel.
…Ce qui ne semble guère préoccuper les médias qui poursuivent leur intense campagne d'"information", comme nous le verrons plus bas.

Comme le savent les lecteurs(trices) de ce site, la quasi-totalité des mesures envisagées par les politiques en matière de climat et notamment celles qui seront discutées lors de la prochaine conférence COP21 à Paris, reposent fondamentalement sur les prédictions des modèles numériques du climat. S'il est exact que la prévision reste l'un des objectifs fondamentaux de la science, encore faut-il s'assurer que ces prévisions sont robustes et fiables avant de prendre des décisions lourdes de conséquences. Ce billet, tout comme nombre de ceux qui le précèdent et qui figurent ci-dessous, montre qu'il est légitime d'avoir quelques sérieux doutes à ce sujet.

Dans le prolongement direct des déclarations (en forme d'avertissements) présentés indépendamment par John Christy et Judith Curry devant les élus des USA que j'ai rapportées dans les billets précédents et qui attiraient, une fois encore, l'attention des décideurs sur la divergence croissante qui existe entre les résultats des modèles numériques du climat et les observations, nous allons rapporter ici une analyse statistique de la robustesse de cette divergence. Cette analyse démontre, entre autres, que la divergence entre les modèles et les observations est une fonction croissante du temps qui passe, qu'elle est tout à fait significative du point de vue statistique et qu'elle en est arrivée au point de remettre sérieusement en question les fondements mêmes des modélisations climatiques sur lesquelles reposent l'intense activité politique (et médiatique) que nous connaissons actuellement.

En guise d'introduction pour l'analyse qui suit, on peut se souvenir d'un des graphiques présenté par John Christy lors de son récent exposé devant les représentants US. hcnr8

 

Ce graphe montre une comparaison entre la moyenne des 102 modèles climatiques CMIP-5 (en rouge) pour la moyenne troposphère (globale) et la moyenne des observations correspondantes effectuées par les deux systèmes satellitaires indépendants (et concurrents) RSS-MSU et UAH (qui donnent des résultats très semblables) représentées par les carrés ainsi que la moyenne des 4 séries de résultats obtenus par les ballons-sondes (ronds bleus).

La divergence croissante qui existe entre les modèles et les observations est particulièrement évidente.

A noter que le graphique ci-contre traite de la divergence entre les modèles et les observations de la température de la moyenne troposphère. Pour sa part, l'article traduit ci-dessous concerne la comparaison des résultats des modèles et des observations pour les températures moyennes et globales mesurées à proximité de la surface de notre planète.

 


Je vous propose donc, ci-dessous, une traduction intégrale d'un article rédigé par des climatologues aussi chevronnés que renommés. Les auteurs sont, dans l'ordre, Hans von Storch, Armineh Barkhordarian, Klaus Hasselmann et Eduardo Zorita (affiliations dans la traduction ci-dessous). La longue expertise et la renommée de trois de ces auteurs est attestée par le grand nombre d'articles publiés dans les revues peer-reviewed et le nombre de citations de ces derniers (von Storch : 365 publications, 8497 citations ; Zorita : 222 publications, 4396 citations et Hasselmann : 179 publications, 10339 citations).
Ces auteurs ne peuvent en aucun cas être qualifiés de "climato-sceptiques". Il s'agit tout simplement de climatologues "mainstream" expérimentés qui s'inquiètent de l'inadéquation évidente qui apparaît entre les modèles et les observations. Ils se contentent de constater l'évidence et de proposer des explications plausibles dans le contexte de nos connaissances actuelles.
Je n'ai pas traduit les "Suppléments" qui accompagnent traditionnellement la soumission de ce genre de publication. Les lecteurs(trices) intéressé(e)s pourront en prendre connaissance en cliquant sur le lien que j'indique ci-dessous. J'ai néanmoins créé un lien cliquable sur les tables de ces suppléments quand elles sont référencées dans la traduction de l'article de Hans von Storch et al.
Hormis les inter-titres, les caractères engraissés le sont par PU.

1) L'analyse de la divergence modèles/observations :

Source de l'article (2013)

Les modèles du climat peuvent ils expliquer la stagnation récente du réchauffement climatique ?
Hans von Storch(1), Armineh Barkhordarian(1), Klaus Hasselmann(2) et Eduardo Zorita(1)

(1) Institute for Coastal Research, Helmholtz-Zentrum Geesthacht, Geesthacht, Germany
(2) Max-Planck-Institute for Meteorology, Hamburg, Germany


Au cours de ces dernières années, il est apparu que l'augmentation de la température moyenne de la couche d'air proche de la surface du globe [NdT : c'est à dire celle dont la température est mesurée par les sondes thermométriques] était nettement plus petite que celle à laquelle beaucoup s'attendaient. Nous cherchons à savoir si ceci peut être expliqué dans le cadre des scénarios numériques actuels du changement climatique. A l'inverse des analyses antérieures qui mettaient en évidence une cohérence entre les modèles et les observations à un niveau de confiance de 5%, nous trouvons que la stagnation persistante durant les quinze années, de 1998 à 2012, n'est plus cohérente avec les projections des modèles même en allant jusqu'au niveau de confiance de 2%.
Parmi les causes possibles de cette divergence,
la sous-estimation de la variabilité naturelle du climat constitue un candidat potentiel mais l'influence de facteurs de forçage externes non pris en compte par les modèles ou une surestimation de la sensibilité climatique des modèles à une augmentation des concentrations de gaz à effet de serre, ne peuvent pas être éliminées. La première cause n'aurait un faible impact sur les attentes à long terme du changement climatique anthropique mais la seconde et, en particulier, la troisième aurait un impact certain. Les estimations du réchauffement climatique observé durant la période récente de quinze années (1998-2012) varient entre 0.0037 °C/an (NCDC)(1) , 0.0041 °C/an (HadCRUT4) (2) et 0.008 °C/an (GISS) (3). Ces valeurs sont significativement plus faibles que le réchauffement moyen de 0.02 °C/an observé durant les trente années précédentes (1970-2000) (4).

Les modèles peuvent-ils expliquer la stagnation du réchauffement climatique ?

Nous comparons la tendance récente du réchauffement climatique observé avec un ensemble de tendances du réchauffement climatique calculé par 23 modèles différentes des Projets d'Inter-Comparaison des Modèles Climatiques (Climate Model Intercomparison Projects) CMIP3(5) et CMIP5(6) (Table S1 dans les Suppléments). Les simulations ont été effectuées pour les deux scénarios A1B (CMIP3) et RCP4.5 (CMIP5) qui sont proches de l'histoire récente des émissions avec une croissance linéaire des émissions au delà de 2012 jusqu'en 2060 (Figure 1).

hvs1

 

Figure 1: Emissions anthropiques de carbone selon les scénarios SRES A1B (en rouge) et RCP4.5 (en bleu) comparées aux émissions anthropiques estimées (Martin Heimann, comm. personnelle).[NdT : Ce qui est conforme aux estimations du GIEC]

 

 

 

 

 

Une comparaison des tendances de l'ensemble des modèles numériques pour différentes séquences temporelles avec une estimation moyenne du réchauffement global (0.0041 °C/an, HadCRUT4) est montrée dans le Figure 2 (Un résumé statistique plus détaillé impliquant les deux autres estimations de la tendance récente est présentée dans la Table S2 des Suppléments).hvs2

 

 

Figure 2. Cohérence entre la tendance récente de la température globale moyenne et les simulations numériques des modèles climatiques. La figure montre la proportion des tendances simulées qui sont inférieures ou égales aux tendances annuelles observées durant la période 1998-2012 selon les données HadCRUT4, Rhadcrut15.= 0.0041 °C/an. L'ensemble des simulations a été calculée pour des séquences qui ne se chevauchent pas pour la période 2001-2060. Les modèles du climat reposent sur les scénarios d'émission RCP4.5 (CMIP5) et A1B (CMIP3). L'inset montre un zoom sur la zone de 0% à 2% .

Note : Rappel sur l'utilisation des percentiles (on dit plutôt "centiles" en français).hvs5

En statistique, le quatre-vingt-quinzième centile est la valeur telle que 95 % des valeurs sont en dessous et 5 % sont au-dessus.
Le graphique ci-contre, à droite, montre que les segments de longueur 12 à 20 ans sont égaux ou en dessous du quantile à 2%. De 15 à 20 ans, le quantile est inférieure à 1% ce qui signifie que plus aucun modèle ne colle avec les observations. Il s'agit de la traduction statistique du fait que les modèles s'écartent des observations à mesure que le temps passe. Et ce ne sont pas les centièmes de degré des années 2013 ou 2014 qui y changeront quoique ce soit.

 

Pour les segments de 10 ans, 6% (CMIP3) ou 8% (CMIP5) des tendances simulées sont plus petites ou égales aux tendances observées durant la période 1998-2012 – en accord avec les tests positifs antérieurs de cohérence pour la période 1998-2009(7). Cependant, pour les tendances des intervalles de 15 ans qui correspondent aux observations récentes pour la période 1998-2012, seulement 2% parmi les 62 tendances des modèles CMIP5 et moins de 1% des 189 tendances des modèles CMIP3 sont plus faibles ou égales aux tendances observées. Si nous appliquons le test standard de la valeur statistique critique de 5% (8), nous concluons que les projections des modèles sont incohérentes avec les observations récentes du réchauffement climatique durant toute la période 1998- 2012. (Notons cependant que le terminologie du test statistique standard, bien qu'elle soit très généralement utilisée, n'est pas, à strictement parler, appropriée dans ce cas : voir les Suppléments(9)). L'incohérence augmente rapidement avec l'augmentation de la durée de la tendance. La poursuite du taux de réchauffement actuel durant une période de 20 ans et plus tomberait en dehors de toutes les tendances simulées par l'ensemble de tous les modèles climatiques.


Qu'est-ce que ces incohérences impliquent pour ce qui est de l'utilité des projections climatiques pour le changement climatique anthropique ?

Nous sommes en mesure de suggérer trois explications possibles pour les divergences modèles/observations :

1) Les modèles sous-estiment la variabilité interne et naturelle du climat.
2) Les modèles climatiques sont en défaut parce qu'ils n'incluent pas de processus de forçage externe en complément du forçage anthropique, ou,
3) La sensibilité des modèles climatiques vis à vis du forçage externe anthropique est trop élevée.

La première explication est simple et plausible. La variabilité naturelle est la conséquence inévitable pour un système lent (le climat) en interaction avec un système rapide (le temps météorologique)(10). Le forçage d'un système lent par les composantes à basse fréquence (bruit blanc) du système rapide induit un "mouvement Brownien" représenté par un spectre de variance rouge – en accord qualitatif avec les observations.

Cependant, les détails de la réponse dépendent fortement de la dynamique interne du système lent dans les échelles de temps concernées – dans le cas présent, pour des échelles de temps de décennies. On sait depuis longtemps, d'après les rapports successifs du GIEC (4) que les modèles climatiques globaux contemporains n'ont qu'un succès limité dans la simulation de nombre de processus qui vont de la variabilité de la circulation océanique, aux événements ENSO [NdT : La Niña et El Niño], aux régimes des oscillations océans-atmosphère; aux variations de la glace de mer, à sa surface continentale, à la chimie de l'atmosphère et à la biosphère. L'incapacité de simuler la variabilité statistique interne du climat peut avoir été compensée, dans le passé, par l'ajustement des modèles par des forçages externes prescrits tels que les éruptions volcaniques et les aérosols troposphériques.

Ceci expliquerait pourquoi les simulations implémentées avec des forçages historiques des différentes GCM [NdT : modèles globaux du climat] tendent à être très proches et suivent de près les observations enregistrées. Ce "gonflage" artificiel (11) par une variabilité forcée au dépens de la variabilité naturelle imprévisible fonctionne, en réalité et seulement, pour la période d'ajustement et ne fonctionne plus du tout dans la phase post-ajustement, c'est à dire approximativement depuis l'an 2000. Le résultat net d'une telle procédure est une sous-estimation de la variabilité naturelle et une surestimation de la réponse à une variabilité forcée.

De fait, la seconde explication ne peut être exclue dans le contexte de l'ajustement traditionnel des modèles.La stagnation récente pourrait être attribuée à un forçage externe qui n'est pas inclus ou qui ne l'est pas de manière satisfaisante, dans les modèles actuels. Les éruptions volcanique et l'ensoleillement sont des candidats fréquemment invoqués. Cependant,bien que les deux explications bénéficient de supporters, une augmentation récente de l'activité volcanique n'a pas été rapportée. Les variations de l'ensoleillement ou de l'activité solaire exigent des mécanismes d'amplification qui sont encore assez spéculatifs et qui pourraient contribuer à la diminution récente du réchauffement climatique (12,13).

Enfin, la surestimation par les modèles du réchauffement climatique pour la période 1998-2012 pourrait être en partie corrigée par la sensibilité climatique supposée au forçage radiatif. En principe, les sensibilités climatiques des modèles sont calibrées par un ajustement de la réponse climatique aux variations saisonnières et fonctions de la latitude du forçage solaire tout autant que par le changement climatique observé dû à l'augmentation du forçage anthropique tout particulièrement durant le XXe siècle.
Il serait difficile de modifier la calibration des modèles de manière suffisamment significative pour reproduire le ralentissement du récent réchauffement climatique tout en satisfaisant à ces dernières exigences essentielles. Alors que l'ajustement de l'effet des aérosols peut aider à réconcilier la différence entre les observations et les tendances à long terme simulées (14) et, de fait, une étude récente (15) propose que la sensibilité réelle pourrait effectivement se trouver dans la partie la plus basse des modèles climatiques contemporains, une recalibration qui reproduirait la réduction du réchauffement durant les 15 dernières années apparaît difficilement réalisable. On ne sait pas si une recalibration récente des modèles CMIP5 a été entreprise mais les modèles CMIP3 ont été mis en oeuvre avant que la stagnation récente n'ait été détectée.

Nous ne souhaitons pas suggérer laquelle des ces trois possibilités est la plus probable. Nous laissons nos collègues en décider. Il est tout à fait possible que les trois facteurs contribuent dans une certaine mesure. Mais nous espérons que la nécessité de comprendre la stagnation récente du réchauffement climatique provoquera un accroissement des efforts pour parvenir à une simulation plus fiable de la variabilité climatique à l'échelle de décennies et à notre capacité à démêler les contributions relatives de la variabilité forcée (déterministe) de la variabilité interne (stochastique).

References:

1 Smith, T. M., et al. J. Climate, 21, 2283 (2008).
2 Morice, C.P, Kennedy, J.J.Rayner, N.A. & Jones, P.D. J. Geophys. Res. 117, D08101
doi:10.1029/2011JD017187 (2012).
3 Hansen, J., R. Ruedy, Mki. Sato, & Lo, K. Rev. Geophys., 48, RG4004, doi:10.1029/2010RG000345
(2010).
4. Solomon, S. et al. Climate Change, The Physical Science Basis, Camb. Univ. Press (2007).
5 Meehl, G. A., et al. Bull. Am. Meteorol. Soc. 88, 1383 (2007).
6 Taylor, K. E., et al.. Bull. Am. Meteorol. Soc. 93, 485 (2012).
7 Easterling, D.R. & Wehner, M.F. Geophys.Res. Lett. 36 L08706, doi:10.1029/2009GL037810 (2009).
8 Barnett et al., J. Climate 18, 1291 (2005).
9 von Storch, H. & Zwiers, F. Climatic Change 117, 1 (2013).
10 Hasselmann, K. Tellus 31, 473 (1976).
11 von Storch, H.. J. Climate 12 3505 (1999).
12 Meehl G.A., Arblaster, J.M., Matthes, K., Sassi., F. & van Loon, H. Science 325, 1114 (2009).
13 Shindell, D. T., G. Faluvegi, R. L. Miller, G. A. Schmidt, J. E. Hansen & Sun, S.
Geophys. Res. Lett., 33, L24706, doi:10.1029/2006GL027468.(2006).
14 Kiehl, J. T. Geophys. Res. Lett., 34, L22710, doi:10.1029/ 2007GL031383 (2007).
15 Otto, A., et al. Nature Geo. 6, 415 (2013).

2) Sensibilité climatique

On peut compléter les considérations développées par von Storch et al. pour ce qui concerne le point 3) qui concerne l'évolution récente de l'évaluation de la "sensibilité climatique" à un ajout de CO2 dans l'atmosphère. J'ai rapporté, dans cette page, de nombreuses déclarations faites par différents auteurs au sujet de l'amenuisement progressif de ce paramètre fondamental pour les théories en vigueur. Il suffit de rechercher le mot 'sensibilité' dans cette page pour retrouver les nombreuses citations qui en font mention.
Tout récemment, plusieurs investigateurs (dont celui-ci) ont eu l'idée d'illustrer l'évolution des différentes estimations de ce paramètre déterminant pour les théories de l'effet de serre. En bref, ils ont répondu à la question suivante :

"Quelle est la tendance de l'évolution de la sensibilité climatique" dans les publications (peer-reviewed) des climatologues lors de ces quinze dernières années".

hvs7

Le graphique ci-contre a été établi d'après les données collectées par Nic Lewis (billet en trois parties) qui est lui-même l'auteur de plusieurs articles peer-reviewed publiés sur la sensibilité climatique (par ex. celui-ci).

Selon les théories en vigueur, la "sensibilité climatique"correspondant à l'augmentation de la concentration du CO2 dans l'atmosphère est égale à l'élévation de température globale moyenne en °C pour un doublement de la concentration de CO2 dans l'atmosphère.
Ainsi une sensibilité égale à 2 provoquerait une augmentation de température de 2°C, par rapport à la température actuelle si la concentration du CO2 atteignait environ 800 ppm (nous en sommes à 400ppm) .

On définit deux types de sensibilités climatiques :

La sensibilité climatique à l'équilibre (ECS, equilibrium climate sensitivity, points rouges sur le graphique ci-contre) se rapporte au changement de la température du globe (à proximité de la surface) qui résulterait d'un doublement indéfiniment persistant du taux de CO2 dans l'atmosphère.

La réponse climatique transitoire (TCR : Transient climate response. Les points bleus sur le graphique ci-contre). est définie comme la réponse moyenne de la température moyenne du globe sur une période de 20 années centrée sur le doublement du taux de CO2 dans une simulation numérique avec un taux de CO2 en augmentation de 1% par an.

De manière générale, la TCR est nettement plus faible que l'ECS du fait de l'inertie thermique de la planète et notamment de celle des océans.

La lecture de ce graphique est immédiate. Depuis l'années 2001, les différentes estimations des sensibilités climatiques (TCR et ECS) publiées dans la littérature on été pratiquement divisées par 2 au cours des années passées. C'est à dire que, si l'on s'en tient aux théories en vigueur, l'élévation moyenne de la température de la planète pour un doublement du taux de CO2 (par exemple si l'on passait de 400 à 800ppm) serait de 1,3°C (pour la TCR) ou 1,7°C (pour l'ECS) par rapport à la situation actuelle, ce qui est très sensiblement moins alarmiste que les modèles du GIEC, (les plus pessimistes sont fréquemment cités dans les médias), qui donnent des sensibilités climatiques proches de 2 (TCR) et 3,5 (ECS). A noter que ce graphique omet l'estimation de Richard Lindzen qui voit une ECS inférieure ou égale à 1.
hvs9


Si l'on fait confiance aux scénarios du GIEC et si l'on estime que nous poursuivrons suivant la voie du scénario actuel proche de l'A1B (on peut difficilement anticiper de nouvelles croissances du type de celle de la Chine et l'utilisation des gaz de schistes a tendance à abaisser les émissions, comme, actuellement, celles des USA), les diagrammes du GIEC (ci-contre) nous indiquent que nous n'atteindrons pas les 700 ppm en l'an 2100 et donc que la hausse des températures sera très inférieure à 2°C.
Dès lors, on peut s'interroger sur le fondement des estimations des +4°C, +5°C, +6°C en 2100, énoncées fréquemment par diverses personnalités dans nos médias, tout particulièrement à l'approche de la COP21.

 

 

A noter, au sujet de l'article de Hans von Storch et de ses collègues que ce dernier a été refusé par la revue Nature, ce qui n'est guère étonnant compte tenu de l'orientation délibérée de cette revue (grise). Sans insister, Von Storch et ses collègues qui n'ont nul besoin d'étoffer leur CV et leur renommée, ont décidé alors de le publier sous la forme que j'ai indiquée. A remarquer également que, s'agissant du point 1 (i.e. "les modèles sous-estiment la variabilité naturelle du climat"), von Storch et ses collègues n'ont pas évoqué frontalement le complément logique de cette possibilité, pourtant déjà relevé par beaucoup, que si la variabilité naturelle permet d'expliquer "la stagnation des températures", il n'y a aucun raison qu'elle ne puisse pas, tout aussi bien, expliquer, au moins en partie, la hausse des températures qui s'est produite durant de la période précédente (1976-1998), sauf à prouver le contraire. Dès lors la remarque des auteurs "La première cause n'aurait un faible impact sur les attentes à long terme du changement climatique anthropique" est prise en défaut.
Inévitablement, si la variabilité naturelle est également responsable (au moins en partie) du réchauffement précédent (il n'y aucune raison de supposer que la variabilité naturelle puisse seulement refroidir mais pas réchauffer), cela conduit inexorablement à une diminution de la sensibilité climatique au CO2 dont il faudrait impérativement tenir compte dans les modèles.

3) Le plus chaud de toute l'histoire (!) :

Peu d'entre nous ont sans doute pu échapper aux titres des multiples coupures de presse qui nous affirmaient, comme, par exemple, Le Figaro, que "Le mois de Juillet 2015 est le plus chaud de toute l'histoire".
On se perd en conjectures sur ce qui constitue le début de '"toute l'histoire" pour l'auteure de cet article mais ce qui est certain c'est qu'elle ne s'est donné aucun mal pour informer ses lecteurs. Par exemple, en répondant aux questions "Qui dit cela ?, Que disent les autres ?", "le plus chaud, mais de combien ? Est-ce significatif compte tenu des incertitudes des mesures ?". Les lecteurs de PU qui en ont vu bien d'autres, ne seront pas étonnés…

Pour notre part, et selon nos bonnes habitudes, nous avons voulu en savoir un peu plus. Voici donc les données officielles, au sujet des mois de Juillet successifs (depuis 1997), publiées par le Goddart Institue (GISS) de la NASA (très proche de la NOAA qui utilise la même base de données thermométriques qui est d'ailleurs la seule existante, à gauche, en bleu sur le graphique suivant) et par l'organisme indépendant RSS- MSU qui mesure, à l'aide de satellites et avec des algorithmes qui lui sont propres, la température de l'atmosphère proche de la surface de la planète ( à droite, en rouge sur le graphique suivant)..

hsv13

Suivant les conventions habituelles, les segments verticaux au dessus et au dessous de chaque point (carré) de mesure indiquent les marges d'incertitudes. Celles-ci sont de ±0.1°C pour la NASA (et le HadCRUT) et de ±0.08°C revendiqués par le RSS-MSU. Les zones en grisé indiquent les zones d'incertitudes centrées sur les dernières mesures publiées du mois de Juillet 2015.

Pour ce qui est des valeurs numériques rapportées par le GISS de la NASA, et comme on le voit sur le graphique, en réalité, la température globale revendiquée pour le mois de Juillet 2015 ne diffère que très très peu de celle des mois de 2011 et que les écarts sont très inférieurs aux marges d'incertitudes.

Selon la NASA, Juillet 2015 a été plus chaud que
Juillet 2011 de +0,01°C (un centième de degré !)
Juillet 2009 de +0,03°C
Juillet 1998 de +0,04°C
Compte tenu des marges d'incertitudes de ±0.1°C, en réalité, le mois de juillet 2015 est quasiment indiscernable de 9 à 12 autres mois de juillet des années précédentes. On peut faire un peu mieux en usant de méthodes statistiques élaborées à l'aide des centiles comme ci-dessus, si on admet que les méthodes d'homégénéisation des stations de mesure des températures sont valides.

Le graphique et les données du RSS-MSU nous racontent une toute autre histoire. La température de l'atmosphère proche de la planète au mois de Juillet 2015 n'a absolument pas battu de records. Les mois de Juillet 1998 et 2010 ont été très significativement plus chauds (environ +0,3°C) que Juillet 2015, comme on le voit sur le graphique. A noter que les données de la dernière version (V6) de l' UAH qui utilisent des satellites et des méthodes différentes du RSS-MSU, sont très proches de ces dernières.

Enfin, on peut avoir une idée des différences des différences des couvertures des méthodes thermométriques (NASA GISS et NOAA) et des méthodes satellitaires (UAH et RSS-MSU) en observant les deux images suivantes :

A gauche, la couverture satellitaire des températures du globe selon l'UAH. La couverture satellitaire est pratiquement complète ( à l'exception de régions très proches des pôles) et sans discontinuité.
A droite, la couverture thermométrique du globe selon le GHCN (la source des données de la NOAA et du GISS de la NASA, ici seulement pour les terres émergées). La couverture thermométrique de la planète est très pauvre. Comme indiqué en bas à droite de l'image, les zones en grisé représentent les zones où il n'y a pas de donnée thermométrique. Les températures des zones en grisé sont alors calculées avec des algorithmes d"'homogénéisation". Autant dire que, dans ces conditions, prétendre à une incertitude de ±0.1°C sur la température moyenne du globe relève de l'exploit. Quant aux écarts de l'ordre du centième de degré revendiqués, ils relèveraient, au mieux, du voeu pieux ou du rêve éveillé.

hvs14hvs15

A noter que l'on voit très bien, sur ces deux images, que le mois de Juillet 2015 a été relativement chaud pour l'Europe du Sud (et; bien sûr, comme on le sait, pour la France). A l'inverse, il a été relativement froid pour le Nord de l'Europe, l'Est des USA, la Chine et le Sud de l'Australie.hvs16

Dans ces conditions, affirmer, comme Le Figaro et beaucoup d'autres, que "Le mois de Juillet 2015 a été le plus chaud de toute l'histoire" équivaut à prétendre départager Usain Bolt (9 s 79/100e au 100m) et Justin Gatlin (9 s 80/100e au 100m), lors du dernier championnat du monde de course sur cent mètres, avec un chronomètre "vintage" gradué en dixièmes de seconde.

Ce serait stupide, me direz-vous. Alors pourquoi les médias publient-ils des articles qui font exactement la même chose ?

S'il s'agit de préparer les esprits pour la COP21 – ce qui est probable – il faudra trouver des arguments autrement plus convaincants pour les lecteurs un tant soit peu informés.

4) Plusieurs de mes collègues scientifiques sont intervenus récemment dans le débat en cours, dans le même sens que ce site. Parmi d'autres, en voici deux exemples :

Un texte de Philippe de Larminat auteur d'un livre (Changement climatique, identification et projections) novateur que j'avais signalé dans la page des liens, au sujet d'une analyse critique de la théorie de l'effet de serre.
Une présentation de François Gervais à l'Institut Schiller.

Stay Tuned


Une réflexion sur « De la divergence entre les modèles et les observations »

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *


%d blogueurs aiment cette page :