17 mai 2022

Climat : les nouveaux hoax

20 Février 2011 : Nature : The Serial Catastropher ? Après avoir provoqué une quantité astronomique de catastrophes (sécheresses, plus de pluies, plus de neige, mois de neige, plus froid, moins froid etc.), l'activité humaine contribuerait également à générer des extrémas de précipitations plus intenses…. C'est ce qu'affirme un article, pour le moins criticable et critiqué, y compris par les collègues des auteurs, qui vient de paraître dans Nature.
Voici ses références :

"La contribution humaine à l'accroissement des extrémas de précipitations."
Human contribution to more-intense precipitation extremes
Seung-Ki Min, Xuebin Zhang, Francis W. Zwiers and Gabriele C. Hegerl
Nature. 17 Février 2011.

Comme on peut s'y attendre, et sans se poser la moindre question qui pourrait perturber les croyances des adeptes du changement climatique apocalyptique, la cohorte des médias, déjà titulaire d'un grand nombre de bonnets d'âne, s'est efforcée de nous en faire un compte rendu aussi cataclysmique que définitif : L'AFP (en tête, bien sûr), The Guardian, Le Monde, RTL, la BBC, TF1 et beaucoup d'autres, tout en évitant de mentionner les graves incertitudes qui pèsent sur ces résultats ainsi que les critiques fondamentales exprimés par plusieurs climatologues éminents…
Comme d'habitude, devrais-je dire.

Pourtant, une analyse un peu plus approfondie que la simple reproduction (en la dramatisant, si possible) des dépêches d'agence, aurait permis à nos journalistes d'en savoir un peu plus et de faire leur travail, au grand bénéfice de leurs lecteurs. Comme l'ont d'ailleurs fait certains journalistes outre-atlantique et outre-manche.

Voici une traduction de la fin du résumé de l'article (le début n'est qu'une introduction générale) qui a suscité l'enthousiasme pour ne pas dire le déchaînement de nos médias et de quelques scientifiques qui fréquentent assidûment le studios de nos "étranges lucarnes" (expression du Canard Enchaîné pour la télévision) :

"Etant donné que l'on estime que la capacité de rétention de l'eau dans l'atmosphère varie grossièrement de manière exponentielle avec la température – et que le contenu en vapeur d'eau de l'atmosphère varie en accord avec cette attente – il a été suggéré que le réchauffement climatique influencé par l'homme peut être, en partie, responsable de l'augmentation des fortes précipitations. Du fait de la limitation du nombre d'observations quotidiennes, cependant, la plupart des études précédentes ont limité leurs études du changement potentiel des précipitations aux comparaisons modèles-modèles.Ici, nous montrons que les gaz à effets de serre générés par l'homme ont contribué à l'augmentation des événements à forte précipitation observés sur approximativement deux tiers des terres de l'hémisphère Nord où l'on dispose de données. Ces résultats sont basés sur une comparaison entre les observations et les multi-simulations des modèles des fortes précipitations sur la dernière moitié du XXème siècle et sur les parties émergées de l'hémisphère Nord. Les résultats sont analysés avec une technique multi-empreinte optimale. Les variations dans les précipitations extrêmes projetées par les modèles et ainsi les impacts des évolutions futures des précipitations extrêmes peuvent être sous-estimées parce que les modèles semblent sous-estimer l'augmentation observée des précipitations extrêmes avec le réchauffement."

Le journal "Nature" interdit la reproduction gratuite des figures faisant partie intégrante de ses articles. Je ne peux donc reproduire la figure maîtresse de l'article cité ci-dessus avec une taille convenable. Néanmoins, la vignette ci-contre qui est la figure maîtresse de l'article devrait donner une idée assez superficielle mais correcte des analyses faites dans cet article.

Sur ces quatre figures, Le trait noir représente l'évolution observée des "événements pluvieux extrêmes" dans l'hémisphère Nord de 1950 à 2000. cata1

 

Les autres courbes en couleur, indiquent les réalisations obtenues à l'aide de différents modèles informatiques bien connus du GIEC. Comme on peut le constater, les divergences observations-modèles sont nombreuses même si l'allure générale de la croissance est, à peu près, respectée ce qui compte-tenu des variations erratiques des modèles et des observations ne constitue guère un exploit.

D'autant plus qu'il est regrettable que, dans ce genre de graphique, les résultats des modèles et les observations ne soient pas complétés de leurs marges d'incertitudes qui sont très importantes comme vous le verrez ci-dessous. Dans ces conditions, il est extrêmement hasardeux de se prononcer sur le caractère significatif de ces confrontations, surtout s'agissant de courbes qui varient de façon plus ou moins monotone…

Quelques remarques : Pour faire simple, on sait que le contenu en vapeur d'eau de l'atmosphère augmente avec la température. On sait également que la température globale a faiblement augmenté au moins de 1910 à 1940, puis de manière identique de 1975 à 2000, après une nette interruption de 1945 à 1975 ainsi d'ailleurs que de 1998 -2000 à 2010 (au moins).

Le contenu en vapeur d'eau de l'atmosphère a donc augmenté en fonction des lois élémentaires de la physique, comme on le sait. On observe que la pluviométrie a également augmenté, ce qui est également attendu, bien qu'on ne sache toujours pas comment se constituent les nuages. Les auteurs tirent un argument, qui leur paraît décisif pour prouver l'influence humaine, du fait que les observations sont conformes aux résultats de leurs modélisations informatiques qui impliquent les gaz à effet de serre. Ce faisant, ils oublient, semble-t-il, qu'il peut exister des causes naturelles qui font également monter la pluviométrie, surtout sur des périodes aussi limitées. Ce raisonnement est exactement le même que celui qui a été menée pour la température globale. Mais comme on le sait, le fait que celle-ci ait augmenté durant deux périodes successives (de 30 ans) ne constitue, en aucun cas, une preuve que les modèles utilisant l'effet de serre sont la seule explication. Ce sera peut-être le cas, lorsque toutes les autres causes naturelles possibles auront été envisagées sérieusement et éliminées.
C'est d'ailleurs, très exactement, le défi lancé par le climatologue Roy Spencer aux tenants du réchauffement climatique anthropique… auquel il n'a évidemment jamais été répondu.

On peut faire remarquer aux auteurs que comme les modèles informatiques basés sur l'effet de serre, prévoient, bien entendu, un réchauffement de la planète, il n'est pas étonnant qu'ils trouvent également une augmentation de la pluviométrie. C'est de la physique. Ceci est sans aucun doute, une indication que les modèles (et c'est la moindre des choses) sont auto-consistants. Par contre, il est évident que si l'augmentation de la température provient d'une cause naturelle, cela conduit strictement aux mêmes observations. A mon avis – et je ne suis pas le seul à le penser – ce test n'est donc nullement discriminant pas plus que ne l'est la confrontation de l'évolution de la température globale avec les modèles (qui ne fonctionne d'ailleurs pas comme on peut le constater, au moins, depuis 1998 jusqu'à nos jours). En fait, il s'agit d'un raisonnement circulaire.

A noter que des journalistes consciencieux auraient pu (dû) relever également le fait qu'un accroissement de pluviométrie implique une augmentation de l'ennuagement, surtout à basse altitude, et donc une augmentation de l'albedo, ce qui constitue une rétroaction négative (et non positive) de l'effet des gaz à effet de serre et donc réduit la "sensibilité" climatique. En d'autres termes, comme cela a été plusieurs fois signalé, une augmentation de l'évaporation des océans due à un réchauffement quelconque peut induire une rétroaction négative via la création de nuages à basse altitude (peu ou non prise en compte par le GIEC). Cette question vient immédiatement à l'esprit quand on lit l'article cité de Nature. Et de fait, la question des nuages est l'une des grandes inconnues qui pèsent lourdement sur les scénarios climatiques, comme cela a été rappelé dans le récent rapport de l'Académie des Sciences française.

Cette question est cruciale et il est pour le moins curieux que les auteurs de l'article n'aient pas évoqué cette problématique, et notamment celle des téléconnexions des précipitations extrêmes avec l'ENSO (La Niña et El Niño), dont tout le monde sait, depuis les observations de Darwin, (et surtout les Australiens qui viennent de subir une inondation remarquable, mais guère exceptionnelle en temps de fort La Niña comme c'est le cas en ce moment) qu'elles jouent un rôle absolument essentiel pour déterminer les événements extrêmes tels que ceux évoqués dans l'article de Nature.

C'est d'ailleurs cette question importante qu'évoquait Kevin Trenberth dans un courrier adressé à Michael Mann, le 14 octobre 2009, révélé lors de l'affaire du Climategate (ignorée par les médias francophones).
L'original (en anglais) est ici. J'ai rapporté sur ces échanges de courriers dans cette page.
A ce propos; je recommande aux lecteurs avertis, la lecture assidue de ces courriels échangés entre les climatologues impliqués dans ces recherches.Ils sont très éclairants sur beaucoup de sujets notamment parce que les chercheurs s'y expriment sans aucune contrainte. On ne ment pas quand on discute, en privé, avec ses propres collègues.

Voici donc un extrait significatif, rédigé par Kevin Trenberth qui est l'un des leaders du GIEC : trenberth

"Où est passée toute cette chaleur ? Nous savons qu'il existe une augmentation de la chaleur des océans avant un El Niño et une décharge (et un réchauffement de la surface) pendant les derniers stades du El Niño, mais le système d'observation est-il suffisant pour le suivre ? Tout à fait en dehors des changements dans les océans, nous savons qu'il se produit des changements majeurs dans les trajectoires des tempêtes et leurs téléconnexions avec l'ENSO et qu'il y a BEAUCOUP plus de pluie sur les continents durant La Niña (plus de sécheresse pendant un El Niño), alors comment l'albedo change-t-il (changements dans les nuages) ? Pour le moins, l'excédent de pluie qui tombe sur les continents implique que beaucoup plus de chaleur sert à l'évaporation qu'à faire monter les températures, et ainsi, refroidit les terres et ainsi devrait générer des nuages. Mais le refroidissement dû à l'évaporation signifie que la chaleur va dans l'atmosphère et devrait être irradiée dans l'espace."…

(le caractères engraissés sont de l'auteur de PU. Les caractères en majuscules sont de Kevin Trenberth).

Tout ceci est parfaitement sensé et bien connu des climatologues (voir Judy Curry, ci-dessous). Comment se fait-il que ces causes aussi essentielles que naturelles n'aient pas été évoquées et examinées par les auteurs de l'article de Nature (et par le referee) ? Il aurait sans doute été plus probant de suivre l'évolution des oscillations ENSO au cours du demi-siècle écoulé et de tester leur corrélations éventuelles avec les gaz à effet de serre et avec la pluviométrie.
________________________________________________________________________________________

Voyons maintenant comment les climatologues, collègues des auteurs de l'article tant vanté par nos médias, ont commenté ce dernier. Le constat d'un véritable journaliste scientifique (non climato-sceptique) mérite aussi d'être relaté :

1) Le Point de vue du climatologue Gavin Schmidt (GISS-NASA). Comme les lecteurs de ce site le savent, il est extrêmement rare que je mentionne le site RealClimate fondé par Michael Mann et dans lequel exerce Gavin Schmidt, le bras droit du gourou du réchauffement climatique anthropique, James Hansen. Une fois n'est pas coutume, mais, cette fois-ci, Gavin Schmidt énonce un certain nombre de vérités (sauf deux mots) scientifiques au sujet de la question des "extrêmes" évoqués par l'article de Nature cité ci-dessus.
Voici ce qu'il a écrit sur son site. J'ai respecté la mise en forme de son texte ainsi que la casse originale (les italiques). gavinschmidt

  • Tous les extrêmes ne sont pas de même nature. Les discussions sur les "changements des extrêmes", en général, sans spécifier exactement de ce dont il s'agit exactement, n'ont aucun sens (Ndt : Ils sont pourtant très fréquemment évoqués, de manière générale, dans nos médias). Une tornade est un événement extrême mais c'est un de ceux dont les causes, la sensibilité au changement et les impacts n'ont rien à voir avec ceux qui sont relatifs à une tempête de glace, ou à une vague de chaleur, ou d'air froid, ou à une sécheresse.
     
  • Il n'existe pas de théorie ou de résultat qui indique que le changement climatique augmente les extrêmes en général. Ceci est un corollaire de l'affirmation précédente – chaque sorte d'extrême doit être considéré de manière spécifique – tout autant que de manière régionale.
     
  • Certains extrêmes vont devenir plus communs dans le futur (et d'autres moins). Nous discuterons de ces spécificités ci-dessous.
  • L'Attribution des extrêmes est difficile. Il n'existe qu'un nombre limité de données résultant des observations pour démarrer ainsi que des tests insuffisants des simulations des modèles climatiques pour les extrêmes et également (jusqu'à présent) une appréciation limitée des projections des modèles.

A la lecture des déclarations contenues dans le dernier paragraphe qui constitue une sévère remise en cause du contenu de l'article de Nature (grandes incertitudes sur les données, comme sur les modèles), on s'étonne de lire que Gavin Schmidt affirme, dans le troisième paragraphe, que "certains extrêmes vont devenir plus fréquents". En effet, si, comme il le dit, les observations sont déficientes et les résultats des modèles incertains, comment peut-il être aussi sûr de lui pour avancer ce genre de prévisions ?
Pour essayer de comprendre cette rhétorique un peu étonnante, mais que l'on retrouve fréquemment sous la plume de Gavin Schmidt, on peut se reporter à un article du New York Times, publié à l'époque de la récente vague de chaleur en Russie. Le NYT interrogeait Gavin Schmidt à ce sujet. Gavin Schmidt répondit : " Si vous me posez la question en tant que personne, pour savoir si je pense que la vague de chaleur en Russie a quelque chose à voir avec le changement climatique, ma réponse est oui. Si vous me posez la question en tant que scientifique pour savoir si je l'ai prouvé, la réponse est non – du moins, pas encore."

Les choses sont claires. Gavin Schmidt fait des prédictions que la science n'a pas prouvé. "Pas encore" dit-il.
Après tout, pourquoi pas ? Mais dans ce cas-là, il ne faut pas présenter les choses comme des prédictions avérées, comme il l'a écrit plus haut (en italiques). Ce ne sont que des hypothèses, parmi bien d'autres.

pielke1

2) Le point de vue du climatologue Roger Pielke Sr à Boulder (Colorado)

Voici ce que ce dernier a écrit sur son site officiel, toujours au sujet de l'article de Nature :

 

pielke

"Il apparaît que l'objectif de la plupart des médias et de Nature a été de propulser une explication étriquée pour les augmentations de précipitations extrêmes (comme résultant essentiellement du CO2 ajouté et de quelques autres gaz à effet de serre). Ils ont ignorés les autres explications dues au forçage humain (NdT : comme l'évolution de l'utilisation des sols dont Pielke Sr. sur laquelle il a écrit plusieurs articles dont certains portent sur les précipitations extrêmes), ainsi que le rôle de la variabilité naturelle comme cela a été discuté efficacement dans les billets de Judy Curry (I et II)."

Pour sa part, le fils de Roger Pielke Sr, Roger Pielke Jr (Professeur de Sciences Environnementales à l'Université de Boulder (Co). Tout comme son père, il n'est pas, à proprement parler, un climato-sceptique), est encore plus sévère. Après avoir rappelé les propos de Gavin Schmidt cités ci-dessus, il conclut par une phrase polie mais acerbe :
pielkejr

En bref, les nouvelles études sont intéressantes et ajoutent à notre savoir. Mais elles ne changent pas l'état de nos connaissances en ce qui concerne la tendance des désastres sur le globe et comment ceux-ci pourraient être reliés aux gaz à effet de serre (NdT : ce qui est pourtant le but affirmé de l'article de Nature). Mais, quand même, je m'attends à ce que beaucoup veuillent encore compléter les pointillés entre les gaz à effet de serre et les inondations récentes.
Compléter les pointillés, c'est amusant, mais ce n'est pas de la science.

caractères engraissés par PU.

2) Le point de vue de la climatologue Judy Curry (souvent citée dans ce site. Elle est la grande prêtresse du réchauffement climatique, comme elle le dit elle-même) qui a rédigé, dans son blog "Climate etc.", deux sections consacrées à "l'attribution des événements extrêmes".

Voici ce qu'elle a écrit au sujet de l'article de Nature : judy1

"Dans la partie I, je disais que je n'étais pas du tout convaincue par les stratégies utilisées pour attribuer les événements extrêmes au réchauffement climatique. Aujourd'hui, deux nouveaux articles ont été publiés dans Nature qui attribuent les fortes pluies récentes au réchauffement climatique. Pour un résumé, voir cet article lié au Huffington Post.

J'étais l'une des 10 experts extérieurs interviewés par Seth Borenstein (Ndt : du New York Times, au sujet de l'article dans Nature). Voici la brève réponse que je lui ai faite par email :

"Hello Seth, j'ai peu de temps en ce moment mais j'ai rédigé un billet sur ce sujet, pris de manière plus générale.

Je pense que ce genre d'analyse n'est absolument pas convaincante. Elle ne prend pas en compte le rôle de la variabilité naturelle interne telle que l'Oscillation Arctique, La Niña etc. dans la genèse des inondations. Aucune des inondations récentes est extrême dans le contexte historique."

Caractères engraissés par PU.

4) Le point de vue d'un journaliste scientifique (sérieux) : Andrew Revkin (Journaliste scientifique au New York Times pendant des années, jusqu'à récemment). Je suggère au Monde, à Libération, au Figaro, à l'Express, au Point, à TF1 etc. de l'embaucher. Il n'est pas climato-sceptique. Il est simplement libre et honnête…(surtout depuis qu'il a quitté la rédaction du NYT).

Dans un article de son site Dot Earth du New York Times intitulé : " A propos des tempêtes, du réchauffement, du signalement des incertitudes et de la première page", Andrew Revkin nous donne une belle leçon de journalisme et, aussi, de déontologie pour les scientifiquesrevkin.
Son point de vue sur l'article de Nature en question est on ne peut plus clair.
Voici quelque extraits de son texte que je vous conseille de lire intégralement si vous êtes anglophone. Il vaut son pesant d'octets et il expose, avec le talent qu'on lui connaît, nombre de mes objections sur la couverture médiatique quasi-hystérique du réchauffement climatique ainsi que sur le comportement "quasi-médiatique" de certains chercheurs.

Andrew Revkin écrit, au sujet de l'article de Nature :

"…Mais est-ce vraiment nouveau ?

A voir l'explosion de la couverture médiatique (y compris dans les pages de News du Times), c'est certain. Et ce n'est pas une surprise quand on voit la principale conclusion, exposée sans aucune restriction, dans l'introduction résumée de l'article ." (Ici, Revkin nous rappelle quelques lignes "définitives" tirées du résumé traduit ci-dessus.)

Un peu plus loin , Revkin écrit :
" Le problème est que cet article de Nature n'est pas du tout définitif, comme vous allez le voir".

… "Ceci soulève de graves questions sur la déontologie des scientifiques et sur l'utilisation journalistique de la présentation et du résumé de travaux complexes, ainsi que de la nécessité évidente pour les journalistes – et les lecteurs – d'explorer de tels travaux comme si une étiquette "à manipuler avec précaution" y était attachée.

Il s'agit de rapporter de manière responsable.

Un exemple précédent s'est produit en 2006 quand un article publié dans Science au sujet des grenouilles qui mouraient au Costa Rica et qui incluait cette brève et forte affirmation " Ici nous montrons que la récente extinction de masse associée avec l'explosion d'agents pathogènes, est liée au réchauffement climatique. " (NdT : Cet article totalement abusif a été sévèrement critiqué depuis lors).
Bien entendu, les choses étaient beaucoup plus complexes, comme vous avez pu le lire dans mon article de 2008 intitulé "La disparition des grenouilles, le Climat, et les titres des journaux".

Revkin poursuit et explique :

"Alors, quel est le problème avec cette nouvelle étude sur les mauvaises tempêtes et le réchauffement ?

Cet article s'ouvre sur une affirmation préliminaire extraordinaire qui est reprise dans les communiqués de presse disséminés par le journal (Ndt : Nature). Ici, Revkin re-cite le résumé :

" Ici nous montrons que l'augmentation humaine des gaz à effet de serre a contribué à l'intensification observée des fortes précipitations..."

Juste au cas où il resterait quelques doutes dans la communauté scientifique, car ceci est l'élément nouveau de cet article qui serait, sans cela, honorable mais anodin.

A la fin de la conclusion de l'article complet, en chapeau à un paragraphe sur un point faible de l'analyse – que la tendance observée dans les précipitations extrêmes excède celle qui résulte des différents modèles climatiques – survient une phrase sur les incertitudes :

"Cependant, il existe des incertitudes liées aux limitations observationnelles, au forçage manquant ou incertain et aux performances des modèles".

Il n'y a aucune indication que ces incertitudes (qui sont référencées par 9 citations d'articles) s'appliquent à la conclusion générale. Les auteurs ont-ils insisté sur les incertitudes lors de leurs discussions avec les journalistes ? Cela ne semble certainement pas être le cas.
Les journalistes auraient-ils dû chercher à creuser davantage lorsqu'ils se sont trouvés en face d'affirmations aussi définitives ?
A mon avis, oui. "

En fin d'article, Andrew Revkin, s'inquiète de la dérive actuelle qui pousse les chercheurs et les revues comme Nature ou Science (Que Roy Spencer appelle les "revues grises" pour la même raison) à écrire des articles "qui crèvent l'écran"; tout en rejetant en fin d'articles la mention (discrète) des inévitables incertitudes que la "Science Climatique" semble avoir oubliées depuis longtemps. Voici ce qu'il ajoute dans la suite de son article :

"Tel que je le vois, en tant que reporter, les auteurs et le journal (NdT : Nature) essayent de jouer sur les deux tableaux – en incluant des affirmations péremptoires dans des résumés qui attirent l'attention de la presse et du grand public, puis qui disent que, non, ceci n'est pas définitif… S'il vous plait, allez voir les incertitudes dans la dernière ligne (même si cette dernière ligne n'est pas rhétoriquement liée aux affirmations péremptoires).

Ceci me rappelle, hélas, les questions que j'ai soulevées au sujet de la manière dont le résumé pour les décideurs du GIEC (NdT : SPM Summary for Policymakers) incluait des affirmations péremptoires, en formes de titres, tandis que les auteurs pointaient, après coup, vers les incertitudes enfouies, plus loin, dans le texte.

Existe-t-il, tout simplement, une norme différente pour la littérature scientifique qui permet qu'un résumé rédigé comme celui-ci (Ndt : Le résumé très affirmatif de l'article de Nature) soit considéré comme résumant les résultats avec exactitude ?

En matière de journalisme, il est impossible de jouer sur les deux tableaux, si vous voulez garder votre crédibilité. Si l'introduction d'un article de journal ne reflète pas ce qui est écrit plus bas, vous pouvez, à juste titre, vous faire démolir pour exagération.

(NdT : Puisse-t-il être entendu ! Belle leçon de déontologie pour les nombreux titulaires du bonnet d'âne et, également, pour beaucoup de scientifiques, notamment ceux qui sont volontiers médiatisés.)

Caractères engraissés par PU.

Dans la suite de son article, Andrew Revkin raconte son entretien avec Gabriele C. Hegerl (l'un des auteurs anglais de l'article en question) au sujet des excès mentionnés ci-dessus.. Ce dernier rejette, entre autres, la responsabilité sur le journal Nature qui impose, par exemple, que l'on commence son article par "Here, we show"; "Ici, nous montrons que", ce qui pousse évidemment les chercheurs à la faute.
Je conseille aux anglophones de lire cette section avec attention. Elle est est très éclairante sur le comportement des revues grises comme Nature, sur les chercheurs, les incertitudes, les médias etc
Ce qui est amusant, c'est que Hegerl illustre son propos en renvoyant Revkin à un cartoon de Jorge Cham que j'avais cité et expliqué dans la page "méthode scientifique" à laquelle je vous renvoie pour ne pas allonger ce billet.

_________________________________________________________________________________________________________________

Conclusion : Le bonnet d'âne est décerné aux journalistes francophones et anglophones des médias cités en tête de ce billet qui ont désinformé le public au sujet du contenu et de la signification réelle de l'article de Nature, qui, selon eux, prouve de manière définitive le lien entre l'activité humaine et l'aggravation de l'activité pluviométrique. La plupart de ces journalistes sont des récidivistes qui bénéficieront de la peine plancher (c'est à dire qu'il obtiennent le bonnet avec les palmes).

Le journal Nature se voit décerner son premier bonnet d'âne.
maddox

Je le regrette. D''autant plus que le très remarquable précédent éditeur en chef; feu Sir John Maddox (ci-contre), avait redressé et porté très haut le flambeau de cette vénérable revue scientifique.
Dans sa nécrologie,du journal The Times
, on peut lire ceci : " Lorsqu'une vague de pessimisme environnemental balaya le monde de l'Ouest dans les années 1970, il était l'un des rares à résister. Il écrivit un livre intitulé ' The Doomsday Syndrome (1972)" (Le syndrome de la fin du monde) qui dénonçait le fait que l'alarmisme était très exagéré."
John Maddox doit se retourner dans sa tombe s'il voit ce qu'ils ont fait de sa très chère revue.

A défaut d'une formation minimale en matière de recherche scientifique, j'invite tous les heureux récipiendaires du bonnet d'âne, à lire et à relire, avec la plus grande attention, le billet de leur collègue, Andrew Revkin, ex-journaliste scientifique au New York Times, cité ci-dessus.
Ils comprendront peut être et enfin, ce qu'impose, en réalité, la fonction de journaliste.
J'ai bien peur d'avoir perdu mes illusions à ce sujet…

___________________________________________________________________________________________________
Note : Le journal Nature a également publié, dans le même numéro, un second article (résumé et références ici) entièrement basé sur les modèles numériques pour "expliquer" les inondations qu'a subi l'angleterre en 2000. Les performances des modèles climatiques à l'échelle locale ont été analysées en profondeur par plusieurs équipes dont celle du Professeur Koutsoyannis (il existe un article plus récent, publié en 2010, qui fait les mêmes constatations que celui de 2008, sur un plus grand nombre d'exemples) qui concluent que les prévisions des modèles sont totalement déficientes. Je n'ai pas jugé utile d'alourdir ce billet en répétant un certain nombre de constats tels qu'exposés ci-dessus.

 

4 février 2011 : 2010 année record de température "depuis toujours"… ont dit certains.
Ou une fois encore, de l'art de la sélection des données et de la présentation au public.

Que n'avons-nous pas lu dans les journaux, vu à la télévision ou entendu à la radio, au mois de Janvier, au sujet de l'année 2010 qui aurait été selon certains, emportés par leur enthousiasme ou par leurs convictions, "la-plus-chaude-de-tous-les-temps" ?
Voici quelques exemples, parmi beaucoup d'autres, de ces déclarations aussi péremptoires que peu fondées, mais propres à faire "les gros titres" et à appâter le chaland (gogo ?), relevés par plusieurs lecteurs que je remercie.

Maxisciences : "2010, année la plus chaude : un record absolu confirmé". Reprenant le début d'une déclaration de Mr Michel Jarraud, grand responsable de l'OMM (L'Organisation Météorologique Mondiale qui a fondé le GIEC), Maxisciences "oublie" la suite de la déclaration de ce dernier qui précisait qu'en réalité, et selon les bases qu'il a sélectionnées (voir ci-dessous), cette année 2010 est identique (à 0,01°C près !) aux années 1998 (Il y a donc douze ans) et 2005. Ce qui, soit dit en passant, n'indique pas précisément une tendance au réchauffement puisque 2010 est identique à 1998… surtout avec une augmentation du taux de CO2 de 5% pendant la même période, comme aimerait nous en convaincre Maxisciences et M. Jarraud de l'ONU. En réalité, il s'agit d'une stagnation des températures comme je vous le montrerai ci-dessous, avec quelques détails. Et, de fait, ce plateau de 12 années est très dérangeant pour les modèles du réchauffement climatique résultant des gaz à effets de serre. Même si une hirondelle ne fait pas printemps, elle n'annonce certainement pas l'hiver…

D'autre part, il ne s'agit pas d'un "record absolu confirmé". D'autres institutions officielles (l'office Anglais, le HadCRUT, par exemple) ne placent 2010 qu'en seconde position derrière 1998, comme je vous le montrerai ci-dessous.

Le Nouvel Obs ne fait pas dans la dentelle et ne craint pas le ridicule en titrant en très gros caractères :"2010, année la plus chaude de l'histoire : C'est ce que confirme l'Organisation météorologique mondiale, qui y voit une tendance "significative" au réchauffement à long terme."
Evidemment non. Même Michel Jarraud n'est pas allé jusqu'à prétendre que 2010 est l'année la plus chaude de l'histoire. Il ne parle que de la période écoulée depuis que les relevés existent (vers 1880 et encore, s'agissant du globe…). M. Jarraud doit connaître l'existence des autres périodes chaudes de l'holocène, si on se contente de remonter jusque-là, et on est très loin d'avoir une idée des températures "globales" de la planète au cours de l'histoire à partir de quelques indicateurs fossiles prélevés ici ou là. D'autre part, on se demande bien ce que signifient les guillemets qui encadrent "significatives".
2010a

Pour sa part, le Journal "La Croix" n'a pas failli à sa mission : Voici le placard (ci-contre) que l'on trouve dans son édition du 21 Janvier.
Honnêteté oblige : Après avoir affirmé que "les données 2010 confirment le réchauffement", ce qui n'est pas le cas puisqu'il s'agit au contraire d'une stagnation de température, malgré une hausse du taux de CO2, La Croix précise que 2010 est la plus chaude avec 2005 et 1998. Ce qui est déjà plus proche de la réalité.

L'agence Reuters relayée par Yahoo : "2010 a été la deuxième année la plus chaude après 1998 dans les annales météorologiques, dont la création remonte à 1850, a déclaré mercredi Phil Jones, directeur d'un centre britannique de recherche sur le réchauffement climatique. "
Reuters nous refait le coup du bonneteau, en oubliant de parler de la tendance et de préciser que s'il faisait plus chaud, il y a douze ans, cela ne constitue guère une preuve du réchauffement climatique, comme ont dû le penser beaucoup de lecteurs avertis.

Le Monde, (titulaire du bonnet d'âne du mois de Janvier, avec quelques autres, pour avoir relayé, sans hésitation, une dépêche de l'AFP délirante, retirée peu après : "L'année 2010 a été la plus chaude sur le globe, ex aequo avec 2005".
On ne se refait pas. Une seule base de donnée fait les beaux jours de ce journal qui ignore toutes les autres.

Le Figaro (également titulaire du bonnet d'âne du mois de Janvier, avec quelques autres, toujours pour avoir relayé une dépêche de l'AFP délirante, retirée peu après, reprenant une dépêche de l'AFP (ils devraient se méfier) titre sobrement :"Climat: 2010, année la plus chaude" tout en reconnaissant qu'elle est seulement "légèrement supérieure aux années 2005 et 1998". Ce n'est pas le cas. Nous verrons cela.

Libération (autre titulaire du bonnet d'âne du mois de Janvier) avait déjà claironné, dès le mois de Mai que l'année 2010 était sur la voie du record absolu "depuis 130 ans", puis de nouveau en septembre, puis, encore, en Novembre, toujours en se basant sur les mesures d'un seul et unique organisme : le GISS de James Hansen sans jamais évoquer ne serait-ce que l'existence des quatre autres organismes officiels qui sont beaucoup moins affirmatifs ou qui donnent des résultats différents comme nous le verrons. Cela s'appelle du "cherry picking" systématique, de la sélection des données. On verra, avec amusement, s'ils seront tentés de poursuivre cette série d'épisodes alarmistes au cours de l'année 2011.

Puis El watan, Nice-Matin, La Tribune, etc. Et une kyrielle d'autres journaux francophones qui reprennent les dépêches de l'AFP ou de Reuters et les affirmations du responsable de l'OMM. Sans oublier la quasi-totalité de la presse régionale.

Et je ne prends pas la peine de relever ce qu'ils ont raconté à la télévision : verba volant !

Par contre -et certains s'en sont plaint- la presse anglophone qui doit regarder les choses de plus près
, s'est assez globalement abstenue d'en faire trop sur ce sujet et si elle a reproduit la déclaration du WMO (l'OMM en anglais), elle l'a souvent accompagnée de diverses explications relatives au El Niño 2009-2010, et, parfois même en citant les autres organismes qui fournissent des données, délibérément "oubliés"par les journaux francophones (s'ils sont au courant)…

En aparté, il est toujours intéressant de lire les commentaires des lecteurs abonnés à ces journaux, suite à ces déclarations catastrophistes. On y constate que le public est, en général, beaucoup moins crédule et souvent mieux informé que les éditorialistes.
____________________________________________________________________________________

Comme vous le savez, à Pensee-unique.fr (hélas sans accent pour complaire au web anglophone), devant une telle avalanche de déclarations tronquées, exagérées, proférées sans explication ni replacées dans leur contexte, nous aimons bien vérifier, par nous-mêmes, les affirmations que l'on lit, entend et voit dans les médias. Une longue expérience nous a rendus prudents comme on peut le voir dans la suite de cette même page…

De plus, cette longue liste de déclarations péremptoires va nous donner l'occasion de voir d'un peu plus près de quoi il s'agit exactement quand on parle de la "température du Globe". Le moins que l'on puisse en dire, c'est qu'il s'agit là d'un sujet particulièrement polémique qui a certainement fait couler beaucoup d'encre et de méga(giga)octets. En réalité, mesurer la température moyenne du Globe avec la précision requise, est une tâche titanesque, sinon impossible, comme nous allons le voir.

Pour ma part, je me contenterai d'utiliser les données officielles fournies par les organismes patentés tout en vous montrant qu'il est relativement aisé de faire dire à peu près ce que l'on veut aux résultats des mesures de température, surtout quand on oublie de préciser les incertitudes, comme cela se pratique le plus souvent.

D'autre part, il faut savoir que les mesures de température sont, de manière générale, parmi les plus délicates qui soient et qu'elles sont sujettes à de nombreux ajustements plus ou moins justifiés. En bref, si chacun peut étalonner et lire les indications d'un thermomètre, il lui est beaucoup moins aisé de savoir exactement ce qu'il mesure.
Souvenez-vous de ce que nous disait Pierre Morel (entre autres éminentes fonctions sur les affaires de climat, le fondateur du Laboratoire de Météorologie Dynamique et ancien secrétaire général du programme mondial de recherche sur le climat) lors d'une récente conférence :
morel1

Morel expliquait que même aux Etats-Unis où la méthodologie est très contrôlée, la mesure des températures se heurte à de nombreuses difficultés : changement d'appareil, sauts instantanés …"ça peut être un degré ou un degré et demi en plus ou en moins… Il faut corriger ça. On moyenne. Il y a aussi des biais systématiques. On corrige…
On voit un réchauffement progressif qui se monte à 0,6°C en un siècle, mais sur ce 0,6°C en un siècle, il y en a 0,4 qui sont des corrections ".

Nous en verrons un ou deux exemples, ci-dessous. Il en existe des kyrielles, scrutés à la loupe (quand les traitements infligés aux températures sont rendus publics et sont trop évidents) par les climato-sceptiques qui font finalement office de "vigilants" dans cette sombre affaire de température du Globe, comme dans d'autres.

Venant d'un homme particulièrement averti comme Pierre Morel, voilà qui devrait refroidir les enthousiasmes de certaines déclarations telles que celles que nous avons citées ci-dessus. Quand on connaît la réalité, somme toute défaillante et plutôt rustique, des techniques de mesure de la température moyenne du globe, on s'abstient de ce genre d'affirmation. Et, mieux encore, on l'explique à ses lecteurs, ne serait-ce qu'en quelques lignes.

Tout d'abord, donnons quelques mots sur les définitions, les méthodes et les diverses institutions qui mesurent ce qu'ils appellent "la température globale" mais qui n'est en fait que l'anomalie de température du globe c'est à dire l'écart par rapport à une température moyenne de référence antérieure qui, d'ailleurs, dépend des institutions :

Quelques rappels :

A – Mesures thermométriques : Contrairement à une croyance très répandue et pour obtenir ce que l'on appelle la "température du globe", on ne mesure jamais la température de la Terre elle-même, c'est à dire la température du sol de la planète. Ceci serait rigoureusement impossible car les inhomogénéités y sont tellement importantes qu'il faudrait disposer d'une quantité astronomique de thermomètres pour pouvoir le faire. Pour le réaliser, il suffit d'imaginer la situation d'un petit caillou noir placé sur une plage de sable blanc. Il n'est pas douteux que, par temps ensoleillé, la température de l'objet noir sera nettement plus élevée que celle du sable blanc parce qu'il absorbera fortement les rayons solaires ce que le sable blanc ne fera pas.

Ainsi, et compte-tenu de la diversité infinie des objets dont est constituée la surface de notre planète, tout espoir est vain de ce côté. Aussi et de manière à obtenir une mesure de la température significative, au moins, pour une certaine (?) étendue, on mesure la température de l'air à proximité du sol. C'est une manière commode pour "moyenner" ou "intégrer" les inhomogénétés de la surface du sol de la planète. Pour cela et par convention on dispos(e)ait d'un instrument à peu près normalisé et situé sur un trépied à 1,50 m du sol. Les thermomètres de différentes factures (à liquide ou électroniques) sont placés dans ce que l'on appelle des abris de Stevenson et qui seront (sont) peu à peu remplacées par des abris cylindriques à lamelles utilisant des thermomètres électroniques (voir le site de Météo-France) et des télémesures. cook1

En réalité, les objectifs poursuivis par les abris de Stevenson ou par leurs versions modernisées, sont presque antagonistes. Il s'agit, bien entendu, de conserver les thermomètres à l'ombre et à l'abri des intempéries, sans les réchauffer ou refroidir pour autant, tout en ménageant une circulation d'air venant de l'extérieur. Ceci est obtenu, dans une certaine mesure, en utilisant un petit abri, dont l'extérieur est peint en blanc, et dont les parois sont équipées d'ouvertures munies de volets inclinés, comme on peut le voir sur le dessin humoristique ci-contre. Inutile de faire observer que l'efficacité de ces systèmes est toute relative. Ainsi, et entre autres, un air chargé d'humidité provoquera une baisse artificielle de la température notamment par temps de grand vent, ce qui, quelle que soient les précautions prises, affectera les mesures. De manière plus générale, et après des années de scrutation par des spécialistes de la question, et sans rentrer dans les détails techniques que l'on verra évoqués dans les deux articles donnés en lien ci-dessous, on peut conclure que la mesure de la température moyenne du globe est grandement affectée par :

  • Le mauvais entretien, le remplacement, le déplacement, voire la suppression des stations de mesure.
    Ces abris ainsi que leurs thermomètres doivent répondre à des critères très stricts aussi bien sur leur emplacement (éloignés des sources de chaleur, des constructions, du bitume etc.) que sur leur entretien. Les abris doivent être parfaitement entretenus et régulièrement repeints en blanc pour des raisons évidentes. Les thermomètres doivent être périodiquement ré-étalonnés. On imagine aisément ce qu'il doit en être de l'entretien (et de l'étalonnage régulier), dans de nombreux pays peu développés ou dans les zones d'accès difficile.
    Il faut savoir aussi que, dans les années 1980, la planète disposait de quelques 15000 stations réparties sur tous les continents et les océans (bouées thermométriques, thermomètres à bord de navires). Après de savants calculs et confronté avec les difficultés de la gestion d'un tel parc de stations de mesure, il a été "estimé" qu'environ 5000 stations devraient suffire à donner une image fiable de l'évolution de la température du globe. Il en résulte que de nombreuses et immenses surfaces de la planète ne sont plus couvertes (Afrique, zones arctiques etc.). Cette réduction drastique du nombre de capteurs se paye au prix d'extrapolations de données tout à fait étonnantes sur des distances allant jusqu'à 1200 km ! A noter qu'il existe 1221 stations USHCN (voir ci-dessous) aux Etats Unis, ce qui en fait, de très très loin, le pays le mieux instrumenté.
  • L'effet d'îlot Urbain (UHI: Urban Heat Island, en anglais) qui est aisément compréhensible:
    Pour éviter les perturbations liées à l'environnement urbain et pour des raisons de commodité, les abris de Stevenson et leur thermomètres étaient autrefois placés dans des zones situées autant que possible à l'écart des villes, mais quand même accessibles et dans des emplacements où l'activité humaine était minimale. Il s'agissait souvent de zones isolées sur des aéroports.
    Cependant au cours du temps, les villes se sont étendues, l'industrie s'est beaucoup développée, l'aménagement des sols a varié (remplacer une forêt par une zone cultivée n'est pas anodin). Sur les aéroports, le trafic aérien a énormément augmenté ce qui a conduit à un réchauffement localisé, des constructions y ont été aménagées et peu à peu, les thermomètres, autrefois isolés, se sont retrouvés dans des zones où l'activité humaine est loin d'être négligeable. Toutes ces perturbations qui ont progressivement affecté les mesures de températures, conduisent inévitablement à
    une surestimation de l'élévation de température "globale" depuis la première moitié du XXème siècle.
    Comme on peut s'en douter, les polémiques vont bon train sur ce sujet. Le
    GIEC affirme avoir montré que l'effet UHI était peu important, mais de nombreux articles scientifiques, revus par les pairs, montrent qu'il n'en est rien, au point que certains vont jusqu'à affirmer que la hausse des températures (+0,6 ou 0,7°C) enregistrée au 20ème siècle est, en bonne partie, due à l'UHI dont on n'aurait pas assez tenu compte…Tout cela fait l'objet de quantités de polémiques, comme on s'en doute.

C'est le NCDC (National Climatic Data Center) de la NOAA à Ashville qui demeure le gestionnaire et la source du GHCN (Global Historical Climate Network), autrement dit, de la collection complète des données brutes des relevés de température du Globe ainsi que du USHCN (US Historical Climate Network) propre aux Etats-Unis.

Le CRU (Climate Research Unit) du Hadley Center à l'Université d'East Anglia (Phil Jones) est responsable des données HadCRUT utilisées par le Met Office anglais. Ces données HadCRUT reposent en majeure partie sur les données thermométriques fournies par le NCDC-NOAA.

Les données thermométriques NCDC-NOAA sont également à la base des données de températures publiées par le GISS (Goddard Institute for Space Studies) de la NASA (James Hansen et Gavin Schmidt).

Comme vous le voyez, il n'existe qu'une seule base de données thermométriques utilisée par trois institutions dont deux sont américaines (la NOAA et le GISS) et la troisième, anglaise (Le Hadley Center). Pourtant, les résultats finaux de ces différents organismes diffèrent assez sensiblement comme nous le verrons ci-dessous.

Ceux qui voudraient se plonger dans les obscures arcanes des mesures de température pourront trouver des analyses détaillées dans (au moins) deux articles. L'un est de R. Pielke Sr, l'autre (récent et assez détaillé) est l'oeuvre des météorologues Joseph d'Aleo et Anthony Watts. Ce dernier s'est fait connaître en procédant à l'examen, aussi systématique que possible, de l'état des dispositifs de mesure de température situés aux USA et utilisés par les grands organismes qui utilisent les données thermométriques. Les résultats de cette investigation sont confondants. Les stations de mesures des USA sont très loin de répondre aux exigences indispensables. C'est le moins que l'on puisse dire. Et que penser des autres ?
On imagine aisément ce qu'il doit en être de l'entretien et du recalibrage des stations qui se trouvent dans certains "pays en développement" ou dans les zones d'accès difficile.

B – Mesures satellitaires : Elles consistent à mesurer, au moyen de capteurs installés à bord de divers satellites, l'irradiance infra-rouge des composantes de la basse troposphère telles que l'oxygène moléculaire et ceci jusqu'à une altitude de 5km environ ( Description assez détaillée des mesures RSS). Ces mesures impliquent également une mesure moyennée de la température de la surface terrestre. Ces mesures sont appelées TLT (Temperature Lower Troposphere) ou (et) AMSU (Microwave sounding unit, autrefois MSU, le A signifiant améliorées). Il va de soi que ces mesures sont réellement globales, ne sont pas affectées par les effets "d'îlots urbains" et ne nécessitent pas d'extrapolations pour les zones non couvertes. Autant dire aussi que les problèmes liés aux mesures des températures océaniques sont résolus. Par contre, il existe des problèmes spécifiques à ce genre de mesures (notamment le changement de satellites ou leur dérive orbitale) qui ont mobilisé l'attention des spécialistes, depuis 1978.
Vous trouverez dans cette page rédigée par Roy Spencer de l'UAH ou également ici, quelques explications sur les techniques de mesure utilisées par les satellites.
Bien que très élaborées, ces techniques ont cependant fait l'objet de critiques dans les années 2005. De fait les mesures satellitaires étaient perturbées par le "drift" (la dérive, c'est à dire la variation orbitale des satellites). Les corrections ( très minimes) indispensables ont été apportées et les satellites actuels qui disposent de l'énergie nécessaire, ne "chutent" pas (Satellites Aqua). On peut considérer maintenant que ces mesures sont particulièrement fiables même si elles ne sont, en pratique, jamais utilisées dans les rapports du GIEC, ce qui est étonnant.

Deux organismes gèrent les mesures de température effectuées à l'aide de plusieurs satellites de la NASA émettant sur une série de canaux.

UAH : Université de l'Alabama Huntsville. Roy Spencer est le responsable du projet de mesure des températures par satellites. A noter que les instruments de mesure placés à bord des satellites sont constamment réétalonnés "on board", à partir d'étalons placés sur les satellites. Spencer et son collègue Braswell gèrent un site remarquabe (Java requis) qui permet de suivre les données de la température globale (Aqua ch5 V2), presqu'au jour le jour.

RSS est une compagnie Californienne qui utilise aussi les différents capteurs à bord des satellites de la NASA-NOAA. Comme nous le verrons ci-dessous, les mesures satellitaires diffèrent très peu les unes des autres.
En réalité, les petites différences observées proviennent des corrections et des algorithmes utilisées par l'une et l'autre source qui ne travaillent pas ensemble et qui sont plutôt en concurrence.

C – Température moyenne du globe ?

Le concept même de température globale (c'est à dire du globe) est contestable comme l'a montré, entre autres, un article publié au Journal of Non-Equilibirum Thermodynamics (Vol 32-1) (Preprint disponible).
La température est une grandeur définie en thermodynamique. En réalité, la température est une mesure de l'agitation thermique à l'échelle moléculaire ou atomique. Comme il est matériellement impossible d'observer directement et de mesurer l'agitation thermique moléculaire (ou autre), on utilise un proxy (un indicateur). En l'occurence, les proxys utilisés sont les thermomètres. Il en existe de différents types mais tous, sans exception, dérivent dans le temps et exigent une re-calibration régulière, surtout si on veut pouvoir mesurer la température à mieux que le dixième de degré. De fait, ce sont des instruments d'utilisation délicate si on désire travailler avec précision.
D'autre part, la température est une
variable intensive (c'est à dire qui ne dépend pas de la taille du système, comme la vitesse, l'accélération, la pression etc.). Ainsi, s'il est toujours possible d'effectuer des statistiques sur des moyennes de température comme sur tout autre jeu de variables, les températures moyennes n'ont aucun sens en matière de thermodynamique. En d'autres termes, la température moyenne globale relève de la statistique mais pas de la physique. En particulier, il est imprudent (illégal) de l'utiliser dans les formules de la thermodynamique comme les lois du corps noir (Stefan, Wien, Planck).
Même si, de prime abord, ceci peut paraître étonnant à ceux qui ne sont pas familiers avec la notion de variable intensive/extensive, j'en ai donné un exemple révélateur, parmi d'autres, dans cette page dans laquelle je rappelle que plusieurs auteurs ont montré que l"irradiance moyenne" de la planète obtenue à partir de la "température moyenne" n'a pas de sens thermodynamique et n'est, en aucun cas, égale à la véritable irradiance moyenne obtenue en faisant la moyenne des irradiances mesurées en chaque point.Ce qui explique d'ailleurs le fait que les climatologues avertis parlent (maintenant) d'une "température radiative effective", et non pas de "température moyenne", pour les calculs thermodynamiques (comme la loi de Stefan).
Pour prendre l'exemple d'une autre variable intensive – la vitesse -, on constate aisément que l'énergie cinétique moyenne de deux véhicules, calculée à partir de la moyenne de leurs vitesses, n'est pas égale (elle est inférieure) à la moyenne vraie de leur énergies cinétiques. Ceci résulte de l'inégalité de Jensen (ou de Hölder). De fait, ce qui est réellement significatif lorsque l'on désire calculer des sommes ou des moyennes de quantités impliquant les températures, ce sont les quantités (comme les flux ou les irradiances) qui résultent d'un produit ou d'une puissance de la variable intensive (la température) par des variables extensives. Ces produits (ou puissances) donnent ainsi des variables extensives avec lesquelles il est loisible de calculer des moyennes ou autres combinaisons. C'est ainsi que
R. Pielke Sr. suggère d'utiliser les irradiances moyennes (correctement calculées) plutôt que les températures moyennes, pour caractériser le déséquilibre énergétique de la planète. ( "Unresolved issues with the assessment of multi-decadal global land surface temperature trends". J. Geophys. Res., 112, D24S08, doi:10.1029/2006JD008229).

2010m

La température moyenne du globe est obtenue en mesurant, en de multiples situations géographiques plus ou moins (plutôt moins que plus comme on le voit sur les images ci-contre) également réparties sur la planète, les températures maximales et minimales quotidiennes à l'aide de thermomètres adaptés. La demi somme de ces deux températures donne la température moyenne locale. Cette température moyenne locale est censée représenter la température moyenne qui règne sur une "certaine" surface. Le jeu consiste alors à obtenir un nombre suffisant de mesures pour que la somme des surfaces ainsi définies, couvre la surface de la planète. Inutile d'ajouter que ce type d'extrapolations, d'ajustements et autres manipulations, est extrêmement flexible et évidemment sujet à de nombreuses contestations. Comme nous le verrons ci-dessous et pour ce qui concerne les mesures instrumentales thermométriques, le fait que nous ne disposions que d'une seule base de données brutes et, surtout, le fait que les institutions qui les utilisent soient, en réalité, fortement conniventes, ne favorise guère le contrôle réciproque que l'on pourrait espérer.
En bref, cette affaire de mesure des températures de l'air proche de la surface est une des plus polémiques qui soient et les incertitudes (± 0,05°C au mieux) annoncées sur les mesures de la température moyenne d'un objet aussi vaste et hétérogène que le globe, laissent rêveur.

Les images ci-contre montrent la situation des stations de mesure dans le monde et son évolution au cours des dernières décennies. Comme on peut le constater, le nombre des stations de mesure a considérablement décru dans les années 1990, (le nombre a été divisé par 3), ce qui a créé de gros problèmes "d'ajustements".
Il reste actuellement de grandes zones non couvertes (Amérique du Sud, Sibérie, Groenland (seules les côtes en disposent), l'Afrique centrale, le Canada, Arctique) pour lesquelles des "extrapolations" sur des distances considérables (1200km !), s'avèrent aussi indispensables que sujettes à caution. A en juger par ces cartes, les stations de mesure des températures océaniques sont déficientes mais il existe d'autres méthodes, notamment par satellites. A noter que les USA disposent d'une couverture exceptionnelle, au moins du point de vue du nombre de stations..

Les opérations évoquées précédemment sont effectuées pour les deux hémisphères Sud et Nord, pris séparément. La température moyenne du globe est alors, tout simplement, la moyenne des températures des deux hémisphères. Là aussi, il s'agit de statistique mais pas de physique. Dans la réalité, les deux hémisphères présentent des différences physiques, géographiques et climatiques fondamentales. Pourtant, ils subissent des traitements identiques du point de vue du calcul de la température moyenne du Globe.

D- Quelle est la marge d'incertitude qui affecte la "température moyenne du Globe" ?
Compte tenu des multiples opérations, corrections, estimations, approximations, extrapolations, sans compter les "résultats non parvenus", les stations en panne, mal entretenues, mal relevées ou abandonnées etc… qui sont nécessairement appliquées aux mesures brutes (raw) de température dont les résultats sont moyennés pour obtenir une "température moyenne du Globe", et si on a un tant soit peu pratiqué l'expérimentation, on se dit que les incertitudes qui doivent (encadrer) affecter les résultats obtenus, doivent être considérables. Quels que soient les traitements statistiques utilisés, il est clair que les erreurs, systématiques ou non, sont de nature si diverses que le résultat doit souffrir d'une grande imprécision. Il est cependant évident que s'agissant d'obtenir une "anomalie de température", les conditions à réaliser pour obtenir une précision acceptable sont moins problématiques que s'il s'agissait de mesurer la valeur absolue de la température, si la fidélité des instruments est excellente, et si rien ne change, bien entendu. Ce qui est très loin d'être le cas pour les mesures thermométriques.
Quoiqu'il en soit, je n'ai personnellement encore jamais encore vu de calcul d'erreur rigoureux appliqué à ce genre de mesures. On peut supposer qu'il en existe qui justifient les marges d'erreurs étonnament réduites indiquées ci-dessous.
Même s'ils ne semblent pas avoir convaincu Pierre Morel (et moi-même).

Il est donc assez surprenant de constater que les organismes qui utilisent essentiellement les données thermométriques affichent leurs résultats avec des marges d'erreurs extrêmement faibles comme on le voit sur les deux graphiques suivants :

2011h

 

Graphe affiché sur le site du MetOffice qui utilise les données dites HadCRUT3 du Hadley Center et du Climate Research Unit (Le CRU du fameux Climategate).

Courbe complète, mois par mois et sans lissage (le lissage affecte considérablement les extrémités des courbes).

Comme on peut le constater, et comme l'affirment ces institutions, les incertitudes estimées par le Hadley Center-Met Office, sont de l'ordre de ±0,05°C. A noter que les incertitudes sur la température moyenne du Globe en 1850, ne sont que de l'ordre de ± 0,2 °C, ce qui constitue encore une remarquable (et étonnante) performance.

 

Les données de la NOAA-NCDC (voir les différents organismes ci-dessous)

2010k

(Courbe lissée, à jour fin décembre 2010). On y voit, correctement représentées (ce qui est rare dans ce genre de graphique), les marges d'erreurs qui sont de ± 0,06 °C pour la période récente.
Ces incertitudes étaient de ± 0,2°C dans les années 1900.

 

 

 

 

 

Pour leur part, les données satellitaires effectuées par l'UAH et par le RSS seraient affectées des mêmes incertitudes (±0,05°C), ce qui est également tout à fait remarquable.

  • Voici la liste des institutions et les références des bases de données utilisées dans la suite de ce billet :
HADCRUT3 Température Globale (UK)
Organisme : Climatic Research Unit, UEA; Met Office Hadley Centre
Source des données.
GISTEMP (GISS) Température Globale (USA)
Organisme : NASA Goddard Institute for Space Studies
Source des données.

NOAA-NCDC (NOAA) (USA)
Organismes : National Oceanic and Atmospheric Administration et National Climatic Data Center
Source de données.

UAH NSSTC Température de la basse troposhère
Organisme : UAH National Space Science and Technology Center
Source des données.
RSS Lower troposphere temperature
Organisme : Remote Sensing Systems
Source des donnés.

A noter que les températures moyennes de référence à partir desquelles sont mesurées les "anomalies de température", diffèrent selon les institutions. Voici la liste des périodes dont les moyennes ont été prises comme origine par le HadCRUT, le GISS, le NCDC-NOAA, l'UAH et le RSS. Les satellites servant aux mesures de températures n'ont été opérationnels qu'à partir de 1979. A noter également que les données anglaises, issues des données du Hadley Center (elles mêmes provenant en grande partie du NCDC-NOAA ) sont utilisées de trois manières différentes, selon les utilisateurs (par exemple Met Office) comme le mentionne David Whitehouse dans un article tout récent (de ce jour !). Pour ma part, et pour simplifier, je n'ai utilisé que les données dites HadCRUT3V (variance adjusted), soit le CRU HadCRUT dans la terminologie de Whitehouse, ce qui ne change pas les commentaires et les résultats.

Source Période origine
HADCRUT3 Jan 1961 – Déc 1990 (30 ans)
GISTEMP Jan 1951 – Déc 1980 (30 ans)
NOAA-NCDC Jan 1901 – Déc 2000 (100 ans)
UAH Jan 1979 – Déc 1998 (20 ans)
RSS Jan 1979 – Déc 1998 (20 ans)

Ces origines différentes pour calculer les anomalies de températures ne sont évidemment pas sans conséquence sur les affichages. En réalité la période utilisée par le GISS était d'environ 0,24°C plus froide que celle qui a été utilisée par les mesures satellitaires (UAH et RSS). Celle utilisée par le HadCRUT était plus froide de 0,15°C, toujours par rapport à celle des mesures satellitaires. Il ne s'agit que d'une translation verticale qui ne change évidemment pas les tendances. Il convient néanmoins d'utiliser ces facteurs correctifs quand on veut comparer les données instrumentales entre elles, ou encore, les données instrumentales avec les mesures satellitaires. Ceci sera clairement indiqué dans les graphiques affichés ci-dessous.

Les graphiques présentés dans la suite de cette page ont été obtenus à partir des bases de données officielles dont les liens sont indiqués ci-dessous. Il s'agit de documents en format texte qu'il est aisé de placer dans un tableur comme Excel. Pour ma part, j'ai utilisé le logiciel scientifique "Origin" qui a le grand mérite d'être très flexible et qui est très souvent utilisé pour la présentation de documents scientifiques professionnels.

A noter qu'à partir de cette année, Roy Spencer qui gère les données satellite UAH a décidé d'utiliser la période de base allant de Janvier 1980 à Décembre 2010 (30 ans) de manière à se conformer à la convention (base de 30 ans) adoptée par les autres institutions. Dans la suite, j'ai utilisé les données UAH relatives à l'ancienne base, ce qui ne change d'ailleurs strictement rien aux commentaires et aux conclusions.

  • Comparaison des mesures des anomalies de température globale fournies par les différentes institutions

Toutes les données présentées dans les graphes ci-dessous sont actualisées avec les valeurs de décembre 2010. Les graphes suivants concernent donc les 14 dernières années, couvrant la période [Janvier 1997 à Décembre 2010] (bornes incluses)

Voici, tirées des bases de données cités ci-dessus, les graphes des anomalies de températures (non corrigées pour tenir compte des différentes dates de référence) des trois organismes qui utilisent essentiellement les données fournies par le NCDC américain. Comme vous pouvez le constater les anomalies de température de la NOAA-NCDC sont très peu différentes de celles du GISS de la NASA gérées par Gavin Schmidt et James Hansen. Ces organismes (NOAA, NCDC et NASA) travaillent en étroite collaboration tout comme d'ailleurs le Hadley Center (et le CRU) Anglais comme on a pu le voir dans les courriels du Climategate. Il est donc faux de prétendre que les organismes utilisent des bases de données différentes, comme cela a été affirmé.

On observe, dès maintenant, que la pente des données (c'est à dire la montée de la température) du HadCRUT (décalées vers le bas pour une meilleure lisibilité) est inférieure à celle de ses deux collègues américains.

De fait, si pour leur plus grande part, les données brutes sont les mêmes pour les trois organismes, les traitements sont différents.

Cependant, le Hadley Center (CRU) utilise, en partie, les données satellitaires et les données SST (sea surface temperature). Les "extrapolations" ne sont pas nécessairement identiques à celles de leurs collègues américains.

2010l


Voici un graphique qui compare l'évolution moyenne
(supposée linéaire et ajustée avec une méthode des moindres carrés) de la température durant les 14 dernières années pour deux organismes qui utilisent, en grande partie, la même base de données (celles du NCDC).

Comme on peut le constater, alors que le HadCRUT (UK) n'indique qu'une variation presque imperceptible des températures (statistiquement non significative) de 1997 à 2010, le GISS (NASA), lui, trouve que les températures ont continué à augmenter.

2010b

Comme on peut le voir sur le graphique ci-contre, les deux organismes (UAH et RSS) qui utilisent tous deux les données des différents satellites de la NASA mais avec des traitements différents, donnent des résultats très proches l'un de l'autre.

Le écarts observés entre les données des deux organismes sont, au pire, de l'ordre de 0,1°C, ce qui est proche de l'incertitude estimée de ces mesures de la "température du globe". Une telle précision serait remarquable mais serait sans doute optimiste, compte tenu de l'inhomogénéité thermique de la basse troposphère et de la planète.

Notez la présence très visible des deux pics de températures observés en temps d'El Niño fort, en 1998 et en 2009-2010 et du La NIña de 2008 (Voir ci-dessous pour les décalages temporels entre les événements ENSO et la température globale).
A noter que les événements ENSO (El Niño-La Niña) sont nettement plus perceptibles sur les données satellitaires qui possèdent certainement une meilleure couverture des océans.

2010c

Voici maintenant une comparaison suggestive des données satellitaires (UAH) et instrumentales (HadCRUT).

Correction étant faite pour la référence de base des anomalies (le -0,15°C appliqué aux mesures HadCRUT), on observe que les deux graphes sont raisonnablement compatibles sauf en période d'El Niño fort (1998-2010) et de La Niña fort (2009, 2008).
Comme je l'ai fait remarquer ci-dessus les mesures satellitaires sont systématiquement plus sensibles aux événements ENSO. Dans les cas extrêmes, les écarts entre ces deux types de mesures peuvent atteindre 0,3°C.

Cependant, comme on peut le voir, les mesures du HadCRUT rendent également nettement compte de ces oscillations ENSO mais dans une moindre mesure que les mesures satellites.

On constate que les tendances de l'évolution des températures fournies par le HadCRUT (thermomètres), l'UAH et le RSS (satellitaires) sont compatibles entre elles mais incompatibles avec celles du GISS de la NASA.

2010d
  • Jeux de mains, jeux de vilains : Quelques bizarreries et des astuces de présentation…


Pour donner un petit aperçu des curieuses manipulations (rétroactives)
auxquelles sont soumises les bases de données thermométriques (mais, en général, pas celles de mesures satellitaires quoique le RSS vient de me faire mentir…), voici un exemple tout récent du traitement subi par la base de données HadCRUT de l'année 2010.

La courbe grise représente la variation de la température globale obtenue à partir de la base de données du HadCRUT telles qu'elles figuraient sur le site indiqué, mois après mois depuis Janvier jusqu'en Novembre dernier.

Lorsque les données du mois de Décembre ont été introduites (vers le 20 janvier), nous avons observé une correction rétroactive qui remonte jusqu'au mois de janvier 2010. La correction la plus étonnante concerne la température du mois de Novembre. Celle-ci a été brusquement remontée de 0,17°C ce qui est très important à l'échelle de ces variations et également, bien supérieur aux incertitudes affichées.
Ces traitements rétroactifs sont très fréquents dans la base de données du GISS, plus rares dans la base HadCRUT. Sans faire de procès d'intention, on peut seulement s'étonner, comme l'a dit Richard Lindzen, que ces corrections aillent toujours dans le sens du réchauffement. Jamais dans celui du refroidissement. Logiquement, les erreurs devraient se répartir symétriquement dans les deux sens.
A noter que sans ce réchauffement rétroactif du mois de Novembre, 2010 aurait été classée au troisième ou quatrième rang au lieu de deuxième (derrière 1998) par le HadCRUT. C'était peut-être difficilement supportable par rapport aux "collègues" et aux médias.

2010g

Voici un exemple assez typique des bizarreries que l'on rencontre quand on examine soigneusement les bases de données qui servent de bases aux rapports du GIEC et aux affirmations alarmistes claironnées dans les médias :

Le graphe ci-contre compare les températures moyennes du globe, de Janvier 2010 à fin Décembre 2010, pour des 4 bases de données principales, deux thermométriques (GISS et HadCRUT corrigées suivant leurs bases) et deux satellitaires (UAH et RSS).

Les écarts entre les températures mensuelles sont souvent supérieurs à 0,20 °C, pour les données de même origine (thermométrique) ce qui est étonnant pour des données qui affichent, chacune, une incertitude de 0,05°C.

A noter que la correction (indiquée ci-dessus) du HadCRUT réalisée en Décembre pour le mois de Novembre (+0,17°C) a permis à Phil Jones (HadCRUT) de n'afficher qu'un écart de 0,21°C par rapport à James Hansen (GISS) au lieu de 0,37°C, ce qui aurait fait "désordre". L'email doit fonctionner activement, comme on l'a déjà vu.
Pour estimer l'importance de ces écarts, il faut se souvenir que la hausse des températures pour le siècle dernier (100 ans) n'est que de
0,7°C, c'est à dire environ seulement 3 fois la marge d'erreur observée entre les moyennes affichées.

2010h

L'art de présenter les données …

Calculer la température d'une année calendaire (ou autre) revient à faire une sommation sur les douze températures des douze mois de l'année. Mais pourquoi se limiter à une année ? Pourquoi pas 2, 3 ou même dix ans?

Prenons, par exemple, la dernière décennie qui va du début 2001 à la fin 2010 et effectuons un "best fit", c'est à dire une approximation linéaire (technique des moindres carrés) de l'anomalie de température en fonction du temps.
La droite ainsi calculée est représentée en bleu sur ce dessin. Elle est obtenue à partir des données officielles du HadCRUT.

Comme vous le voyez, la tendance de la température est à la baisse pendant cette période.

Si j'étais un mauvais "journaliste d'opinion scientifique", je pourrais, avec ce genre de présentation, faire les gros titres dans la presse, comme l'ont fait de nombreux médias pour "2010, l'année la plus chaude de tous les temps", avec un titre en caractères gras du type." La température du Globe est en baisse depuis dix ans "

Mais, évidemment, je ne le ferai pas car nous savons que, compte tenu de l'imprécision des mesures de températures, ce genre d'affirmation n'a aucun sens. Pas plus que le classement des températures moyennes annuelles qui ne diffèrent pas de plus de quelques (certains disent trois, voire quatre) dixièmes de degré. En réalité, on n'en sait rien…
Encore faudrait-il avoir l'honnêteté de l'avouer et ne pas en tirer de conclusion hâtives comme l'OMM (WMO), entre autres.

 

2010i

 

  • L'année 2010 a-t-elle été "la plus chaude de toute l'histoire" (comme l'écrit le Nouvel Obs)?

Voici un diagramme, toujours tiré à partir des bases de données officielles référencées plus haut, indiquant les classements des températures les plus élevées pour les cinq organismes cités ci-dessus : Le RSS, l'UAH, Le GISS, le HadCRUT et le NCDC-NOAA.

Comme indiqué, les trois couleurs (rouge =1998), (vert=2005) et (bleu=2010) sont relatives aux années considérées comme les plus chaudes de ces 13 dernières années.

Comme on le voit immédiatement, un seul organisme sur les cinq, le GISS de la NASA, indique que la température en 2010 aurait été supérieure à celle de l'année 2005, (considérée comme le précédent record par le NCDC et le GISS), mais d'un tout petit 0,01°C ! ce qui est bien inférieur aux incertitudes annoncées (±0,05°C) et certainement encore plus inférieur aux incertitudes réelles.

Le NOAA-NCDC, lui, trouve que 2010 est strictement équivalente à 2005 à 0,001°C (!) près. Quant à 1998, elle ne serait inférieure que de 0,02°C , ce qui est encore largement dans la marge d'erreurs (±0,06°C) affiché par cette institution.

Les trois autres organismes (UAH, RSS et HadCRUT) persistent à placer 1998 en tête des années les plus chaudes. Pour l'UAH l'écart 1998-2010 est inférieur aux incertitudes. Mais 1998 serait significativement plus chaude que 2005. (+0,18°C)
Pour le
HadCRUT, 1998 resterait très légèrement plus chaude que 2010 et 2005 ( à la limite de l'incertitude affichée). Pour le RSS, 1998 est à peine plus chaude que 2010 ( à la limite de l'incertitude) mais apparemment plus chaude que 2005 (+0,17°C).
 

2010n

Comme vous le constatez, les cinq institututions ne sont pas d'accord entre elles. Il faut dire que les écarts sont si faibles et qu'il est impossible d'en tirer quelque conclusion que ce soit.
Pourtant, l'OMM (Michel Jarraud) et la plupart des médias se sont précipités pour annoncer que 2010 était le record absolu, l'année la plus chaude (de l'histoire !), que cela prouvait que le réchauffement continuait etc.

Et bien sûr, ils se sont limités aux affirmations non statistiquement significatives du GISS en oubliant toutes les autres et en oubliant de préciser que les écarts avec les autres années sont bien inférieurs aux incertitudes…

Si, comme sur le graphe ci-contre, on additionne les résultats fournis par les cinq institutions citées, on trouve que 2010 est légèrement en dessous de 1998, mais une fois encore, la différence n'est pas significative.

2010o
  • Des prévisions à cinq mois, basées sur la comparaison de l'évolution de l'indice MEI-ENSO et des températures moyenne de la surface du Globe :

En fin d'année 2008, j'avais montré qu'il existe une remarquable corrélation entre le comportement de la température moyenne du Globe et l'indice MEI de l'ENSO (El Niño et La Niña), en avance de 5 mois sur l'évolution de la température.
Autrement dit l'ENSO jouerait un rôle essentiel pour déterminer la température moyenne du globe et son influence ne se ferait ressentir que quelques 5 mois plus tard, ce qui présente l'avantage de prévoir, dans une certaine mesure, les variations de températures quelques mois à l'avance.

Un article paru en 2009 rapportait une observation identique à partir (bien entendu) d'une étude beaucoup plus détaillée. Cet article publié en 2009 dans le JOURNAL OF GEOPHYSICAL RESEARCH, VOL. 114, D14104, doi:10.1029/2008JD011637, 2009, était signé par J. D. McLean, C. R. de Freitas, and R. M. Carter.

Les mois ont passé et en ce début 2011 et nous voyons ci-contre ce que donne la superposition de l'indice MEI de l'ENSO avec les courbes des températures globales UAH (ci-contre) et HadCRUT ci-dessous.
La corrélation est toujours aussi bonne, comme nous allons le voir ci-dessous.

 

2010e

Comme on peut l'observer sur le graphique, si on retarde le graphe de l'indice MEI de l'ENSO de 5 mois, la corrélation entre l'évolution de la température globale (en haut, la courbe UAH et en bas la courbe HadCRUT) et cet indice ENSO (retardé de 5 mois), est remarquable .

Je l'avais déjà noté en Décembre 2008. De fait, la corrélation s'est prolongée jusqu'à ce jour. Autrement dit, les El Niño et La Niña jouent un rôle très important sur les fluctuations de température du Globe est l'effet n'est ressenti que quelques 5 mois plus tard.

Dès lors comment ne pas s'étonner quand on lit la déclaration suivante de James Hansen, le pape du réchauffement climatique du GISS (de la NASA) (voir ci-dessous) ?

"Il est certainement intéressant que 2010 ait été aussi chaud malgré la présence du La Niña et d'un soleil remarquablement inactif, deux facteurs qui poussent au refroidissement de la planète, mais ce qui est plus important que le classement de n'importe quelle année, ce sont les tendances décennales"

Peut-on imaginer qu'Hansen ignore que les effets des oscillations ENSO (La Niña-El Niño) ne se font ressentir sur la température du globe que quelques cinq mois plus tard, alors que n'importe quel graphique (comme celui ci-contre) le montre clairement, et que de ce fait, l'année calendaire 2010 s'est, au contraire, trouvée coïncider parfaitement avec le réchauffement dû au précédent El Niño et l'actuel La Niña qui a commencé en Juin 2010 ne s'est fait ressentir qu'en Novembre de cette même année, comme on le voit sur ces graphiques ? Tout comme lors du El Niño de 1998 d'ailleurs.
Hansen n'a sans doute pas lu l'article du JOURNAL OF GEOPHYSICAL RESEARCH, VOL. 114, D14104, cité plus haut…

Peut-on imaginer qu'Hansen ignore également que les effets de l'activité solaire ne se font ressentir qu'avec un certain retard (de 5 à 7 ans, voire plus disent certains) ?
Et où est la cohérence de son propos avec le rapport AR4 du GIEC qui nie carrément toute influence de l'activité solaire sur les variations climatiques ?

A noter que si cette corrélation ENSO/Température est solide, comme elle semble l'être, nous pouvons prévoir, dès à présent, que la température du globe va sérieusement baisser , au moins, pendant les 5 mois à venir comme l'affirment de nombreux météorologues qui annoncent une année 2011 plutôt froide…Nous verrons.

 

2010f

 

 

 

 

 

 

 

 

 

 

2010j

  • Remarques et conclusions :

Il est clair que la plupart des déclarations que l'on a pu lire dans la presse, voir à la télévision ou entendre à la radio, sur l'évolution des températures du Globe en ce début d'année 2011, sont erronées, sinon carrément mensongères.

En réalité :

  1. Il est impossible d'effectuer un classement réellement significatif de la plupart des 13 dernières années selon leur température moyenne, et tout particulièrement celles de 2005, 1998 et 2010, parce que les écarts de température sont bien inférieurs aux incertitudes affichées par les différents organismes et sans aucun doute, très largement inférieurs aux incertitudes réelles qui affectent ces mesures globales.
     
  2. Les trois années qui, selon les différentes institutions, semblent se détacher (2005, 1998, 2010), sont toutes les trois des années à El Niños remarquables. Il est abusif, pour ne pas dire plus, de tirer argument d'événements parfaitement naturels qui poussent périodiquement et légèrement les températures à la hausse pour entretenir l'hypothèse du "réchauffement climatique anthropique" dans l'esprit du grand public.
     
  3. La température moyenne de l'air à la surface du Globe n'a pas varié, de manière significative, depuis, au moins, 14 ans, en dépit d'une augmentation nette (+5%) de la quantité de CO2 présente dans l'atmosphère durant cette même période. Cette tendance commence à poser un sérieux problème à l'hypothèse du changement climatique anthropique. Il est malhonnête de tirer argument de la température mesurée en 2010 (tout comme des autres, d'ailleurs) pour affirmer que "ces données confirment le réchauffement." comme cela a été fait par l'OMM. Bien au contraire !

yann2011c

Est-il impossible d'obtenir de la part des rédacteurs des différents médias, une description qui se rapproche de la réalité objective, telle que la suivante que je leur suggère (sans prélever de droits d'auteur) d'utiliser ? :

" La température moyenne du Globe, mesurée pendant l'année 2010, est identique à celle qui avait été mesurée en 1998 et en 2005, selon les différentes institutions responsables de ces mesures. La température moyenne du globe n'a pas varié de manière significative depuis 13 ans.
Il semble que le réchauffement climatique observé pendant les périodes 1910-1940 puis 1975-1998 se soit arrêté, au moins temporairement."

 

Ainsi et au vu des débordements infondés ou des mensonges par omission dont nous ont gratifié les médias en ce début Janvier 2011, je me fais un plaisir de décerner une série de bonnets d'âne fourrés (en prévision de l'avenir) à Maxisciences (qui n'en est pas à son coup d'essai en la matière), pour son "2010, année la plus chaude : un record absolu confirmé", au Nouvel Observateur pour un titre délirant et mensonger ("la plus chaude de l'histoire"), au journal La Croix, pour le titre de l'encart "Les données 2010 confirment le réchauffement", au Figaro, pour un gros mensonge par omission :"Climat: 2010, année la plus chaude" et bien sûr, le bonnet d'âne d'honneur, avec palmes, pour le responsable de l'OMM (coutumier du fait ) pour son fameux "les données 2010 confirment le réchauffement à long terme" repris par toute la presse… ainsi qu'à beaucoup d'autres qui se reconnaîtront.

Pour ce qui est de l'avenir, je me fais un devoir de vous rappeler ce graphe tracé, en 2003, par deux chercheurs Russes qui travaillaient aux Etats-Unis : Klyashtorin et Lyubushin.klyashtorin

En 2003, sur la base d'analyses statistiques, ces deux chercheurs ont décrit l'oscillation de 60-65 ans, également rapportée depuis par beaucoup d'autres (tels S.I. Akasofu, William Gray, N. Scafetta, J.d'Aleo etc.)

A noter que vous retrouverez une reconstruction très proche de celle-ci dans l'excellent site de bases de données climate4you du Prof. norvégien Ole Humlum

En 2003, Klyashtorin et Lyubushin avaient correctement prévu que la température du globe stagnerait sur un plateau (correspondant au maximum de la pseudo-sinusoÏde) s'étendant de 2000 à 2010 environ, précédant une descente des températures analogue à celle que nous avons connue en 1945-1976.
A mon avis, un des mérites de cette analyse est qu'elle montre une montée identique de la température pendant les périodes 1910-1940 et 1975-2000, ce qui est effectivement observé. A noter que la montée sous-jacente (la pente médiane de la sinusoïde) n'est que de quelques 0,05°C par décennie.

Ouf ! Je me rends compte que ce billet est excessivement long. Que les lecteurs(trices) me pardonnent mais il fallait bien évoquer, un jour ou l'autre, cette épineuse question des mesures de températures.

Nous verrons .. En attendant, il est sans doute prudent d'acheter de solides bottes fourrées (pour trente ans !) comme je vous l'ai dit dans cette page.
________________________________________________

Addendum (05/02): Klaus Voltz , expert de l'ENSO à la NOAA explique qu'il y a nettement plus d'une chance sur deux que le La Niña actuel dure deux ans, c'est à dire jusqu'en 2012… Brrrr… Et gare aux inondations en Australie, aux sécheresses en Amérique etc.et à toutes les calamités associées aux La Niñas déjà mentionnées par… Darwin.

Une réflexion sur « Climat : les nouveaux hoax »

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée.


%d blogueurs aiment cette page :