Le GIEC, "le plateau" de température et quelques curiosités du rapport complet et du SPM du GIEC (WGI)
Ce billet fait suite au billet précédent (ci-dessous) qui rapportait les jugements d'un certain nombre d'experts scientifiques du climat, ainsi que ceux des médias anglophones-germanophones et francophones, faisant suite à la publication des deux rapports (SPM et rapport complet du groupe de travail N°1 (Les bases scientifiques)) du GIEC, en fin du mois de Septembre dernier.
Nous allons rentrer un peu plus dans les détails et analyser comment les différents rapports du GIEC ont rendu compte d'un certain nombre d'observations qui remettent en question les modèles du réchauffement climatique ainsi que plusieurs affirmations qui posent quelques question souvent épineuses.
Tout d'abord, voici quelques rappels au sujet de la quasi-stagnation de la température moyenne de l'air à la surface du globe durant ces 15 dernières années.
1) Le "plateau" des températures moyennes du globe :
On se souvient que cette dénomination de "plateau" avait été utilisée, dès 2008, par R. K. Pachauri, le Président du GIEC qui nous affirmait qu'il allait s'y intéresser… Ce substantif, relativement neutre, a depuis été rebaptisé par certains supporters du GIEC de "hiatus" ou de "pause" qui impliquent tous deux que la stagnation des températures ne saurait se prolonger.
Pour ce qui concerne l'examen des données observationnelles, j'ai fréquemment précisé dans ce site que la pratique la moins susceptible d'être entachée de "motivated reasoning", de "raisonnement motivé" ou de "biais de confirmation", consiste à considérer les données brutes, résultant directement de l'observation, sans aucune "barre de tendance" ou autre lissage et moyennage qui introduisent des biais susceptibles de fausser le jugement comme vous en verrez quelques illustrations ci-dessous.
Voici donc le graphique rapportant les données dites HadCRUT4, fournies, mois après mois, par les bases de données officielles du Hadley Centre Met Office (UK) qui servent de référence aux rapports du GIEC AR5 2013. Pour ce qui est de la présentation de ces graphiques, j'ai essayé d'adopter, autant qu'il a été possible les cadrages et les rapports d'images proches de ceux utilisés dans le rapport SPM du GIEC, ceci de manière à faciliter la comparaison directe des graphiques.
L'accolade en rouge indique la zone du fameux "plateau" dont il est question ici.
Voici maintenant un zoom de la région du "plateau" indiquée par l'accolade rouge sur le graphique précédent. Le graphique ci-dessous est également directement issu des données officielles tabulées par le Hadley Center sous le nom de HadCRUT4. L'aspect un peu "heurté" du graphisme provient du fait que la donnée de chaque mois est reliée à la suivante par un trait rectiligne. Certains utilisent des liaisons plus sophistiquées (splines, Béziers etc.) mais cela ne change rien à l'allure générale du graphique.
A noter ici que les données du HadCRUT4 n'étaient pas encore actualisées pour le mois de Septembre 2013 lorsque j'ai tracé ce graphique. Le dernier point à droite est donc celui du mois d'août 2013.
Mise à jour du 9 Novembre : Les données du mois de septembre du HadCRUT4 ont été publiées. Selon ces données, la température du mois de septembre a été pratiquement identique (+0,007°C (!)), selon le HadCRUT4, à celle du mois d'août. Je n'ai pas jugé utile de retracer ce graphique.
Ceci étant rappelé, voyons maintenant comment le rapport pour les décideurs (SPM) d'une part et le rapport scientifique complet AR5 (2013) du GIEC d'autre part; font état de ces données objectives, qui, comme nous l'avons déjà vu et comme nous allons le revoir, posent quelques graves problèmes aux modélisations en cours.
2) Le "plateau" vu par le rapport scientifique AR5 du GIEC
Vous trouverez ci-dessous quelques graphiques incluant (assez discrètement) le "plateau" qui n'est jamais mentionné, en tant que tel, dans le Résumé pour les Décideurs (SPM) dans lequel les mots "hiatus", pause" ou "plateau" ne figurent pas, même si le ralentissement de la hausse de température est évoqué assez discrètement dans le corps du texte. Ceci est surprenant sachant, comme on le voit très bien sur le graphe ci-dessus, que la hausse des températures post-1951 (la date retenue par le GIEC pour que l'effet du CO2 anthropique devienne perceptible) n'a, en réalité, commencé qu'en 1975 pour se terminer en 1998. Autrement dit, la durée réelle de la hausse de température dont le GIEC nous assure qu'elle est d'origine anthropique n'est que de 23 ans, alors que, comme le montre le graphique ci-dessus, la "pause" couvrirait, dès à présent, une période de 15 ou 16 ans, ce qui n'est pas sensiblement moindre.
Ainsi, le "plateau", la "pause" ou le "hiatus" comme l'appellent ceux qui nous certifient qu'il n'est que temporaire, n'est jamais mentionné explicitement dans le rapport pour les politiques. Cependant, il était très difficile sinon impossible que le rapport scientifique complet (l'AR5) élude le sujet. Mais plutôt que d'afficher le graphe ci-dessus qui aurait été parfaitement explicite, les rédacteurs du rapport complet ont, semble-t-il, trouvé un moyen "plus scientifique" de l'évoquer mais qui présente malheureusement le défaut de ne pas être totalement transparent aux yeux du commun des mortels …et (probablement) de quelques décideurs. Cette représentation est donnée sous la forme de l'histogramme représenté ci-dessous qui figure, inséré parmi beaucoup d'autres, au Chapitre 9, page 162, Box 9.2 Fig. 1a du Rapport scientifique du GIEC AR5.
A noter que ce rapport AR5 est dit "final" bien qu'il soit encore susceptible de révisions sans doute pour éliminer les erreurs rémanentes et coller au plus près avec le résumé SPM (Résumé pour les décideurs) qui, lui, a été adopté en assemblée plénière à Stockholm, impliquant les émissaires politiques de chaque nation représentées au GIEC. Ce rapport est ainsi qualifié de " Un rapport accepté par le groupe de travail N°1 mais non approuvé dans les détails." Quelques corrections mineures, relatives aux émissions anthropiques de CO2, ont d'ailleurs été, tout récemment (le 11 Nov.), apportées à ce rapport. Visiblement, les rédacteeurs du rapport ne tiennent pas à répéter les erreurs de l'AR4.
Le "plateau" tel qu'il figure sous la forme d'un histogramme, dans le rapport scientifique AR5 mais ne figure pas dans le Résumé pour les Décideurs
Cet histogramme qui peut paraître un peu obscur aux lecteurs non scientifiques ou techniques, est, en réalité, très explicite. Il nous donne ce qui est appelé "la densité normalisée", autrement dit le nombre d'occurences (ou le "poids") d'une variable (La température HadCRUT4 et les résultats des modèles) en fonction de l'écart de la variation de température (par décennie) reporté, en °C, en abscisse.
Dans un tel graphique, le "plateau" mesuré et observé avec les mesures HadCRUT4 apparaît comme la zone (hachurée rouge) incluse entre les deux barres quasi verticales en trait rouge plein.
Cet histogramme nous apprend deux choses importantes :
1) D'une part, ce que nous savions déjà, c'est à dire que la température moyenne globale n'a pas ou n'a que très peu varié durant la période 1998-2012 et si elle l'a fait, elle a très légèrement augmenté de quelques +0,04°C par décennie, ce qui est évidemment infinitésimal et difficilement mesurable. A noter, en effet que la marge d'erreur (la largeur de la zone hachurée rouge) n'est qu'à peine suffisante pour affirmer que la température à légèrement monté selon le HadCRUT4.
Mon propre calcul avec la base de données HadCRUT4 disponible, donne effectivement +0,04°C par décennie pour la période 1998-Août 2013 ce qui est donc conforme à l'histogramme du GIEC.
Cependant, ce résultat dépend de la base des données choisies. Par exemple, la base de données RSS-MSU (données satellitaires) donne, pour la basse troposphère, un taux de -0,05°C/décennie (1998-Sept. 2013), c'est à dire un très léger refroidissement. .
Il est raisonnable de conclure que, compte tenu des multiples erreurs plus ou moins prises en compte dans l'évaluation de la température moyenne d'un objet aussi vaste et aussi complexe que la planète, la température de l'air à la surface de la planète n'a probablement pas varié de manière significative durant les 14 (ou même 15) dernières années, contrairement à la quasi totalité des prédictions des modèles numériques comme nous allons le voir.
2) D'autre part, cet histogramme nous apporte une information immédiate sur la divergence entre les modèles et les observations qui n'est que discrètement évoquée dans le corps du rapport.
En effet, la zone en grisé représente la distribution des réalisations (c'est à dire des résultats) des différents modèles numériques utilisés par le GIEC (ici, les CMIP5).
Comme on peut le constater immédiatement sur cet histogramme de l'AR5 du GIEC, les modèles ont très systématiquement surestimé la hausse de température de ces quatorze dernières années. En moyenne, les modèles avaient surestimé le réchauffement au moins d'un facteur 4. On peut aussi s'interroger sur la pertinence des modèles dont les réalisations indiquent un hausse de +0,5°C par décennie soit environ 13 fois plus que la réalité objective…En clair, cela signifie comme le savent déjà les lecteurs de ce site, qu'un ou plusieurs facteurs importants qui forcent le climat ne sont probablement pas pris (ou mal pris) en compte dans les modélisations climatiques actuelles.
D'autre part, l'argument N°1 des participants au GIEC (pour nous assurer de la participation anthropique au réchauffement climatique observé) reposait sur le fait que les modélisations ne conduisaient pas aux résultats corrects si elles ne prenaient en compte que les forçages naturels (supposés connus) sans y ajouter le supplément de forçage radiatif dû au CO2 anthropique. On comprend que l''histogramme ci-dessus montre que cette explication est gravement mise en défaut puisque les modèles numériques basés sur le forçage anthropique ne reflètent pas la réalité. Cela pose évidemment quelques questions fondamentales que le GIEC n'a visiblement pas souhaité aborder dans son rapport AR5 et, à fortiori, dans le SPM.
Dans ces conditions, l'affirmation d'une certitude de 95% au sujet du réchauffement anthropique, apparaît plutôt curieuse, sinon hasardeuse, voire pire, comme l'ont d'ailleurs noté de nombreux scientifiques tels que ceux dont j'ai rapporté les propos dans les billets précédents.
Voici la légende relative à cet histogramme relatif au "plateau"telle qu'elle figure dans l'AR5 à la référence indiquée :.
" Tendances de la GMST (température moyenne globale de l'air à la surface) en °C par décennie pour la période 1998-2012. Les observations ont nécessité la réalisations de 100 ensembles du HadCRUT4. Elles sont indiquées par la zone hachurée en rouge (Morice et al., 2012)). Les incertitudes des ensembles sont indiquées par des largeurs conformément à une analyse statistique de la moyenne seule, au contraire des incertitudes des tendances qui sont citées dans la Section 2.4.3, qui inclut une estimation de la variabilité climatique interne. Ici, au contraire, la variabilité est caractérisée par la largeur de la distribution des ensembles de modèles….Pour les modèles, toutes les réalisations des 114 modèles CMIP5 sont montrées, étendues après 2005 pour les scénarios RCP5.5 et jusqu'à 2012 (ombrés en gris d'après (Fyfe, Gillett, & Thompson, 2010))… Les traits noirs représentent des versions lissées des histogrammes. Chaque histogramme est normalisé de telle façon que la sommes de ses aires soit égales à un |
L'histogramme ci-dessus qui figure dans le volumineux rapport scientifique AR5, ne figure pas dans le rapport SPM destiné aux politiques. C'est dommage car il est relativement explicite sur le plateau actuel et les divergences modèles/observations depuis une quinzaine d'années. .
Plus explicite encore était le graphique ci-contre qui figurait dans la seconde édition du rapport AR5 (le SOD), mais qui (hélas) ne figure ni dans le SPM ni dans dans le rapport complet AR5 (pré)définitif.
Le graphique ci-contre est pourtant parfaitement cohérent avec l'histogramme précédent. Il montre que la quasi totalité des modèles actuels et anciens surestiment nettement la hausse des températures depuis au moins 15 ans et que les projections de l'élévation de la température moyenne sont probablement exagérées.
A noter que le graphique ci-dessus est plus facile à lire et à interpréter que l'histogramme précédent. N'aurait-il pas été approprié pour le SPM ?
Il apparaît que les rédacteurs du SPM et du rapport complet AR5 ont été d'un avis opposé.
Vous avez probablement lu, ici ou là, dans la presse francophone que cette divergence entre les températures observées et les modèles ainsi que le "plateau" ne remettent en cause ni la modélisation ni le futur du réchauffement climatique. C'est peut-être l'opinion de quelques journalistes francophones, mais elle n'est visiblement pas partagée par de nombreux scientifiques spécialistes dans ces domaines qui se posent des questions fondamentales sur les modélisations, la sensibilité climatique revue à la baisse (voir ci-dessous), l'absence du hotspot troposphérique tropical prévu par la théorie mais non observé etc. J'ai déjà rapporté les propos, sur ces sujets, de quelques éminents climatologues proches du GIEC tels que Lennard Bengtsson et Hans von Storch.
Pour sa part, un autre climatologue renommé et, lui aussi, supporter du GIEC, le Professeur Jochem Marotzke du Max-Planck-Institut für Meteorologie, tout en réaffirmant son adhésion aux points de vue du GIEC, déclare que :
"Le hiatus récent du réchauffement de la surface constitue un défi scientifique fascinant…Il nous force à réfléchir à la totalité du système climatique et, peut-être, à repenser quelques-uns de nos concepts de base tels que, par exemple, la manière dont nous formulons le budget énergétique et les rétroactions." |
Ainsi, il apparaît que les leaders scientifiques du GIEC sont inquiets des divergences modèles/observations et du "plateau" de températures, à l'instar de nombreux organes de presse étrangers qui adoptent des positions nettement plus nuancées que celles de la presse francophone, quand ils ne remettent pas carrément en cause les affirmations du GIEC, comme je vous l'avais montré dans le billet précédent.
Pour sa part, visiblement moins confiant (et peut-être mieux informé) que nos journalistes, le Parlement Britannique a décidé de lancer une investigation sur la "robustesse" du rapport AR5 du GIEC (New inquiry: IPCC 5th Assessment Review) Il en explique les motivations (caractères engraissés par PU) :
"Le GIEC a exercé une grande influence sur l'action nationale et internationale pour la prévention d'un changement climatique dangereux. Cependant, il a également été l'objet de critiques concernant le fait qu'il a été exagérément influencé par les objectifs politiques gouvernementaux et parce qu'il n'a pas répondu de manière satisfaisante aux questions concernant la pause récente du réchauffement climatique, non plus qu'aux critiques du Conseil Interacadémique de l'AR4, ainsi que sur d'autres sujets. |
Ce qui semble frappé au coin du bon sens et pourrait servir d'exemple à beaucoup de Parlements. A noter que Donna Laframboise, la journaliste d'investigation canadienne auteur de deux analyses particulièrement critiques (1 et 2) sur le GIEC et son personnel, a été invitée à soumettre un texte écrit résumant son point de vue pour cette anquête du Parlement Britannique.
Par ailleurs, Steve Mc Intyre qui, comme d'habitude, s'est plongé dans l'analyse approfondie du rapport AR5 et du SPM, démontre, entre autres, que les rédacteurs du rapport ont considérablement élargi les marges d'incertitudes (presque d'un facteur 2) de leurs modèles pour tenter de faire rentrer les observations sur l'évolution de la température globale dans les incertitudes des modélisations numériques dans un graphique introduit en dernière minute. Ce graphe apparait incohérent avec un graphique qui figurait dans le rapport soumis à l'examen des experts toujours selon S. Mc Intyre. Ce sont des procédés (normalement) très peu appréciés dans les milieux scientifiques.
2) Le "plateau" vu par le "Résumé Pour les Décideurs", le SPM de l'AR5.
Comme je l'ai mentionné plus haut, le "plateau" ou la stagnation des températures depuis 1998, n'est que très peu mentionné dans le rapport SPM pour les politiques. Il était cependant hors de question de s'abstenir de publier la moindre courbe sur l'évolution de la température moyenne du globe en y incluant les observations récentes (jusqu'en 2012). Plutôt que de publier le graphe des données mensuelles tel que celui qui est présenté en tête de ce billet, les rédacteurs de ce rapport du GIEC ont choisi de présenter des courbes "lissées", c'est à dire des données moyennée sur des périodes plus ou moins longues. Cette technique est assez critiquable et ses défauts sont bien connus des statisticiens qui recommandent de ne l'utiliser qu'avec parcimonie parce que lissage déforme les courbes et fait disparaître une partie de l'information utile aux extrémités des graphes.
Comment procède-t-on au "lissage" (ou encore au moyennage) d'un graphe ? Quelles en sont les conséquences ?
Dans sa version universellement utilisée, le "lissage" ou "moyennage" des données d'un graphique consiste à recalculer l'ordonnée de chaque point donné du graphique en lui donnant une valeur égale à la moyenne des n/2 données précédentes et des n/2 suivantes du graphique original. On comprend aisément que ce procédé "gomme" toutes les aspérités dont la largeur est nettement inférieure à n. Il s'agit donc bien d'un lissage.
On comprend aussi que ce procédé de lissage ne peut être poursuivi à l'approche des extrémités du graphique, faute de données disponibles pour effectuer le moyennage. S'agissant d'une évolution temporelle, il en résulte immanquablement une disparition des données les plus récentes, même s'il existe des procédés sophistiqués, plus ou moins artificiels et rarement utilisés pour tenter de pallier ce défaut.
Du point de vue mathématique, le lissage équivaut à effectuer ce que l'on appelle un "produit de convolution". Par exemple, en spectroscopie traditionnelle, un lissage fâcheux des spectres enregistrés résulte inévitablement de l'utilisation d'un spectrographe à bande passante trop large pour l'analyse de raies d'absorption ou d'émission fines. Le spectroscopiste est alors contraint d'effectuer de ce que l'on appelle une "déconvolution" pour tenter de reconstruire les caractéristiques réelles des raies d'absorption ou d'émission étudiées qui ont été déformées et élargies par la convolution avec la bande passante du spectrographe.
Voici ci-dessous, dans la colonne de gauche, quelques-uns des graphes lissés présentés dans le rapport SPM AR5 2013. les graphes reportés dans la colonne de droite sont de PU.
Le graphique en deux volets, ci-dessus, figure dans le rapport résumé pour décideurs (SPM) (Approuvé, page SPM 27, 27 Sept. 2013). Le graphique du haut est donné pour une représentation "moyennée" sur un an (annual average), dans laquelle, le "plateau" vu précédemment avec les données mensuelles est devenu moins perceptible que sur le graphique mensuel non traité. Le graphique du bas, ci-dessus, est intitulé "decadal average" (moyenné sur dix ans) ce qui constitue une sorte de lissage que l'on peut considérer comme extrême. Ce graphique ne figurait d'ailleurs dans aucune des versions précédentes du rapport soumises au jugement des experts. Cette présentation a évidemment le défaut évident de dépendre de l'origine des décennies choisies comme point de départ et, surtout, de faire complètement disparaître le "plateau" de température de ces quinze dernières années au moyen d'un artifice de présentation assez douteux. |
|
Certains facétieux ont qualifié ce graphique "en escalier" de "hide the plateau" (cacher le plateau) en référence au fameux "hide the décline" (c'est à dire cacher le déclin des températures) qui figurait en toutes lettres dans un des courriels de Phil Jones (CRU UK) mis à jours en 2009 par ce que la presse US-UK a appelé le Climategate. |
Ci-dessus, tout en haut, le graphe original des données mensuelles du HadCRUT4. De manière à vérifier les procédures du GIEC, j'ai fait subir le même traitement (lissage-moyennage, à l'aide de deux logiciels indépendants qui donnent le même résultat) aux mêmes données HadCRUT4 utilisées pour l'AR5, en appliquant un moyennage sur un an (dessin du milieu) et un moyennage sur deux ans (dessin ci-dessus en bas). On voit que le graphe rapporté dans le rapport SPM du GIEC est très proche de celui qui a subi un moyennage sur 24 mois (deux ans) et assez nettement différent de celui qui a été moyenné sur 12 mois (un an) contrairement à l'indication portée sur le graphique du SPM. Pourquoi ne pas avoir, tout simplement, présenté les courbes originales des données mensuelles dans le rapport scientifique AR5 et dans le SPM ? . |
La question du "plateau" des températures est évidemment directement liée à la problématique N°1 de la modélisation du climat qui relève de ce que l'on appelle "la sensibilité climatique", autrement dit de la sensibilité du climat de la planète vis à vis d'une augmentation donnée du taux de gaz carbonique dans l'atmosphère.
3) Le GIEC et les incertitudes sur la "sensibilité climatique"
L'astrophysicien israélien Nir Shaviv (déjà cité dans ce site) est professeur à l'Institut Racah de l'Université de Jérusalem. Il est bien connu, dans le domaine de la climatologie, pour avoir défendu, articles scientifiques à l'appui, la théorie solariste, c'est à dire celle qui attribue une influence importante à l'activité solaire sur le climat.
Shaviv a publié ses premiers commentaires sur le rapport AR5 du GIEC. Il commence par rappeler l'explication de "la sensibilité climatique à l'équilibre" incluse dans le Résumé pour les Décideurs (SPM page 11) de l'AR5 du GIEC dont voici une traduction :
“La sensibilité climatique à l'équilibre quantifie la réponse du système climatique à un forçage radiatif constant pour des échelles de temps multiséculaires. Elle est définie par le changement de la température moyenne à l'équilibre de la surface du globe causée par un doublement de la concentration du CO2 atmosphérique. La sensibilité climatique à l'équilibre se trouve probablement dans le domaine de 1,5°C à 4,5°C (confiance élevée). Il est extrêmement improbable qu'elle soit inférieure à 1°C (confiance élevée) et il est très improbable qu'elle soit plus grande que 6°C (confiance moyenne). Ainsi la limite basse du domaine de variations estimé est plus faible que celle de 2°C de l'AR4 mais la limite supérieure est la même. Cette évaluation reflète une meilleure compréhension des données complétées des enregistrements des températures dans l'atmosphère et dans les océans ainsi que de nouvelles estimations du forçage radiatif." (caractères engraissé par PU) |
Voici les commentaires de Nir Shaviv, dans l'encadré bleu-vert ci-dessous :
"A présent, n'avez vous pas remarqué quelque chose de bizarre ? Selon le rapport AR4 (NdT : le précédent rapport du GIEC publié en 2007) le domaine probable de la "sensibilité climatique à l'équilibre" allait de 2,0°C à 4,5°C pour un doublement du CO2. Selon le nouveau rapport AR5, il est maintenant de 1,5°C à 4,5°C, c'est à dire que la sensibilité à l'équilibre est maintenant connue avec une plus grande incertitude. Mais ils écrivent que "Cette évaluation reflète une amélioration de la compréhension ". Comment peut-on se ridiculiser à ce point là ?
Pour être plus sérieux laissez moi mettre cela en perspective avec le graphique le plus ennuyeux que j'ai jamais tracé de ma vie. Ci-dessous (ci-contre) est reporté le domaine probable de la sensibilité climatique en fonction du temps. Comme vous pouvez le voir, à l'exception de l'AR4 avec son domaine légèrement plus petit, le domaine probable de la sensibilité climatique n'a pas changé depuis le rapport Charney publié en 1979.
En d'autres termes, après peut-être des milliards de dollars investis dans la recherche climatique pendant plus de trente ans, notre capacité à répondre à la question la plus importante sur le climat ne s'est pas améliorée le moins du monde.
Je pense que la véritable raison pour laquelle il n'y a eu aucune amélioration dans la compréhension de la sensibilité climatique est la suivante. Si vous avez une théorie qui est correcte alors, au fur et à mesure que les observations s'accumulent, l'accord va en s'améliorant. Bien entendu, à l'occasion, quelques corrections peuvent s'avérer nécessaires mais, de manière générale, l'accord progresse. En revanche, si les bases de la théorie sont fausses, il n'y a aucune amélioration à mesure que les nouvelles données sont introduites. En fait, c'est l'inverse qui se produit. Le désaccord va en augmentant. En d'autres termes, le comportement ci-dessus reflète le fait que le GIEC et consorts sont captifs d'une conception erronée. La divergence entre la théorie et les données de l'observation fournit une description exacte de la situation durant ces dernières années avec l'absence de l'augmentation de température (par exemple comme je l'ai évoqué il y a quelque temps). C'est aussi la raison pour laquelle le GIEC a été contraint d'abaisser la limite inférieure. La divergence est maintenant suffisamment importante pour que la limite la plus basse de 2°C soit incompatible avec les observations. De fait, en se pliant à un comportement légitime du point de vue scientifique, la limite haute aurait dû être également abaissée mais pas dans le cas présent. Parce que ceci exigerait d'abandonner l'hypothèse de base d'une grande sensibilité. Puisque les mesures requièrent une faible sensibilité et que l'alarmisme en exige une forte, il est à parier que "le domaine probable" restera très étendu jusqu'à la disparition de l'alerte au réchauffement climatique. En aparté, si on n'est pas captif de l'idée d'une haute sensibilité, alors les choses convergent. Mais elles convergent vers une sensibilité climatique d'environ 1°C à 1,5°C pour un doublement du taux de CO2." |
De l'autre côté de la barrière, les supporters ou les participants aux rapports du GIEC se trouvent ainsi confrontés à de sérieuses difficultés.
En effet, comment expliquer au public et aux "décideurs" que les domaines d'incertitudes ne se réduisent pas et ont même augmenté, alors que les observations de toute nature se sont accumulées au cours des décennies passées ?
De fait, il est communément admis, comme l'explique Nir Shaviv ci-dessus, que l'apport de nouvelles observations à une théorie dont les fondements sont corrects, conduit assez systématiquement à une réduction des marges d'incertitudes.
Mais, apparemment, pour certains, il n'en est rien. Quelques uns des supporters ou participants aux GIEC ont alors introduit une notion aussi nouvelle que contre-intuitive, qu'ils ont baptisée "Apprentissage déconcertant". Leur article, résultant d'une collaboration franco-américaine, est dûment publié. Il est intitulé : "Disconcerting learning on climate sensitivity and the uncertain future of uncertainty."Soit "L'apprentissage déconcertant sur la sensibilité climatique et le futur incertain de l'incertitude."
Pour vous permettre de vous faire une idée un peu plus précise sur cette notion d'"'apprentissage déconcertant sur la sensibilité climatique", je vous donne ci-dessous une traduction du résumé de cet article :
Résumé : Comment nos estimations de l'incertitude climatique vont-elles évoluer au cours des années à venir alors que nous acquérons de nouvelles connaissances et que la recherche climatique continue à progresser ? En tant que contribution préliminaire à la résolution de cette question, nous avançons l'idée que la trajectoire future de l'incertitude climatique peut être, elle-même, incertaine et que l'incertitude est en fait encline à être, elle-même, tout-à-fait incertaine même si nous en apprenons plus sur le système climatique. Nous désignons par le terme d'"apprentissage déconcertant" ce processus quelque peu contre-intuitif selon lequel une amélioration des connaissances conduit en général à de plus grandes incertitudes. Après avoir rappelé quelques définitions, ce concept est relié au au concept parent de "l'apprentissage négatif" qui a été préalablement introduit par Oppenheimer et al. (Clim Change 89:155–172, 2008). Nous illustrons l'apprentissage déconcertant à partir de plusieurs exemples tirés de la vie courante et nous caractérisons mathématiquement certaines conditions générales pour qu'il entre en jeu. Nous montrons que ces conditions sont réunies dans l'état actuel de nos connaissances en matière de sensibilité climatique et nous illustrons cette situation qui repose sur un modèle de bilan à l'équilibre énergétique du climat. Enfin, nous discutons des implications de ces résultats sur la mise en place des politiques d'adaptation et d'atténuation |
En bref, "l'apprentissage déconcertant" se produit lorsque les données nouvelles résultant de l'observation (c'est l'apprentissage) ne collent pas avec la théorie en vigueur (comme, entre autres, le plateau de température observé depuis une quinzaine d'années qui ne "colle" pas avec les modèles numériques du GIEC comme nous l'avons vu ci-dessus). On est alors effectivement "déconcerté". Cependant, les auteurs de l'article en question nous expliquent qu'il ne faut pas s'en inquiéter. Dans le même ordre d'idées, Michael Oppenheimer (un astrophysicien) avait publié un article, quelque temps auparavant, expliquant que "l'apprentissage négatif" qui survient lorsque les observations s'écartent carrément des modèles, n'est pas non plus inquiétant et, ajoute l'auteur, ne doit surtout pas nous empêcher de prendre les décisions politiques qu'il faudrait (selon lui) adopter de toute urgence.
Pour ma part, en tant que scientifique, je trouve tout cela plutôt "déconcertant". Je dois avouer humblement que je n'avais jamais pensé aux "incertitudes des incertitudes" non plus qu'à 'l'apprentissage négatif" de Michael Oppenheimer ni à "l'apprentissage déconcertant" des auteurs de cet article. Tout comme Nir Shaviv, j'en étais naïvement resté aux premiers principes sur la "clef de la science" qu'enseignait autrefois le célèbre prix Nobel de Physique, Richard Feynmann à ses étudiants de Cornell. Feymann leur expliquait que quand les observations ne sont pas d'accord avec les modèles c'est parce que ces derniers sont tout simplement faux. Et il concluait par "that's all there is to it" (C'est tout ce qu'il y a à en dire).
4) Changement de paradigme de la climatologie ?
Comme je l'avais noté dans le billet précédent, la climatologue Judith Curry a écrit que le GIEC est "atteint de paralysie du paradigme"(ce qui rejoint le constat de Nir Shaviv qui conclut que le GIEC est "captif des hautes sensibilités"). Cette déclaration est, sans nul doute, étayée par ses récents résultats de recherche qui concerne la mise en évidence d'une "onde de stade" parfaitement naturelle et non anthropique, dans l'évolution du climat de l'hémisphère Nord. Son article, rédigé en collaboration avec Marcia Wyatt (qui a préparé sa thèse de doctorat sous la direction d'Anastasios Tsonis) vient de paraître. J'avais évoqué cette question relative aux téléconnexions "décalées" dans un billet antérieur baptisé "la Ola" (l'onde de stade en espagnol).
M.G. Wyatt and J.A. Curry, “Role for Eurasian Arctic shelf sea ice in a secularly varying hemispheric climate signal during the 20th century,” " Rôle de la banquise arctique eurasienne dans l'évolution séculaire du signal climatique durant le XXe siècle" (Climate Dynamics, 2013). Le manuscrit peut-être chargé ici.
Extraits du communiqué de presse de Georgia Tech : (caractères engraissés par PU)
‘Les ondes de stade pourraient expliquer l'accalmie du réchauffement climatique". "Le signal de l'onde de stade prédit que la pause actuelle du réchauffement climatique pourrait se prolonger jusque dans les années 2030" a dit Wyatt, l'auteur principal de l'article. Curry a ajouté :"Cette prévision est en opposition avec le rapport AR5 du GIEC qui vient d'être publié et qui prévoit un probable retour du réchauffement qui serait sans doute dans l'intervalle d'une hausse de 0,3 à 0,7°C de la température globale moyenne de 2016 à 2035". Curry est la directrice du département des Sciences de la Terre et de l'atmosphère au Georgia Institute of Technology…. “ Les modèles climatiques actuels sont exagérément amortis et déterministes et ils se focalisent sur les impacts des forçages externes plutôt que de simuler la variabilité interne naturelle associée aux interactions non linéaires couplées du système océan-atmosphère." nous dit Curry. "L'onde de stade prédit que la banquise va récupérer de son précédent minimum, d'abord dans la partie Ouest eurasienne de l'Arctique, suivie d'une récupération dans l'Arctique sibérien." dit Wyatt. "Il apparaît que le minimum d'extension de la glace observé en 2012 suivi par une augmentation de l'extension en 2013, est cohérent avec le temps d'évolution du signal de l'onde de stade." |
Comme s'en souviennent peut-être les lecteurs(trices) attentifs(ves) de ce site, beaucoup d'autres que Marcia Wyatt et Judith Curry ont avancé les mêmes prévisions pour ce qui concerne les deux ou trois décennies à venir, toujours à partir d'arguments basés sur les facteurs naturels qui président à l'évolution du climat et non pas sur les forçages anthropiques.
Pour la petite histoire, il faut savoir que la jeune docteur Marcia Glaze Wyatt n'est pas parvenue à se faire recruter dans les milieux favorables aux thèses du GIEC de la climatologie US. Elle a réalisé ce travail avec J. Curry, financée par un contrat (CDD). Il est clair que publier un ou des articles qui remettent en cause les prédictions/scénarios du GIEC ne contribue pas à vous assurer une carrière dans le petit monde actuel de la climatologie….
Néanmoins, il apparaît qu'un nombre croissant d'articles paraissent depuis quelque temps, qui s'intéressent à la variabilité naturelle du climat. En voici un autre, tout récent, parmi beaucoup d'autres :
"NAO implicated as a predictor of Northern Hemisphere mean temperature multidecadal variability".
Soit : "Implications de la NAO (l'Oscillation Nord Atlantique) comme prédicteur de la variabilité pluridécennale de la température moyenne de l'hémisphère Nord".
Jianping Li, Cheng Sun, Fei-Fei Jin
Geophysical Research Letters (Oct. 2013) DOI: 10.1002/2013GL057877.
Extrait du résumé :
"On prédit que la température de l'hémisphère Nord de 2012 à 2027 baissera légèrement durant les prochaines décennies. Ceci étant dû à l'affaiblissement récent de la NAO qui obère temporairement le réchauffement climatique anthropique".
Comme on le constate, le "plateau", plus ou moins passé sous silence par le GIEC et balayé sous le tapis par nos médias, pousse les scientifiques à la réflexion…
C'est une bonne chose.
5) Conclusions (en GIEC moderne)
Au vu des observations précédentes, il est extrêmement probable que la présentation de la totalité du rapport SPM (approuvé en Septembre par les politiques à Stockholm) et de l'AR5, a été largement "organisée" dans le but de satisfaire à un certain nombre d'objectifs politiques (confiance élevée) des gouvernements représentés et ceci, bien entendu, avec l'accord des scientifiques, délégués auprès du GIEC, présents à la réunion. Comme l'ont relevé un certain nombre de journalistes présents à Stockholm, et suite aux exigences exprimées ouvertement par plusieurs représentants politiques de divers pays, il est très probable que le plateau de température a été délibérément dissimulé (confiance élevée) ou minoré dans le but de ne pas remettre en question les politiques publiques adoptées ou mises en place par un certain nombre de gouvernements (confiance élevée).De même, il est extrêmement probable que le degré de confiance exprimé par le GIEC envers la participation humaine au réchauffement climatique qualifiée pour l'AR5 d' "extrêmement probable" (95% de certitude, dans la ligne de la progression FAR = confiance, SAR =confiance accrue, TAR = probable, AR4 = très probable), résulte d'objectifs stratégiques et politiques de l'organisme et ne repose pas sur des éléments de progrès scientifiques mesurables tels que l'affinement des marges d'incertitudes et la résolution d'un certain nombre de questions importantes et contrariantes, toujours pendantes (confiance élevée).
Que peut-on dire de l'avenir ?
S'il est une chose dont les scientifiques ont horreur, c'est de se trouver démentis par les observations et par les faits. Dans le prolongement de la démarche de Judith Curry et de beaucoup d'autres, il est probable que nombre de chercheurs qui ont travaillé dans la ligne du GIEC vont chercher à s'écarter du "paradigme" qui les a visiblement conduits à une situation délicate comme cela apparaît nettement à la lecture de ces rapports dont un analyste a déclaré qu'il sucittait la compassion (pour les rédacteurs contraints à cet exercice). C'est ainsi que dans les mois et les années à venir, on peut s'attendre à ce que le nombre des articles qui s'intéressent aux variations climatiques naturelles augmente sérieusement… c'est à dire faire ce par quoi la Climatologie aurait dû commencer si quelqu'un n'avait pas eu l'idée saugrenue de mettre en place le GIEC avec un ordre de mission qui inversait le sens de la démarche scientifique.
Attendons donc nous à un changement ou, au moins, à une évolution progressive du paradigme vers les causes naturelles de l'évolution du climat dans un proche avenir.
Nous verrons. Stay tuned !
Le prochain billet est déjà bien avancé …
4 réflexions sur « Le GIEC, “le plateau” de température et quelques curiosités »